天天看點

李飛飛:人工智能大爆發,10大前沿

李飛飛:人工智能大爆發,10大前沿

作 者:李飛飛 (DR. FEI-FEI LI)斯坦福大學以人為本人工智能研究院(HAI)聯合院長

來 源:正和島(ID:zhenghedao)

本文整理自《我看見的世界:李飛飛自傳》,正和島經授權發表。

4月15日,李飛飛上司的斯坦福大學以人為本人工智能研究院(HAI)釋出2024年度《人工智能指數報告》。

這是《人工智能指數報告》的第七年。過去一年,以ChatGPT為代表的人工智能模型席卷世界,許多人預測,人工智能的“奇點時刻”正在臨近,機器超越人類的時代已經來臨。

這份報告涵蓋了過去一年人工智能的技術進步、公衆對該技術的看法以及其未來的發展趨勢。它是技術飛速發展下的一個注腳,幫助我們了解當下正在發生的變化,以更好地了解我們所處的環境。

人工智能發展的十個事實

1. 人工智能在某些任務上超越了人類,但它需要追趕的地方還有很多

在圖像分類、視覺識别和語言了解等領域,人工智能已經超越了人類的能力。然而,在競賽數學、視覺了解和規劃等更複雜的任務上,人工智能仍在追趕人類。

2. 美國仍處于領先地位,但中國已經成為最大的人工智能專利來源國

李飛飛:人工智能大爆發,10大前沿

2023年,美國釋出了61個值得關注的機器學習模型,歐盟和中國分别是21個和15個。但值得關注的是,中國已經在2022年以61.1%的份額成為全球人工智能專利最大來源國,美國人工智能專利份額則從2010 年的54.1%下降至2022年的20.9%。

3. 産業界仍在主導人工智能的前沿研究,進一步推動了相關人才從學術屆轉移

2023年,産業界釋出了51個值得關注的機器學習模型,而學術界僅貢獻了15個。缺乏算力的學術界在當下人工智能的發展上仍然處于劣勢,推動了相關人才從學術屆向産業界轉移。2019年,美國和加拿大新增加的人工智能領域教師有13%來自産業界。到2021年,這一數字已下降至11%,2022年進一步下降至7%。

李飛飛:人工智能大爆發,10大前沿

4. 人工智能模型研究變得更加昂貴

李飛飛:人工智能大爆發,10大前沿

OpenAI的GPT-4訓練成本高達7800萬美元,而Google的Gemini Ultra更是達到了驚人的1.91億美元。

5. 類似于ChatGPT的大語言生成模型仍然缺乏完善的倫理及風險評估

由于不同模型的測試基準并不相同,使得評估人工智能模型的偏見和倫理問題變得更加複雜。

随着生成模型開始可以生成高品質的文本、圖像等,人工智能的基準測試已慢慢開始納入人工評估

(如Chatbot Arena排行榜)

,而不是單純的計算機化排名

(如ImageNet)

。公衆對人工智能的感受正在成為追蹤人工智能進展的一個越來越重要的考慮因素。

6. 生成式人工智能的投資過去一年增長了近8倍

李飛飛:人工智能大爆發,10大前沿

生成式人工智能的領域資金比2022年增長了近八倍,達到252億美元。

7. 人工智能提高了勞動者的工作效率,産出的品質也變得更高

多項研究表明人工智能使勞動者能夠以更快地速度完成任務并提高産出品質,還可以幫助彌合低技能勞動者和高技能勞動者之間的技能差距。但有研究警告稱,在沒有适當監督的情況下使用人工智能可能會導緻勞動者的工作水準下降。

8. 人工智能幫助醫學研究取得了突破性進展

李飛飛:人工智能大爆發,10大前沿

過去幾年,人工智能在MedQA

(醫學文本問答資料集)

基準上表現出了顯著的進步,這是評估人工智能臨床知識的關鍵測試。GPT-4 Medprompt的準确率達到了90.2%,比2022年的最高分提高了22.6 個百分點。自2019年推出該基準測試以來,人工智能的準确性幾乎增加了兩倍。

9. 人工智能領域的法規數量急劇增加

李飛飛:人工智能大爆發,10大前沿

2023年,美國人工智能相關法規數達到了25個,而2016年僅有1個。全球各國的法律法規提及人工智能的次數從2022年的1247次增加到2023年的2175次,幾乎翻了一番。

10. 人們意識到人工智能正在産生的影響,對這項技術的發展也更加謹慎

益普索(Ipsos)的一項調查顯示,去年,認為人工智能将在未來三到五年内極大影響他們生活的人比例從60%上升到66%。此外,52%的人表示對人工智能産品和服務感到焦慮,比2022年上升了13個百分點。皮尤研究中心的資料顯示,52%的美國人表示對人工智能感到擔憂,這一比例高于2022年的38%。

值得關注的是,年輕一代普遍對人工智能技術的發展更為樂觀。59% 的Z世代受訪者認為人工智能将改善人類的生活品質,而美國嬰兒潮一代的這一比例僅為40%。此外,與低收入和受教育程度較低的人相比,收入和教育水準較高的人對人工智能的發展更加樂觀。

人是核心

2022年底,ChatGPT的公開釋出席卷了世界,随後出現了更多生成式人工智能工具。

從最初隻能執行簡單的任務到如今具備類似人類的能力,短短幾年的時間,人工智能的發展速度令人咋舌,與此同時,人們對其潛在風險的擔憂也日益增加。

事實上,人工智能存在的偏見問題直到現在依然沒有被很好地解決。

2023年底,《華盛頓郵報》發表了一篇詳盡的專題報道,深入探讨了機器學習技術中潛在的偏見。目前的AI圖像生成模型,如Dall-E和 Stable Diffusion,有時仍會反映出社會的刻闆印象。

例如,在生成“具有創造力的人”的圖像時,這些系統往往傾向于呈現白人形象;而在描繪“社會服務人員”時,則多數情況下展示的是有色人種的形象。

其實,大型語言模型,即使是多模态的大型語言模型,可能也并不具備真正意義上的“思考”能力。大型語言模型很容易出現荒謬的概念性失誤,也樂于編造聽起來合理但實際上毫無意義的胡言亂語。

了解這些事實有助于我們避免過分迷戀模型的能力。然而,随着大型語言模型生成的文本、圖像、語音和視訊越來越複雜,真與假之間的界限愈加模糊。作為個人、機構,甚至社會,我們究竟有沒有能力區分真實和虛構?

我們仍身處一場全球風暴之中,每天似乎都有新的頭條新聞報道人工智能對全球勞動者構成的威脅。

随着人工智能在監控領域的應用日趨成熟,記者和人權活動家的擔憂與日俱增,對隐私和個人尊嚴的古老威脅也在現代社會出現,相關報道使公衆對人工智能形成了負面看法,這在整個科技領域都是非常罕見的。

科技不斷發展,算法語言表達的進階程度已逼近人類水準。機器人正在逐漸學會應對真實的環境。視覺模型不僅可以通過照片進行訓練,還可以在全三維世界中進行沉浸式實時訓練。

人工智能能夠像識别内容一樣流暢地生成内容。與此同時,倫理問題在我們周圍不斷湧現,與人類經濟社會發展的關聯也日益緊密,但這就是科學一直以來的樣子。

未來會怎樣?

人工智能曾經是純粹的科學,而現在,我們更願意用:“現象”“颠覆”“謎題”“特權”“自然之力”來定義新一代人工智能所能做的一切,無論是好是壞,無論是在預期之内,還是在意料之外,都因其設計本身缺乏透明度而變得複雜。

如果在算法設計完成後,再加入安全性和透明度等考慮因素,無論設計得多麼精妙,都不足以滿足要求。下一代人工智能必須從開發之初就采取與現在完全不同的理念。以激情為起點固然很好,但我們要面對的是紛繁複雜而又不起眼的挑戰,要取得真正的進展,就必須有敬畏之心。而矽谷似乎缺乏這種心态。

如今,人工智能是一種責任,是我們所有人共同承擔的責任。

深度學習飛速發展,每一年都感覺像是要面對一個全新的領域,其應用的深度和多樣性增長得如此之快,甚至全職研究所學生和博士後也很難跟上文獻的步伐,更不用說教授們了。可能性無窮無盡,挑戰也永無止境。

即使在這樣一個黑暗的時代,人工智能也具有無與倫比的激勵力量。面對全球亟待解決的問題,面對具有曆史意義的機遇,面對可能需要幾代人的努力才能揭開謎底的未知,真正解決所有問題的答案遠遠不是公司戰略或學術課程所能提供的。

未來幾年,從業者需要的不僅是專業技術知識,他們還必須了解哲學、倫理學,甚至法律。

想象空間是巨大的,但願景需要一個重要的紐帶串聯起來,這個紐帶就是大學。早在有人利用人工智能謀取利益之前,人工智能就已經在大學裡起步了。在大學校園裡,仍然最有可能感受到某些意想不到的研究突破帶來的火花。感覺機、神經網絡、ImageNet,以及後來的很多東西都出自大學。

要從根本上重新構想人工智能,使其成為以人為本的實踐,與其說這是旅程方向的改變,不如說是旅程範圍的擴充。人工智能一直以來都追求科學性,而現在,它必須也追求人性。

人工智能應該秉承最優秀的學術傳統,保持合作和敬畏,同時不懼怕直面現實世界。畢竟,星光是多樣的。一旦白色的光輝展開,各種顔色就會發出耀眼奪目的光芒。

排版

 | 沈望望

編輯

 | 允允 

主編

| 孫允廣

繼續閱讀