天天看點

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

作者:新智元

編輯:潤 alan

【新智元導讀】2023這個大模型爆發的元年即将過去,展望未來,比爾蓋茨,李飛飛,吳恩達等人對2024年人工智能的發展作出了自己的預測。

2023,可以說是人工智能的春天。

在過去的一年裡,ChatGPT成為家喻戶曉的名字,

這一年中,AI和AI公司的各種變革,讓我們震驚,也成為我們茶餘飯後的瓜果。

這一年中,生成式AI取得了重大進展,使得人工智能初創公司吸引了大量資金。

人工智能領域的大佬們開始讨論AGI的可能性,政策制定者開始認真對待人工智能監管。

但在人工智能和科技行業們的領袖眼中,AI浪潮可能才剛剛起步。之後的每一年,可能都是浪潮最洶湧澎湃的一年。

比爾蓋茨,李飛飛,吳恩達等人,都在最近對未來AI的發展趨勢談了自己的看法。

他們都不約而同地談到了期待更大的多模态模型、更令人興奮的新功能,以及圍繞我們如何使用和監管這項技術的更多對話。

比爾蓋茨:2個預測,1個經驗,6個問題

比爾蓋茨在自己的官方部落格上發表了一篇萬字長文,将他眼裡的2023年描繪成了一個新時代的全新開端。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

文章位址:https://www.gatesnotes.com/The-Year-Ahead-2024?WT.mc_id=20231218210000_TYA-2024_MED-ST_&WT.tsrc=MEDST#ALChapter2

這篇部落格依然還是從他在蓋茨基金會的工作為切入,談到了世界範圍内已經出現或者将會出現哪些影響深遠的變化。

針對AI技術的發展,他說:

如果我必須做出預測,那在像美國這樣的高收入國家,我猜我們距離普通大衆廣泛地使用人工智能還有18到24個月的時間。

在非洲國家,我預計在三年左右的時間裡會看到類似的使用水準。這其中仍然存在差距,但它比我們在其他創新中看到的滞後時間要短得多。

比爾蓋茨認為,AI作為目前地球範圍内影響最深遠地創新技術,将會在3年内徹底席卷全球。

蓋茨在博文中表示,2023年是他第一次在工作中出于「嚴肅的原因」使用人工智能。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

與前幾年相比,世界對AI能夠自己完成哪些工作以及「充當哪些工作的輔助工具」有了更好的認識。

但對于大部分人來說,要讓AI在工作場景中充分發揮作用還有一定距離。

基于他自己獲得的資料和觀察體驗,他表示行業應該吸取的一個最重要的教訓是:産品必須适合使用它的人。

他舉了一個簡單的例子,巴基斯坦人通常互相發送語音留言,而不是發送短信或電子郵件。是以,建立一個依賴語音指令而不是輸入長查詢的應用程式是有意義的。

從他本人最關心的角度,蓋茨提出了5個問題,希望工智能可以在相關領域發揮巨大作用:

-人工智能可以對抗抗生素耐藥性嗎?

-人工智能能否為每個學生創造出個性化的導師?

-人工智能可以幫助治療高危妊娠嗎?

-人工智能可以幫助人們評估感染艾滋病毒的風險嗎?

-人工智能能否讓每個醫務工作者更輕松地擷取醫療資訊?

如果我們現在做出明智的投資,人工智能可以讓世界變得更加公平。它可以減少甚至消除富裕世界獲得創新與貧窮世界獲得創新之間的滞後時間。

吳恩達:LLM可以了解世界,不會監管AI不如不管

吳恩達最近在接受金融時報采訪時表示,人工智能末日論非常荒謬,AI監管将會阻礙AI技術本身的發展。

在他看來,目前人工智能的相關監管措施對防止某些問題産生幾乎沒有任何效果。這樣無效的監管除了會阻礙技術的進步,不會有任何正面的受益。

是以在他看來,與其做低品質的監管,不如不要監管。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

他舉了最近美國政府讓大科技公司自我承諾對AI生成内容自行添加「水印」,來應對虛假資訊等問題為例。

在他看來,自從白宮自願承諾以來,一些公司反而不再對文本内容加水印。是以,他認為自願承諾方法作為一種監管方法是失敗的。

而另一方面,如果監管機構将這種無效的監管移植到諸如「監管開源AI」等問題上,很有可能會完全扼殺開源的發展并且造成大型科技公司的壟斷。

那如果AI獲得的監管水準是目前的樣子,那确實沒有監管的意義。

吳恩達重申,實際上,他希望政府能夠親自動手并制定良好的監管規定,而不是現在看到的糟糕的監管提案。是以他并不主張放手不管。但在糟糕的監管和沒有監管之間,他甯願沒有監管。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

吳恩達還在訪談中談到,現在LLM已經了具備了世界模型的雛形。

「我所看到的科學證據來看,人工智能模型确實可以建構世界模型。是以,如果人工智能有一個世界模型,那麼我傾向于相信它确實了解世界。但這是我自己對了解一詞含義的了解。

如果你有一個世界模型,那麼你就會了解世界如何運作,并可以預測它在不同場景下如何演變。有科學證據表明,LLM在接受大量資料訓練後,确實可以建立一個世界模型。」

李飛飛攜手斯坦福HAI釋出七大預測

知識工作者的挑戰

斯坦福數字經濟實驗室主任Erik Brynjolfsson等人預計,人工智能公司将能夠提供真正影響生産力的産品。

而知識工作者将受到前所未有的影響,比如創意工作者、律師、金融學教授的工作将發生很大變化。

在過去的30年中,這些人基本沒有受到計算機革命的影響。

我們應該接受人工智能帶來的改變,讓我們的工作變得更好,讓我們能做以前做不到的新事情。

虛假資訊擴散

斯坦福大學工程學院教授James Landay等人認為,我們将看到新的大型多模态模型,特别是在視訊生成方面。

是以我們還必須對嚴重的深度僞造更加警惕,

作為消費者需要意識到這一點,作為群眾也需要意識到這一點。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

我們将看到OpenAI等公司和更多的初創公司,釋出下一個更大的模型。

我們仍然會看到很多關于「這是AGI嗎?什麼是AGI?」的讨論,——但我們不必擔心人工智能會接管世界,這都是炒作。

我們真正應該擔心的是現在正在發生的危害——虛假資訊和深度僞造。

GPU短缺

斯坦福大學教授Russ Altman等人對于全球性的GPU短缺表示擔心。

大公司們都在嘗試将AI功能引入内部,而英偉達等GPU制造商已經滿負荷運轉。

GPU,或者說AI的算力,代表了新的時代的競争力,對于公司甚至是國家來說都是如此。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

對于GPU的争奪也會給創新者帶來巨大的壓力,他們需要提出更便宜、更易于制造和使用的硬體解決方案。

斯坦福大學和許多其他科研機構,都在研究目前GPU的低功耗替代方案。

想要達到大規模商用,這項工作還有很長的路要走,但為了實作人工智能技術的民主化,我們必須繼續前進。

更有用的代理

斯坦福大學傑出教育研究員Peter Norvig認為,未來的一年代理(Agent)将會興起,AI将能夠連接配接到其他服務,并解決實際的問題。

2023年是能夠與AI聊天的一年,人們與AI的關系隻是通過輸入和輸出來進行的互動。

而到了2024年,我們将看到代理為人類完成工作的能力,——進行預訂、計劃旅行等等。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

此外,我們将朝着多媒體邁進。

到目前為止,人們已經非常關注語言模型,然後是圖像模型。之後,我們也将有足夠的處理能力來發展視訊模型,——這将非常有趣。

我們現在正在訓練的東西都是非常有目的性的,——人們在頁面和段落中寫下自己認為有趣和重要的事情;人們利用相機紀錄某些正在發生的事。

但是對于視訊來說,有些錄影機可以24小時運作,它們捕捉發生的事情,沒有任何過濾,沒有任何目的性的篩選。

——人工智能模型以前沒有這種資料,這将使模型對一切有更好的了解。

對監管的希望

斯坦福大學HAI聯合主任李飛飛表示,2024年,人工智能政策将值得關注。

我們的政策應該保障學生和研究人員能夠獲得AI資源、資料和工具,以此來提供更多人工智能開發的機會。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

另外,我們需要安全、可靠和可信賴地開發和使用人工智能,

是以,政策除了要緻力于培養充滿活力的人工智能生态系統,還應緻力于利用和管理人工智能技術。

我們需要相關的立法和行政指令,相關的公共部門也應該獲得更多投資。

提出問題,給出對策

斯坦福大學HAI進階研究員Ge Wang希望,我們将有足夠的資金來研究,生活、社群、教育和社會能夠從人工智能中得到什麼。

越來越多的這種生成式人工智能技術将嵌入到我們的工作、娛樂和交流中。

我們需要給自己留出時間和空間,來思考什麼是允許的,以及我們應該在哪些方面做出限制。

李飛飛吳恩達2024年AI十大預測!GPU短缺,AI智能體一年内大爆發

早在今年2月,學術期刊出版商Springer Publishing就發表了一份聲明,表示可以在起草文章時使用大型語言模型,但不允許在任何出版物上作為合著者。他們引用的理由是問責制,這一點非常重要。

——認真地把一些東西擺在那裡,闡述理由是什麼,并表示這就是現在的了解方式,将來可能會在政策中加入更多改進。

機構群組織必須有這樣的視角,并努力在2024年落實在紙上。

公司将面臨複雜的法規

斯坦福大學 HAI 隐私和資料政策研究員Jennifer King表示,除了今年歐盟的《人工智能法案》,到2024年年中,加利福尼亞州和科羅拉多州将通過法規,解決消費者隐私背景下的自動決策問題。

雖然這些法規僅限于,對個人個人資訊進行訓練或收集的人工智能系統,但兩者都為消費者提供了選擇,即是否允許某些系統使用AI以及個人資訊。

公司将不得不開始思考,當客戶行使他們的權利時(特别是集體行使權利時),将意味着什麼。

比如一家使用人工智能來協助招聘流程的大公司,如果數百名應聘者都拒絕使用AI,那要怎麼辦?必須人工審查這些履歷嗎?這又有什麼不同?人類能夠做的更好嗎?——我們才剛剛開始解決這些問題。

參考資料:

https://x.com/StanfordHAI/status/1736778609808036101?s=20

https://www.ft.com/content/2dc07f9e-d2a9-4d98-b746-b051f9352be3

https://www.businessinsider.com/bill-gates-ai-radically-transform-jobs-healthcare-education-2023-12

繼續閱讀