天天看點

吳恩達最新預測:關于AI,這些事未來十年不會變

作者:量子位

金磊 發自 凹非寺

量子位 | 公衆号 QbitAI

2024年,AI的發展會有怎樣的改變?

在吳恩達最新的一封來信中,他認為有幾件事情在接下來十年内都不會發生改變。

吳恩達最新預測:關于AI,這些事未來十年不會變

(以下是吳恩達來信原文)

親愛的朋友們,

人工智能的發展速度超過以往任何時期,這一現象令人振奮。然而,快速變化可能導緻迷失方向。在這種情況下,遵循傑夫·貝佐斯(Jeff Bezos)的建議是非常有益的,不僅要考慮變化中的因素,還要思考那些保持不變的因素。如果事物沒有改變,投入精力和努力就更加值得。

以下是我相信AI在未來十年不會改變的一些事情:

  • 我們需要社群。擁有朋友和盟友的人比孤身前行的人表現得會更好。即便人工智能領域每周都帶來突破性進展,擁有朋友幫助你分辨真實和炒作、測試你的想法、提供互相支援,并與之共同創造,将使你處于更有利的地位。
  • 知道如何使用 AI 工具的人工作效率更高。知道如何操縱資料的個人和企業可以更有效地了解真相、做出更好的決策并取得更多成就。随着人工智能的不斷進步,這一點隻會變得更加真實。
  • 人工智能需要好的資料才能良好運作。正如人類需要好的資料來做出決策,從追求何種營銷政策到決定孩子的飲食,人工智能在我們的算法不斷擴大、演變和改進的過程中,也同樣需要好的資料。

那麼上述三點對我們每個人意味着什麼?

  • 讓我們繼續建構 AI 社群。這很重要!我希望你能與他人分享你所學到的東西,互相激勵,并繼續尋找朋友和合作者。
  • 不斷學習!最好讓學習成為一種習慣。它可以讓你更有效率,還有很多其他的好處。如果你正在考慮2024年的新年決心,那就把你的學習目标包括進去。随着人工智能的不斷發展,每個人都需要一個計劃來跟上這一浪潮。
  • 繼續培養以資料為中心的人工智能實踐。随着企業采用越來越多的人工智能工具,我發現最重要的做法之一是控制自己的資料。我認為這對個人來說也會越來越重要。

雖然以上三點與人工智能有關,但我想分享另外兩件事,不幸的是,我相信它們在未來十年将保持不變:⑴氣候變化将繼續成為人類面臨的重大挑戰。⑵貧窮,許多人幾乎(甚至可能買不起)基本必需品,仍将是一個問題。我将繼續思考人工智能氣候模組化如何幫助前者,以及我們如何利用人工智能來提升每個人的生活品質。

以上便是吳恩達對于未來AI發展的最新觀點。

而就在新年伊始的這幾天,AI圈中的多位大佬們也陸續發表了他們對于今年人工智能技術發展的預測。

被LeCun點贊的八大預測

最近,Meta一位研究員Martin Signoux寫下了他認為AI在今年發展中的八大預測,而這些預測也得到了LeCun的高度認可。

吳恩達最新預測:關于AI,這些事未來十年不會變

(以下是Martin Signoux預測的原文)

一、AI智能眼鏡會成為現實

随着多模态技術的興起,領先的人工智能公司将加倍投入人工智能優先的可穿戴裝置。

還有什麼比眼鏡外形更适合托管 AI 助手的呢?

吳恩達最新預測:關于AI,這些事未來十年不會變

眼鏡腿靠近耳朵來傳遞音頻,攝像頭靠近眼睛來捕捉看到的輸入,它們解放了我們的雙手并且佩戴起來也很舒服。

我們和RayBan一起引領着這波潮流,但想想最近的OpenAI和Snapchat傳聞……我們的故事才剛剛開始。

二、ChatGPT之于人工智能助手,不會像谷歌之于搜尋

2023年是以ChatGPT作為開始,以Bard、Claude、Llama、Mistral和數千個衍生品作為結束。

随着商品化的繼續,ChatGPT将随着參考估值修正而消失。

吳恩達最新預測:關于AI,這些事未來十年不會變

三、再見LLM,你好LMM

大型多模态模型(LMM)将持續湧現,并在熱議中取代大型語言模型,包括多模态評估、多模态安全等等。

此外,LMM是邁向真正通用人工智能助手的一塊墊腳石。

吳恩達最新預測:關于AI,這些事未來十年不會變

四、沒有重大突破,但各方面都有所改善

新模型不會帶來真正的突破(GPT5不會出現),大型語言模型仍将具有内在限制并容易産生幻覺。我們不會看到任何飛躍進展讓它們在2024年能足夠可靠地“解決基本通用人工智能(AGI)問題”。

疊代改進将使它們“足夠好”地完成各種任務。RAG、資料管理、更好的微調、量化等方面的改進将使LLM在許多用例中足夠魯棒/有用,進而推動各行各業各種服務的采用。

五、小即是美

小型語言模型(SLM)已經存在,但成本效率和可持續性的考慮将加速這一趨勢。

量化也将大大改善,推動消費者服務的裝置上內建的主要浪潮。

六、開源模型将擊敗GPT-4,開源閉源之争将逐漸消失

回顧過去12個月開源社群所取得的活力和進步,很明顯,開源模型将很快縮小性能差距。

我們在2023年底結束時,Mixtral和GPT-4在MMLU(多模态學習了解)測試中的差距僅剩13%。

但最重要的是,大家都意識到了開源模型将持續存在并推動進步,它們将與專有模型共存。

七、基準測試仍然會是個難題

沒有一套基準測試、排行榜或評估工具成為模型評估的終極選擇。

相反,我們将看到一系列的改進(就像最近的HELM)和新的倡議(如GAIA),特别是在多模态方面。

八、相比于現存風險,關于存在性風險的讨論不會太多

雖然2023年X-risks成為了頭條新聞,但公衆辯論将更多地集中在目前的風險和争議上,比如偏見、假新聞、使用者安全等問題。

Runway CTO:用新工具講新故事

Runway聯合創始人兼CTO Anastasis Germanidis也發表了他對于今年AI發展的看法。

吳恩達最新預測:關于AI,這些事未來十年不會變

(以下是Anastasis Germanidis預測的原文)

2023年是廣泛應用人工智能系統(涵蓋文本、圖像、視訊、音頻和其他模态)發展的轉折點。

僅在Runway公司,我們就看到了如Gen-1和Gen-2這樣的視訊生成模型的釋出,以及使這些模型具有新型創造控制形式的工具。

在未來一年,我預計在以下幾個領域會看到持續的進展:

  • 視訊生成:過去一年,生成視訊模型(文本到視訊、圖像到視訊、視訊到視訊)首次公開釋出。在來年,這些模型的品質、通用性和可控性将繼續迅速提高。到2024年底,網際網路上相當一部分視訊内容将在某種程度上利用這些模型。
  • 實時互動性:随着大型模型運作速度變快,我們開發出更多結構化控制它們的方法,将開始看到圍繞它們出現更多新穎的使用者界面和産品,這些界面和産品超越了常見的提示到x或聊天助手範式。
  • 自動化AI研究:開發者們已經接受了基于大型語言模型的編碼助手,如GitHub Copilot。但是,很少有工具被設計用來專門加速AI研究工作流程;比如,自動化開發和調試模型代碼、訓練和評估模型等重複性工作。明年将出現更多這樣的工具。
  • 更多關注系統:大量的對話集中在單個網絡的端到端訓練能力上。然而,在實際應用中,部署在現實世界場景中的AI系統通常由一系列模型的管道驅動。将出現更多用于建構這種子產品化系統的架構。

除了技術進步之外,建構這些系統最有意義的部分是,随着每次更新和能力的增強,新的閱聽人被引入其中,講述了以前沒有講過的新故事。我很興奮地看到這将在未來一年繼續發生。

斯坦福副教授:基礎模型的透明度

斯坦福大學計算機科學副教授Percy Liang,則是将關注點聚焦到了基礎模型的透明度上。

吳恩達最新預測:關于AI,這些事未來十年不會變

(以下是Percy Liang預測的原文)

僅僅一年前,ChatGPT讓世界意識到了基礎模型的力量。但這種力量不僅僅展現在耀眼、令人瞠目的示範上。基礎模型将以與計算和網際網路在上一代社會變革中相似的方式,滲透到我們生活的每個領域、每個方面。考慮到這種預期影響的廣度,我們不僅要問人工智能能做什麼,還要問它是如何建構的。它是如何被管理的?誰來決定?

我們真的不知道。這是因為人工智能的透明度正在下降。在2010年代的大部分時間裡,開放是預設的取向:研究人員釋出論文、代碼和資料集。在過去三年裡,透明度減弱了。

關于最先進模型(如GPT-4、Gemini和Claude)的公開資訊很少:用于訓練它們的資料是什麼?誰建立了這些資料,勞動實踐如何?這些模型與哪些價值觀相一緻?這些模型在實踐中是如何使用的?沒有透明度,就沒有問責,我們已經見證了缺乏透明度在社交媒體等以前一代技術中産生的問題。

為了使透明度評估嚴謹,基礎模型研究中心引入了基礎模型透明度指數,用于描述基礎模型開發者的透明度。好消息是,許多透明度方面(例如,擁有适當的文檔)是可實作的,并且與公司的激勵相符。在2024年,也許我們可以開始逆轉這一趨勢。

目前,政策制定者普遍認識到需要管理人工智能。除了透明度,首要優先事項之一是評估。事實上,沒有科學基礎來了解這些模型的能力和風險,我們就是盲目的。大約一年前,基礎模型研究中心釋出了綜合評估語言模型(HELM),這是一個評估基礎模型(包括語言模型和圖像生成模型)的資源。現在我們正在與MLCommons合作,開發一個安全評估的行業标準。

但這個評估很難,尤其是對于通用、開放式的系統。你如何覆寫幾乎無限的使用案例和潛在危害空間?你如何防止操縱?你如何以公衆能了解的方式呈現結果?這些都是開放的研究問題,但我們需要在短時間内解決這些問題,以跟上人工智能的快速發展。我們需要整個研究社群的幫助。

想象ChatGPT式助手将成為我們擷取資訊和做出決策的主要方式,并不遙遠。是以,基礎模型的行為——包括任何偏見和偏好——是重要的。

據說這些模型與人類價值觀相一緻,但我們談論的是哪些價值觀?再次,由于缺乏透明度,我們無法看到這些價值觀是什麼,以及它們是如何确定的。我們能否想象一個更民主的過程來引出價值觀,而不是由單一組織做出這些決定?重要的是這個過程的正直性和合法性。

OpenAI希望在這方面資助工作,Anthropic也有一些這方向的研究,但這些都還處于早期階段。我希望其中一些想法能夠被納入生産系統。

微軟CTO:為下一年的指數增長做好準備

微軟CTO Kevin Scott也做出他對AI在今年發展的一些預測。

吳恩達最新預測:關于AI,這些事未來十年不會變

(以下是Kevin Scott預測的原文)

毫無疑問,2023年是我在相當長的職業生涯中見過的最激動人心、最有趣的技術年份。

值得一提的是,我很确定在2022年結束時我也說過類似的話,我懷疑我明年這個時候可能還會說同樣的話,以及在可預見的未來的每一年——重點是,現在的人工智能領域,我們正在經曆一個持續的指數級增長時期,這可能代表了我們所見過的最深刻的技術進步。

而且這隻是開始。現代生成型人工智能仍處于嬰兒期,我們在學習中前行。盡管感覺我們已經和它們共存了很長時間,但2023年實際上是像ChatGPT和Microsoft Copilots這樣的強大人工智能工具真正有意義地進入公衆視野,作為有用的助手讓人們的生活更輕松的第一年。

到明年結束時,我們将擁有許多新的體驗、應用和工具,為全世界越來越多的人帶來層層疊加的好處。盡管人工智能增長的炒作幅度和加速率可能讓人們專注于每一個接下來的“下一個大事件”,但如果我們稍微退後一點,就更容易看到我們面前的機會比我們已經實作的要大得多。

因為我們隻能每隔幾年左右才能體驗到指數曲線的産物,最近一次是GPT-4,我們很容易在這段時間忘記增長的速度實際上有多驚人。而且,按照我們人類的本性,我們很快就适應了,并很快就将每一套新出現的瘋狂可能性視為理所當然。

是以,我對所有在未來一年從事人工智能和技術工作的人的希望是,我們需要意識到,指數曲線的下一個樣本即将到來,并适當地為(肯定會令人難以置信的)結果做好準備。

願2024年繼續為我們所有人帶來發現的激動和持續的創新。

那麼,你認為今年AI的發展還有什麼值得我們期待呢?

參考連結:

[1]https://twitter.com/MartinSignoux/status/1740729650530365646

[2]https://twitter.com/AndrewYNg/status/1741892184977309823

[3]https://www.deeplearning.ai/the-batch/issue-229/

[4]https://twitter.com/ylecun/status/1740830697181655432

— 完 —

量子位 QbitAI · 頭條号簽約

關注我們,第一時間獲知前沿科技動态