天天看點

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

作者:InfoQ

作者 | 華衛

整理|華衛

“十年前,全世界最好的人工智能系統都無法以人類水準對圖像中的物體進行分類。人工智能在語言了解方面困難重重,更無法破解數學領域。如今,人工智能系統在标準基準上的表現已廣泛超過人類。”

今年,斯坦福 HAI 研究所的人工智能指數報告如期而至。據 AI Index 聯合總監 Ray Perrault 介紹,2023 年人工智能領域進展迅猛,科技公司正在競相建構相關産品,GPT-4、Gemini 和 Claude 3 等先進工具帶來令人印象深刻的多模态功能,正越來越多地被公衆使用;但目前的人工智能技術仍存在重大問題,如無法可靠處理事實、進行複雜推理以及結論解釋。

在長達 393 頁的《2024 人工智能指數報告》中,斯坦福 HAI 研究所不僅更廣泛地涵蓋基本趨勢,如人工智能的技術進步、公衆對技術的看法以及圍繞其發展的地緣政治動态,還詳細分析了比以往更多的原始資料。

其中,下面 15 張圖表反映了整個 AI 領域 2023 年的狀況和 2024 年的态勢。

1. 生成式 AI 投資激增

雖然去年人工智能的私人投資下降、全球對人工智能的總體投資連續第二年下降,但生成式 AI 領域的私人投資激增,比 2022 年增長了近八倍,達到 252 億美元。并且,大部分對生成式 AI 的私人投資都發生在美國。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

報告的主編 Nestor Maslej 表示,“去年的資本形勢代表了人們對生成式 AI 的反應,無論是在政策和公衆輿論上,還是行業投資中。”

2. 谷歌在基礎模型競賽中占據主導地位

2023 年,工業界産生了 51 個著名的機器學習模型,而學術界僅貢獻了 15 個。其中,谷歌在 釋出的基礎模型數量最多。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

科技公司釋出基礎模型既是為了推動先進技術向前發展,也是為了給開發人員提供建構産品和服務的基礎。自 2019 年以來,谷歌一直在釋出基礎模型方面處于領先地位,OpenAI 次之。

3. 封閉模型優于開源模型

目前,人工智能領域的熱門争論之一是基礎模型應該是開源的還是封閉的,一些人認為開源模型是危險的,而另一些人表示是開源模型推動了創新。該報告并沒有對其進行權衡,而是着眼于各自的釋出趨勢和基準表現。

2023 年全球釋出的新大型語言模型數量比上一年翻了一番,在釋出的 149 個基礎模型中,98 個是開源的,23 個通過 API 提供部分通路,28 個是封閉的。雖然三分之二是開源的,但性能最高的模型來自擁有封閉系統的行業參與者。在許多常用的基準測試中,封閉模型的表現優于開源模型。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

4. 基礎模型變得超級昂貴

教育訓練一個大模型需要多深的财力?據報告顯示,AI 模型訓練成本随着時間的推移急劇增加,如今先進 AI 模型的訓練成本已達到了前所未有的水準。其中,OpenAI 的 GPT-4 和谷歌的 Gemini Ultra 分别需要 7800 萬美元和 1.91 億美元的訓練成本。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

有趣的是,谷歌 2017 年釋出的 Transformer 模型引入了支撐當今幾乎所有大型語言模型的架構,其訓練成本僅為 930 美元。

5. 大量釋放碳足迹

訓練 AI 模型對環境的影響不可忽視,雖然推理的每次查詢排放可能相對較低,但當模型每天被查詢數千次甚至數百萬次時,總影響足以超過訓練。

并且,由于模型規模、資料中心能源效率和能源電網的碳強度等因素,不同模型的碳排放資料差異很大。例如,Meta 的 Llama 2 70B 模型釋放了約 291.2 噸碳,這幾乎是一名旅客從紐約到舊金山往返航班上碳排放量的 291 倍,是普通美國人一年總碳排放量的 16 倍。然而,Llama 2 的碳排放量仍低于 OpenAI 的 GPT-3 訓練期間釋放的 502 噸。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

6. 美國在基礎模型方面處于領先地位

2023 年,全球大多數基礎模型來自美國(109 個),其次是中國(20 個)和英國。自 2019 年以來,美國在釋出的基礎模型數量和被認為是重大技術進步的人工智能系統數量都處于領先地位。此外,報告指出,中國在授予的人工智能專利和工業機器人的安裝中處于領先地位。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

7.工業界的博士濃度更高

新晉的人工智能博士畢業後選擇在哪裡工作?據報告中強調,進入工業界的人工智能博士畢業生越來越多。2011 年,工業界(40.9%)和學術界(41.6%)的就業比例還大緻相同。到 2022 年,畢業後選擇加入工業界的比例就大得多,達到 70.7%。但在過去五年中,進入政府職位的人工智能博士畢業生比例一直相對較低,穩定在 0.7%左右。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

8. 報考人員的多樣性增加

與高等教育 CS 的趨勢類似,AP CS 考生的種族多樣性正在增加。雖然白人學生仍然是最大的群體,但随着時間的推移,亞裔、西班牙裔/拉丁裔/拉丁裔和黑人/非裔美國學生參加 AP CS 考試的人數有所增加。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

9. 财報電話會議中的提及次數增加

在過去的一年裡,在财富 500 強公司财報電話會議上提到人工智能的人數顯著增加。2023 年,有 394 次财報電話會議提到了人工智能(占所有财富 500 強公司的近 80%),高于 2022 年的 266 次。自 2018 年以來,《财富》500 強财報電話會議中提及 AI 的次數幾乎翻了一番。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

而在所有财報電話會議中,最常被提及的主題是生成式 AI,占所有财報電話會議的 19.7%,其次是人工智能投資、人工智能能力擴充和人工智能增長計劃(15.2%),最後是公司/品牌人工智能(7.6%)。

10. 成本下降,收入增加

報告表明,人工智能切實幫助企業提高了利潤,有 42%的受訪者表示他們看到了成本的降低,59%的受訪者聲稱收入增加了,而這反映了工作效率的提高和勞工生産力的提高。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

此外,不同領域的多項研究表明,人工智能使勞工能夠更快地完成任務并産生更高品質的工作,但人工智能對低技能勞工的幫助大于對高技能勞工的幫助。還有一些研究警告說,在沒有适當監督的情況下使用人工智能會導緻性能下降。

11. 企業感覺到風險

該報告對 1000 家收入至少為 5 億美元的公司進行了一項全球調查,以了解企業如何看待負責任的 AI。結果顯示,隐私和資料治理被認為是全球最大的風險,而公平性(通常以算法偏見為讨論)仍未在大多數公司中得到認可。目前,企業正在對其感覺到的風險采取行動:各地區的大多數組織已經實施了至少一項負責任的人工智能措施來應對相關風險。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

12. 人工智能并沒有完全打敗人類

近年來,人工智能系統在一系列任務上的表現都超過了人類,包括圖像分類、視覺推理和英語了解方面的一些基準。然而,它在更複雜的任務上落後了,比如競賽級的數學、視覺常識推理和規劃。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

13. 缺乏對人工智能的标準化評估

其最新研究表明,負責任的人工智能報告嚴重缺乏标準化。例如,OpenAI、Google 和 Anthropic 在内的領先開發人員主要根據不同的負責任的 AI 基準測試他們的模型,這種做法使系統地比較頂級人工智能模型的風險和局限性變得困難。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

14. 法律既促進又限制人工智能

2016 年至 2023 年期間,有 33 個國家至少通過了一項與人工智能相關的法律,其中大部分行動發生在美國和歐洲。在此期間,總共通過了 148 項與人工智能相關的法案,歸類為旨在增強一個國家人工智能能力的擴張性法律和限制人工智能應用和使用的限制性法律。雖然許多法案都在推動人工智能的發展,但限制性立法是全球趨勢。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

15.公衆對人工智能更加焦慮

在 lpsos 的一項調查中,2023 年有 52%的人表示對人工智能産品和服務感到緊張,比 2022 年上升了 13 個百分點;現在有三分之二的人預計人工智能将在未來幾年内深刻改變他們的日常生活。此外,報告指出,不同人群之間的觀點存在顯著差異,年輕人更傾向于對人工智能将如何改變他們的生活持樂觀态度。

開源風評又“被害”,谷歌、OpenAI 争當基礎模型“勞模”

有趣的是,很多對于人工智能的悲觀情緒來自西方發達國家。而印度尼西亞和泰國等地的受訪者表示,他們預計人工智能的好處将大于其危害。

原文連結:斯坦福15張圖揭示最新 AI 動态:開源風評又“被害”,谷歌、OpenAI争當基礎模型“勞模”_AI&大模型_華衛_InfoQ精選文章

繼續閱讀