天天看點

科技公司史上第一次:Meta開源GPT3參數大小的AI模型

在生成文本段落、模拟人類對話及解決數學問題表現驚人的大型語言模型,顯然是這幾年AI發展最熱門的領域之一。但這樣的大型語言模型不僅能夠自行生成有害内容,還可以将這樣的内容通過在其上建構的下遊應用程式傳播開來。

理論上,更多人的參與對問題的解決應該會有所幫助。然而,由于語言模型的訓練需要大量的資料和計算能力,迄今為止,它們仍然隻是大型科技公司的特有項目。而在更廣泛的群體如學界,以及擔心人工智能濫用的倫理學家和社會科學家中,隻有旁觀的選項。

“我相信建立信任的唯一方法是極度透明。”Meta AI 的常務董事喬爾·皮諾(Joelle Pineau)說。當地時間5月3日,Meta AI開放了擁有1750億參數的大語言模型OPT-175B(Open Pretrained Transformer,OPT)。

對于大型科技公司來說,這是一個前所未有的舉動。即使是在大語言模型曆史上,這也是第一次毫無保留,把預訓練模型、訓練代碼以及使用代碼全部公開。

“我們中的很多人都是大學的研究人員,”皮諾說,“我們知道大學和行業在建立這些模式的能力方面存在明顯的差距。讓研究人員共同讨論這一技術的好處是顯而易見的。”她希望其他人能仔細研究他們的工作,對其進行拆解分析,或者在此基礎上建構。她認為,當更多的人參與進來時,突破就會更快實作。

OPT語言模型中約有1750億個參數(這些參數是神經網絡在訓練過程中可以被調整的參數),與OpenAI開創性的神經網絡GPT-3規模基本相同,同時具有付費服務GPT-3的非凡能力和不可避免的缺陷。

皮諾不諱言,“這是經過精心設計的”,該團隊在建立OPT時就考慮在語言任務的準确性和有害性方面與GPT-3相比對。OPT是為了給研究人員提供一個類似的語言模型來進行研究。

OpenAI拒絕了對Meta的聲明發表評論。

OpenAI的母公司谷歌正在探索在其搜尋産品中使用大型語言模型,但也因為缺乏透明度而受到批評。谷歌在這方面受到諸多争議,其曾在人工智能倫理研究員Timnit Gebru想要發表一篇有關谷歌在當時的語言系統可能會從網站上學習包含偏見和仇恨言論的論文後辭退他,最近又解雇一位對已發表研究提出異議的員工。

那麼,Meta為什麼要這樣做呢?畢竟Meta也是一家很少提及臉書和Instagram背後算法工作原理的科技公司,還曾以讓其内部研究團隊隐瞞對其不利的問題而聞名。

《麻省理工科技評論》認為,Meta采取不同方法的一個重要原因是皮諾本人,她多年來一直在推動人工智能研發過程中的透明度。

在核心學術會議發表研究的方式上,皮諾要求研究人員必須将包括代碼和有關如何進行實驗的詳細資訊與結果一起送出。她自2017年加入 Meta(當時的Facebook)以來,一直在其人工智能實驗室倡導這種文化。

“Meta對開放科學的承諾是我在這裡的原因,”皮諾說,“我不會因為其他條件來到這裡工作。”

除了代碼外,Meta也公布了開發日志。日志包含團隊成員對于資料訓練的每日更新:如何将其添加到模型中,以及何時、哪些有效、哪些無效。在100 多頁的筆記中,研究人員記錄了從2021年10月到2022年1月不間斷運作的三個月訓練過程中的每個錯誤、崩潰和重新開機。

斯坦福大學基礎模型研究中心主任Percy Liang将大模型的開放程度總結成4個層次:

第一層論文開放,證明一些設想的可行性,并提供建構思路;第二層API開放,允許研究人員探索和評估現有模型的能力(如推理能力)和限制(如偏見);第三層模型權重開放和訓練資料開放,允許研究人員逐漸改進現有模型,開發更深入的可解釋性技術和更有效的微調方法,讓研究人員更好地了解訓練資料在模型行為中的作用;第四層計算能力開放,允許研究人員嘗試新的體系結構、訓練目标和過程、進行資料融合,并在不同的領域開發全新的模型。

“更高層次的開放能讓研究者專注于更深的問題,也同時會帶來更多風險。”Percy Liang明确指出這一點。

Meta此次以這樣的程度開源其大型語言模型是一個非常大膽的舉措,可能會産生當下想象不到的風險。這也是OpenAI對于不釋出GPT-3的前身GPT-2給出的原因。

“我不能告訴你,這種模型不會産生其他可怕的風險。”皮諾駁斥了“僅僅是因為它太危險”,是以不應該釋出模型的想法。她說道,“我了解這些模型的弱點,但這不是一種研究心态。”

據《麻省理工科技評論》,曾在被谷歌因“違反了其行為準則”辭退的人工智能倫理研究員瑪格麗特·米切爾(Margaret Mitchell)認為,OPT的釋出是一個積極的舉措。但她認為透明度是有限度的。她提問道,“語言模型是否經過了足夠嚴格的測試?可預見的好處是否超過了其可預見的危害?在這個過程中如何避免錯誤資訊的産生,或種族主義和厭惡女性的語言?“

華盛頓大學的計算語言學家艾米麗·M·本德(Emily M. Bender)曾在谷歌中心與米切爾共同合作過相關研究,她也擔心着如何處理潛在的危害。“降低任何機器學習技術風險的真正關鍵是要在特定用例中進行評估和探索,例如這個系統是用來做什麼的?誰将使用它?系統輸出将如何呈現給他們?”

對于皮諾來說,這些擔憂應該通過更多的公開讨論來解決,而不是減少溝通。“世界各地的人們對于什麼樣的對話是合适的有不同的看法,而人工智能是對話的一部分,”皮諾并不是希望語言模型能說出令每個人都同意的話,“但我們該如何應對呢?那就是在讨論過程中多去聽卻他人的聲音”。

繼續閱讀