天天看點

熱鬧與隐憂:ChatGPT大火背後,AI留給人類的倫理與可持續難題 | 钛媒體焦點

作者:钛媒體APP
熱鬧與隐憂:ChatGPT大火背後,AI留給人類的倫理與可持續難題 | 钛媒體焦點

跟随科技圈“潮流”,微軟宣布将于2023年3月底之前在全球裁員1萬人,約占員工總數的5%。這次裁員規模之大,被微軟視為應對宏觀經濟狀況和客戶優先事項變化的措施。但這種做法似乎不影響這家企業有足夠的資金對OpenAI進行新一輪投資。

據外媒Semafor報道,微軟将以100億美元投資OpenAI,并且将獲得OpenAI 75%的利潤份額,直到收回投資資金,之後微軟将持有OpenAI 49%的股份。

投資OpenAI,其源動力是ChatGPT帶來的一系列業内反響,ChatGPT一方面正為微軟補強其在搜尋領域的壁壘,另一方面也為自身在通用型AI和NLP領域塑造商業化能力,而這原本是一個由谷歌AI主導的大市場。

ChatGPT于2022年11月30日面向用戶端進行釋出,兩個月後,該模型驅動的工具平台月活使用者估計已達1億。近日,ChatGPT還宣布了Plus增值版,每月收費20美元,面向更多有需要的企業和學生提供會員服務。摩根士丹利的一份報告正研究ChatGPT是否對谷歌構成威脅,“該語言模型可能會占據一定市場佔有率,并且破壞谷歌作為網際網路使用者入口的地位。”

深受深度學習的影響,NLP領域近年來的科研成果是可見的,也解鎖了很多新的應用場景,但仍然沒有迎來關鍵的商業化破局。而OpenAI與微軟土财主的這次合力“氪金”,顯然激起了新一輪NLP技術企業的集體焦慮。

ChatGPT的過去與現在

從技術原了解釋,ChatGPT是由微調後的GPT3.5模型提供。與早期的ELMO,谷歌的BERT、ALBERT,百度的ERNIE,達摩院的M6一樣,它們均為NLP預訓練大模型的典型代表。這意味着像知識檢索、人機互動、語言翻譯、文學創作這些活兒,預訓練模型好像都能幹。

但不同的是,ChatGPT這次還提供了用戶端界面,使用者可直接通過用戶端基于模型訓練出的“機器人”進行互動,并且實作WebUI免費版。這種做法也讓許多C端使用者可以迅速調用ChatGPT,如構思小說架構、寫論文、輔助課程設計、為程式debug等操作花樣百出。

在GPT3.5之前,OpenAI已經連續釋出三個版本的GPT模型,尤其以GPT-3最為著名。在此期間,GPT模型就開始瘋狂通過增加可訓練參數、增加訓練樣本等方式進行改進。但暴力拆解方式下,GPT-3依然會經常産生錯誤,曾有專家指出,“如果沒有大量複雜的工程調試,GPT-3還無法真正投入使用。”

另一方面,GPT-3,其參數量就已經達到1750億,并使用了45TB的訓練樣本。這意味着當AI任務訓練效果提升的同時,也對模型訓練成本和時間帶來了巨大挑戰。業内有人曾估計僅訓練GPT-3模型就需要1200萬美元,如果用一塊非常先進的英偉達GPU訓練GPT-3,大概需要100年。

在Transformer思潮的推動下,語言模型進入“巨量”時代,大模型已經在産業界帶來了一系列連鎖變化。而NLP領域又并非是一個獨立的技術範疇,依然需要有底層算力、大資料、知識圖譜、遷移學習等核心技術的支撐。

如果GPT按照以往的發展邏輯,将會逐漸通過開源方式讓科研與工程界共享技術紅利。但在商業世界,絕非如此簡單。

微軟的神來一筆

2019年,在聯合創始人馬斯克轉身離開後,OpenAI宣布重組,成為有利潤上限的盈利機構,股東的投資回報被限制為不超過原始投資金額的100倍。同年7月,微軟以10億美元注資,并獲得了OpenAI GPT-3的獨家授權,而OpenAI則可借助微軟的Azure雲服務平台解決商業化問題,緩解高昂的成本壓力。

過去幾年,OpenAI與微軟的合作節奏逐漸加快。2021年,OpenAI與代碼托管平台Github(被微軟收購)合作推出Copilot AI智能代碼生成平台,可将文字語言提示詞轉化為代碼,目前是為了提升開發者編碼效率。

2022年,OpenAI先後推出圖像生成器DALL-E 2和文本生成器ChatGPT,微軟也迅速将其整合到自身産品套件,如搜尋引擎Bing、Office辦公全家桶、會議視訊産品Teams Premium均已經計劃應用ChatGPT。

而如今,微軟不僅希望進行新一輪百億美金投資,還表示将在Azure雲平台中整合ChatGPT,實作Azure OpenAI服務全面上市,通過該服務可通路OpenAI開發的AI模型,屆時微軟的每個産品都将具備相同的AI能力。

與OpenAI的合作,成為微軟到迄今為止在AI領域一筆成功的買賣,對微軟在搜尋引擎、辦公、會議視訊,以及雲市場引發了強烈沖擊,而這也讓外界“期待”有望在2023年釋出的GPT-4。

熱鬧的背後

據外媒CNBC爆料,谷歌最近正在加快研發一個名為“學徒巴德”(Apprentice Bard)的聊天機器人,其基于LaMDA語言模型。顯然,谷歌于去年12月針對ChatGPT的“紅色警報”已經拉響。而除了LaMDA之外,谷歌也已經計劃将圖像生成模型Imagen對抗OpenAI的DALL·E 2。

而據百度披露,今年1月初,百度搜尋将更新“生成式搜尋”能力,基于百度自研的生成式模型能力,為使用者開放式的搜尋提問或定制化的資訊需求“創作答案”。此外據路透社報道,百度曾計劃于3月将該服務作為獨立應用推出,再逐漸将其內建到搜尋引擎中。

無論在當下關注度較為集中的搜尋領域,還是其他潛在領域,受ChatGPT的強烈刺激,包括谷歌、百度在内的AI主力梯隊已經快速跟進起來。不過,源自GPT本身涉及的倫理問題與技術難點依然存在。

如Stack Overflow已經宣布禁止将ChatGPT所産生的問題用于回答社群問題,并給出違規者最多可被封禁30天的懲戒措施。當不少大學生開始用ChatGPT寫作業,紐約大學等高校的教授及學者們也發出警告,将AI視為作弊行為。

在技術層面,GPT-3曾經會犯的錯誤,在ChatGPT上也并未解決掉,如隻能計算精通十以内的加減法,甚至還會“一本正經地胡說八道”。這與ChatGPT的訓練語料庫有一定關系,其喂養的資料還是來自2021年前來自網際網路的數十億個文本示例。例如在專業知識領域或者資訊更新快的IT領域,模型訓練任務和訓練效果往往會受其制約。

而在訓練成本上,小冰公司CEO李笛此前表達,“ChatGPT主要是研究性質上的突破。它有非常好的創新,即證明了在原有的大模型基礎之上,進行一些新的訓練方法,可以更好地提高對話品質。但如果小冰用ChatGPT的方式來運作系統,現在小冰每天承載的互動量就需要花近3億人民币的對話成本,即使ChatGPT可以把成本優化到現在的10%,也賺不回來。”

據外媒披露,微軟此前的融資就以現金+Azure雲算力的方式作為兌付,模型訓練最消耗的也恰恰是算力成本。這也難怪分析機構預測,ChatGPT使用量的快速增長可能使英偉達在12個月内銷售額達到30億至110億美元。長期來看,這也将是微軟應對算力高投入與ChatGPT高增長可預見收益下的一種對沖政策。

其實,ChatGPT出現之前,基本國内大的AI玩家就已經在涉足建構出類似于GPT、但主要基于中文語料庫的預訓練大模型。大模型在落地過程中呈現出了與以往模型不同的技術特征,也帶來了更好的智能化水準。

“但是大模型想要在某個方向上訓練得更好,智能化水準更高,需要在具體落地場景引入額外的領域知識,才能解決實際問題。AI大模型有其自身特點,訓練時使用的資料集主要來自網際網路,在通用知識和領域知識的分布上存在不均,會影響其在具體行業的應用。”浪潮資訊AI軟體研發總監吳韶華對钛媒體App表示。

對于更多的創業公司而言,大模型做微調或二次開發的方式,且不說仍需要大量算力的支援,在實際場景中,能不能等到成熟落地也需要時間成本。

在ChatGPT之後,勢必會有更多的AI團隊試圖給出算法更加精準、訓練成本更低、對于使用者而言調取更友善的模型,它可能依然會結合Transformer,也可能運用新的機器學習方法,提出對語言翻譯、文本生成、甚至情感分析等NLP通用場景下的解決思路。

尤其對于中國的AI團隊,也會在ChatGPT的這場狂歡中繼續回答一個老問題:當技術的風口再次來了,如何避免走過去商業目标不清晰的老路?(本文首發钛媒體APP 作者 | 楊麗)