天天看點

十年,谷歌是如何在聊天機器人競賽中落後微軟的?

編譯 | 吳菲凝 編輯 | 李水青

智東西3月9日報道,近日,外媒華爾街日報記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機器人的發展曆程,研發時間竟然已經長達十年之久。在此期間,該項目更是經曆了反複審查失敗、多次更名和多位核心人員離職等波折。

谷歌的聊天機器人投入可以追溯到2013年,而後研發出一款名為Meena的聊天機器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進展,至今産品仍未公開釋出。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走紅之後,谷歌匆忙公開了自己名為Bard的聊天機器人,但其卻在公開展示視訊中意外“翻車”。

華爾街日報兩名記者認為,谷歌此前對待AI的态度太過于謹慎,以至于現在陷到一個“起大早,趕晚集”的尴尬境地,為競争對手微軟提供了可乘之機。

在谷歌内部,高管們認為,谷歌必須保證AI技術足夠安全才能夠推向公衆。

一、兩年前聊天機器人已面世,因安全問題隐而未發

谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機器人Meena的研發,據稱所使用的技術遠勝于當時其他任何技術。他們開發出的對話式計算機程式可以像人一樣自信地談論哲學,還能即興創作出一些雙關語。

據知情人士透露,這兩位研究人員向同僚們稱,聊天機器人在AI的不斷進步的推動下,未來将徹底颠覆人們使用搜尋引擎和與計算機互動的方式。

他們敦促谷歌向外部研究人員提供Meena的通路權限,試圖将其內建到Google Assistant智能助手中,還要求谷歌公開示範這款機器人。

但谷歌高管多次明确拒絕了他們,高管認為該計劃不符合公司對AI系統安全性和公平性的标準。

谷歌這種拒絕公開釋出的謹慎态度,主要是由于長年以來外界對于公司在AI方面的争議。從關于AI的準确性和公正性的内部争論,再到公司去年公開解雇了一名聲稱AI已經獲得人類感覺的員工,谷歌一直處于輿論的風口浪尖之上。

據前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔心公開示範AI産品可能對公司聲譽和搜尋廣告業務構成風險。據悉,谷歌母公司Alphabet去年營收近2830億美元,其中大部分收入來自搜尋引擎廣告投放業務。

前谷歌産品經理高拉夫·内馬德(Gaurav Nemade)說:“谷歌正在努力在承擔風險和保持全球上司地位之間找到平衡。”

谷歌的謹慎态度如今看來是明智之舉。二月份時微軟曾宣布,針對于聊天機器人發表敏感言論的使用者報告回報,未來将對機器人施加更多新限制。微軟高層解釋,當應用程式運轉到難以負荷時,它可能會出現“精神錯亂”的現象。

十年,谷歌是如何在聊天機器人競賽中落後微軟的?

▲桑達爾·皮查伊(Sundar Pichai)告訴員工,随着時間的推移,谷歌最成功的産品赢得了使用者的信任  圖源:彭博社

在上月一封發給全體員工的郵件中,Alphabet和谷歌的首席執行官桑達爾·皮查伊(Sundar Pichai)稱:“一些最成功的産品并不是第一個推向市場,但卻能慢慢赢得使用者的信任。”他寫道,“這将是一段漫長的旅程——對每個人來說,都是如此。我們現在能做的最重要的事情是專注于打造一款偉大的産品,并負責任地開發它。”

二、十年秘密研發:多次審查不過、内部禁止,最終改名

谷歌在聊天機器人方面做出的努力可以追溯到2013年。

時任谷歌聯合創始人兼首席執行官的拉裡·佩奇(Larry Page)聘請了計算機科學家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個前所未有的概念“技術奇點”:即機器終有一天将超越人類的智慧。

此外,谷歌還收購了英國人工智能公司DeepMind,該公司同樣緻力于建立通用AI或可以反映人類心理能力的軟體。

但與此同時,學者和技術專家開始對AI提出擔憂,比如它有可能通過面部識别軟體實作大規模監控,他們開始向谷歌等科技公司施壓,要求他們承諾不會将某些技術用作非法途徑。

2015年,包括馬斯克在内的一群科技企業家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確定AI不會成為企業利益的犧牲品,而是用于造福人類。

此前,谷歌與美國國防部拟定的一項名為“Project Maven”的合同遭到了員工的強烈反對,因為該合同涉及到使用AI自動識别并跟蹤潛在的無人機,谷歌最終放棄了這個項目。直至2018年,谷歌宣布承認不會将AI技術應用于軍事武器制造方面。

除此之外,CEO皮查伊還宣布了一套指導谷歌運作的7項AI原則,旨在限制不公正技術的傳播,比如人工智能工具應該對人負責,并“為安全而建構和測試”。

多年來,谷歌這款名為Meena的聊天機器人項目一直處于保密狀态中。一部分内部員工對這類程式的風險表示擔憂,因為2016年時微軟曾因為一款名為Tay聊天機器人的誤導性回答,最終被迫終止公開釋出。

直至2020年,外界才對Meena有所了解。在谷歌釋出的一項研究論文當中稱,Meena已經從公開的社交媒體對話中學習了近400億個單詞。而競争對手OpenAI同樣開發了一個基于800萬個網頁的類似模型GPT-8。

在谷歌,Meena背後的團隊也希望能早日釋出他們的工具,即使隻是像OpenAI那樣以有限的格式釋出。但谷歌高管們多次拒絕了這一提議,據前谷歌産品經理内馬德稱,他們給出的理由是聊天機器人不符合谷歌關于安全和公平的AI原則。

谷歌發言人稱,多年來,Meena經過了無數次審查,但一直因為各種原因而被禁止進行更廣泛的釋出。Google Brain人工智能研究部門的軟體工程師沙澤爾加入了這個項目,他們将Meena更名為LaMDA,意為“用于對話應用程式的語言模型”。團隊還為賦予了LaMDA更多的資料和計算能力。

然而,他們的技術很快引發了廣泛争議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關于LaMDA等項目固有風險的研究論文而被解雇。谷歌則澄清該員工并未被解雇,并聲稱她的研究不夠嚴謹。

谷歌研究主管傑夫·迪恩(Jeff Dean)稱,谷歌将繼續投資對大衆負責的AI項目。

2021年5月,公司公開承諾會将AI道德小組的規模擴大一倍。

在一周後,皮查伊在公司年會上登台,展示了兩段預先錄制的與LaMDA的對話,LaMDA根據指令對問題作出回應。據知情人士稱,谷歌研究人員在會議召開前幾天準備了這些問答案例,并在最後一刻向皮查伊示範。谷歌一再強調自身将努力使聊天機器人更加準确,并最大限度地減少其被濫用的機會。

谷歌的兩位副總裁當時在一篇部落格文章中寫道:“在建立像LaMDA這樣的技術時,我們的首要任務是努力確定将風險降至最低。”

三、核心人員離職、工程師被解雇,微軟ChatGPT背刺谷歌

2020年時,弗裡塔斯和沙澤爾還在研究如何将LaMDA內建到Google Assistant中。Google Assistant是谷歌四年前在其智能手機Pixel和家庭音箱系統上首次推出的一款軟體應用程式,每月有超過5億人使用Google Assistant來執行一些基礎任務,比如檢視天氣和安排約會。

知情人士稱,谷歌不願向公衆釋出LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,并使用類似技術建立一家自己的初創公司。中途皮查伊多次幹預,要求兩人留下來繼續研究LaMDA,但卻沒有向他們承諾何時将會釋出。

2021年,弗雷塔斯和沙澤爾正式離開谷歌,并于當年11月成立了初創公司Character Technologies。他們研發的AI軟體Character于2022年正式釋出,該軟體允許使用者建立聊天機器人并與之互動,機器人甚至可以以蘇格拉底等知名人物的口吻與使用者對話。

十年,谷歌是如何在聊天機器人競賽中落後微軟的?

▲沙澤爾和弗雷塔斯在他們位于帕洛阿爾托的新公司的辦公室  圖源:《華盛頓郵報》

“這款軟體的釋出在谷歌内部引起了一些轟動。”沙澤爾在YouTube的一段采訪中稱。在他看來,作為一家小初創公司來推出這款軟體可能更加幸運。

2022年5月,谷歌考慮在當月的旗艦會議上釋出LaMDA。而據谷歌解雇的一名工程師布萊克·勒莫因(Blake Lemoine)後來透露,被解雇是因為他在社交平台上釋出了與聊天機器人的對話,并聲稱它是有知覺的。

十年,谷歌是如何在聊天機器人競賽中落後微軟的?

▲ 2021年的虛拟谷歌會議期間與 LaMDA 的對話示例   圖源:彭博社

在勒莫因釋出的内容引發廣泛争議之後,谷歌取消了原本的釋出安排。谷歌表示,勒莫因的公開披露違反了就業和資料安全政策,是以公司需要做出保守起見的安排。

自從微軟與OpenAI達成新協定以來,谷歌一直在努力向大衆展示自己作為AI創造者的行業地位。

十年,谷歌是如何在聊天機器人競賽中落後微軟的?

▲微軟員工亞曆山大·坎貝爾(Alexander Campbell)示範Bing和Edge浏覽器與OpenAI的內建。 圖源:美聯社

在今年ChatGPT首次亮相後,谷歌也準備公開釋出自己的聊天機器人Bard,該機器人部分技術基于弗雷塔斯和沙澤爾當年的研究,它搜集從網絡中擷取的資訊,再以對話形式回答問題。谷歌在一次公開活動中表明,原計劃是想對Bard的區域性搜尋功能更進一步的探讨,讓媒體和公衆對Bard有新的認識,知曉它是一個使用類似LaMDA的AI技術來回應輸入文本的搜尋工具。

據谷歌高層稱,谷歌經常會重新評估釋出一款産品的條件,但由于現在面臨太多的外界刺激,才在一個并不十全十美的情況下釋出。

谷歌搜尋副總裁伊麗莎白·裡德(Elizabeth Reid)在接受采訪時稱,自去年年初以來,谷歌也對搜尋産品進行了内部示範,這些産品也整合了LaMDA等生成式AI的響應。

谷歌認為生成式AI最有用的搜尋用途之一,是在沒有标準正确答案下進行的問題搜尋,他們将其稱為“NORA”。裡德說,傳統的搜尋功能可能已經滿足不了現在的使用者了,谷歌還看到了其他複雜搜尋的潛在可能,比如說解一個數學題。

高管們說,和其它類似項目一樣,最大的問題是它的準确性。使用這些搜尋工具的人說,基于LaMDA技術建構的工具在某些情況下會給出一些偏離主題的回答。

同樣,微軟新版Bing在上個月已經釋出,對于此前使用者報告的與聊天機器人之間産生的令人不安的對話,将會通過限制聊天時間的方式來減少機器人發出攻擊性或令人毛骨悚然的反應的機會。

谷歌和微軟都承認自己的聊天機器人還存在很多不準确的地方。

在談到像LaMDA這樣的語言模型時,裡德認為像是“在和一個孩子說話”,當一個小孩子給不出大人想要的答案時,他會編造出一個聽上去合理的答案來應對。

谷歌未來還将繼續微調其模型,包括訓練模型承認自己不知道答案而不是編一個。

結語:AI上司者谷歌首戰失意,微軟略占上風

谷歌聊天機器人的研發自2013年起步,2017年時已實作了重大的技術突破——神經網絡系統Transformer,這也是ChatGPT所用到的底層技術,随後又釋出了預訓練大模型BERT;21年,微軟釋出了ChatGPT的前身GPT-3,谷歌緊接着釋出了預訓練模型LaMDA,展示出自然的對話能力;如今,Bard也即将依托LaMDA的輕量級模型版本釋出,谷歌在與微軟的較量中加快步伐。

長期以來的輿論壓力、層層加壓的安全審查,以及裁員後嚴重的人才流失情況,讓谷歌進入到一個短暫的業務疲軟時期,整體業績下滑。但從長期來看,谷歌并未輸掉這場巨頭之争,它所擁有的LLM(語言大模型)團隊和定制晶片,在市場上難尋敵手。

與此同時,我們也不難發現,大模型和生成式AI的産業落地必然是場艱難長跑,巨頭們在技術、産品、生态、安全等多方面面臨的壓力重重,随着生成式AI大規模接入應用程式當中,穩定性和可靠性也将成為使用者更看中的評判标準,也更考驗各家基礎設施的能力。

來源:《華爾街日報》

繼續閱讀