新華社北京2月17日電 2月17日,《新華每日電訊》發表題為《透視“風口”,把脈ChatGPT》的報道。
最近,許多人都多了一位“網友”——ChatGPT。
它是一個聊天機器人,由美國人工智能公司OpenAI推出,從2022年12月1日正式釋出至今,月活躍使用者已達1億,成為曆史上增長最快的消費者應用程式。
說是聊天機器人,它可不隻能“唠嗑”。大資料、大算力、強算法賦予了它“超級大腦”。它能寫作業、寫論文、當助教,寫代碼更是“老本行”,能通過工程師測試、碩士期末考試,俨然一個“全能學霸”。
強化學習、互動訓練又讓它學會“說人話”。它也能創作文案、小說、劇本,比起它的AI前輩們,改掉了很多“機器腔”。
但毫不例外,ChatGPT也有站在陰影裡的另一面。偏見無法避免,成本依舊高昂,推理能力不足,甚至會“一本正經地胡說八道”。還有不少使用者吐槽,ChatGPT給出的參考建議籠統模糊、過于四平八穩,缺乏資訊密度,常有“正确的廢話”。
ChatGPT究竟是不是鑽進人類社會的一條鲶魚?
ChatGPT是否宣告“強人工智能”時代的到來?
ChatGPT如何影響人類的未來,它自身的未來又會邁向何方?
當AI越來越強大甚至無限趨近于人,甚至超越于人,那麼屬于人的,還有哪些搶不走的領地和獨特的價值?
近日,新華社中國搜尋團隊召集業界權威專家,剖析前沿,華山論劍,透視“風口”,把脈AI的發展。
■訪談嘉賓
王金橋:中國科學院自動化研究所研究員
唐 明:中國科學院自動化研究所研究員
陳雨強:第四範式首席科學家、聯合創始人
季逸超:第四範式科學家
沈 陽:清華大學新聞學院教授
高 躍:清華大學軟體學院副教授
車萬翔:哈爾濱工業大學計算機學院教授
淩 強:中國科學技術大學自動化系教授
楊 君:清華大學自動化系副研究員
吳 楠:南京大學計算機系副教授
何俊良:上海交通大學計算機系助理教授
“強人工智能”時代就此到來?
王金橋:ChatGPT基本上把2021年及以前網際網路上所有的資料都學習了一遍,相當于一個世界知識的統一模組化。在如此規模的參數量下,更好的關聯推理就能夠實作了,也能夠通過算法更好地模拟人的意圖。是以業内很多人認為ChatGPT是人工智能的再一次革命性突破。
但也有人不認可,認為ChatGPT還隻是世界知識的一個組合,基于組合産生了一些觀點和判斷。
我認為ChatGPT現在的問題,一是對常識的模組化弱了點,很多網友曬出了ChatGPT“翻車”、令人啼笑皆非的回答;二是缺乏多模态的資訊,目前它的推理較弱,了解不了諸如“說曹操曹操到,到底是小明到了還是曹操到了”這樣的資訊。
車萬翔:回顧自然語言處理發展史,可以發現一個有趣現象:20世紀50年代,自然語言處理初代範式誕生,主要是做專家知識系統,或用小規模的規則系統實作機器自處理,這一階段持續了約40年;之後進入淺層機器學習算法階段,持續了約20年;2010年後開啟了深度學習算法時代,直到2018年第一代GPT等的面世,又帶我們走進大規模預訓練模型的時代;4年後,正是2022年末,ChatGPT引爆全球關注——每一代突破性技術誕生的間隔,都差不多是上一代的一半。按“摩爾定律”繼續推演,我們可以憧憬,到2025年可能會有新的、更強大的AI誕生。
淩強:ChatGPT比我想象得要好。在我的想象中,ChatGPT可能會給我“和稀泥”的回答,相當于沒有對也沒有錯,但實際上它給我的答案還是有針對性的,從AI技術的角度講,ChatGPT在特征工程上應該有非常強大的方案。
另外,當我用同一問題反複問它,它的回答并非千篇一律,而是具有一定的差異性。這也讓它更像“人”,畢竟問一個人想吃什麼,他每次會有不同的回答,這說明ChatGPT的随機決策模型也做得不錯。
沈陽:我認為,ChatGPT在技術上是弱人工智能走向強人工智能的重要節點。從商業上來說,應該會引發一場大洗牌。對善于使用網絡的人來說,ChatGPT可以成為非常好的助手,在文案寫作、檢索等領域,能簡化三四成的工作量。
楊君:ChatGPT最具突破性的方面在于邏輯銜接能力,但我認為它還不具備獨立推理能力。有使用者用三段論跟它對話,它得出了不太符合常識的推論,這是AI還趕不上人腦的一大方面。人腦的強大,就在于歸納和推理能力。有人拿阿爾法狗戰勝圍棋世界冠軍,來證明人腦比不過“AI腦”,然而,目前的智能決策都還僅限于特定場景,算法在特定規則下才能表現出非常強的能力。我認為,能适應和突破變化的規則,是強人工智能的重要發展方向。
吳楠:不少使用者發現,ChatGPT在一些常識性的、正常人絕對不會犯錯的問題上經常犯錯,需要人工幹預和修正。而到底什麼是常識性問題呢?這個界定其實是很困難的,觸碰到了比模型本身更高一層、更加原始的“源問題”。對此的研究和探讨,有助于厘清AI在哪些地方需要人的修正和幫助,劃分出人機邊界。
季逸超:在搜尋場景下,ChatGPT還面臨一些挑戰。對于事實性的問題,機器通過學習能得出一緻的答案,比如“中國的首都在哪裡?北京”。但對于觀點性的、百家争鳴的問題,如何保證機器學習後,能給我們一個全面公正、沒有偏見的結果?
陳雨強:我問了ChatGPT一個問題:如果要做生意,是賣咖啡好還是賣椰子水好?這個問題背後,其實是對商業模式的判斷。對ChatGPT而言,如果曾有人在網際網路上對比過賣咖啡和賣椰子水,而且分析得有見地,那麼ChatGPT就能給出令人滿意的回答;但如果先前從未有人寫過這類文章,ChatGPT是不能産生相關見解的。
無所不能,但對真實性概不負責?
高躍:ChatGPT生成的内容,面臨真實性、準确性以及版權方面的問題。這也給我們帶來很多挑戰——除了辨識真僞、保護版權,還要能夠識别這到底是不是個人的創作,或者能區分出哪部分是AI生成,哪部分是人的創作。
陳雨強:對于一篇專業性或學術性的文章,署名作者是一定要負責的,而恰恰ChatGPT是不能負責的。學術論文的署名作者,既要對論文做出了“實質性貢獻”,又要能承擔相關的責任,而這兩條ChatGPT都不滿足,并且現階段ChatGPT生成的内容完全達不到“文不加點”、無需加工的程度,而是需要人的修改、潤色、校對,最終得由人來署名。那麼,人的智力參與達到什麼标準才能署名?這就牽涉到識别内容究竟是由人還是機器生成的問題。
何俊良:如果問ChatGPT我們自己不熟悉的專業領域的問題,它的回答會看起來非常專業,但實際上可能包含很多錯誤的知識和誤導性觀點,而我們難以分辨。
真實性問題會帶來信賴危機,而一旦公衆不敢信賴一款應用,它也便難于發展。比如自動駕駛技術,就算準确性達到99%,但由于AI的決策不可解釋、不可完全控制,很多人就不信賴它,不願意去使用,這也導緻自動駕駛技術一直未能普及。
大語言模型目前最亟待解決的問題之一,就是怎麼去判斷AI的輸出到底是對是錯,學界也特别關心。
陳雨強:可信性問題确實很重要。目前ChatGPT熱度正勁,但除了日活資料,還有一個關鍵名額是使用者留存數,也就是有多少人在一周、一個月、半年之後還在持續使用這款産品。
資訊或知識來源是否可靠,每條引用甚至每句話是否都有出處,推理是否經過驗證,生成的文章是否可溯源,都會影響使用者留存。新鮮勁過去後,可信性問題直接影響使用者還願不願意使用這款産品。
技術厮殺激烈,藍海很快會“染紅”?
沈陽:ChatGPT的橫空出世,激發了多家AI領域巨頭的反應。中原標準時間2月7日,谷歌釋出了基于谷歌LaMDA大模型的對話AI系統Bard;同天,百度宣布大模型類項目“文心一言”計劃在3月份完成内測并對公衆開放;此後第二天,微軟推出由ChatGPT支援的最新版本必應搜尋引擎和Edge浏覽器。
從技術競争的角度,我認為第一波競争大概一年時間就會基本結束,戰局就明确了,因為ChatGPT的增長速度太快了。大家都在關注它積累到3億使用者是什麼時候,再就是4億使用者、5億使用者……我認為30億是個節點。臉書經過這麼多年擴張,也就30億左右使用者。
AI領域,時間視窗非常短。ChatGPT使用者數已經超過1億了,它可以充分調動全球使用者來進行社會訓練,自我完善會非常快。
國内也是這個邏輯,誰率先推出,誰就率先獲得更有優勢的社會訓練。
陳雨強:我認為,在自然語言處理領域,由于智能客服的普遍應用,中國的技術已達到了一定的成熟度。下一步,自然語言處理技術應更加注重面向企業端,為企業的經營決策、生産管理、降本提效、開拓市場、資産管理等提供服務,以更好地商業變現。
季逸超:ChatGPT問世後,國内很多人在讨論,為什麼率先做出這種産品的不是我們,或者說我們需要多久才能做出類似的産品。作為技術人員,我認為中國企業在AI多個技術領域發展得還是不錯的,尤其是在應用端做出了很多成功模型。
我們要達到類似ChatGPT的水準,往往要選擇一個參數規模極大的語言模型去訓練,目前成本還非常高。這也許正是機會所在——切中搜尋引擎的其中一個切面,做一個表現更好、規模更小的模型,做垂直功能,同時把成本打下來。
AI的普及給教育體系帶來哪些挑戰?
沈陽:有人做試驗,讓ChatGPT參加考試,其能達到碩士的入學水準,這預示着一般性腦力勞動在未來的價值會大幅降低。如果ChatGPT發育得比較充分的話,我們未來的整個教育體系是要改變的。我們要培養下一代增加創造性知識的能力,提供AI所不能提供的價值。
如果不解決好教育和人才培養問題,在AI時代就很可能産生嚴峻的就業問題,進而影響産業更新,帶來一系列經濟社會問題。
我們大學老師也焦慮,自己還剩下什麼能“教”的呢?我認為,一方面是教學生不斷提出好問題,另一個方面是提煉升華AI生産内容的能力。擋住學生用ChatGPT寫論文是不可能的,那就教會學生用它學習、優化思考。
唐明:我認為,ChatGPT能極大提高人類的工作效率,但所謂取代人類,則遠遠談不上。AI再怎麼發展,最終還是需要人做出判斷,不可能完全信賴機器。
而人要能做出正确的判斷,這就對教育提出了更高的要求,要培養出有知識儲備、能看懂AI邏輯過程、能駕馭AI而不被它牽着走的人。
這項前沿科技,将沿着哪條路向前?
王金橋:從技術路線來講,未來,類ChatGPT應用可衍生成為人工智能時代的新型作業系統,搜尋引擎、office辦公軟體等都可以是包含其中的應用,使之成為人工智能界的新基建,亦是深深嵌入人們日常工作、學習、生活的有力工具。
車萬翔:現階段,自然語言處理技術逐漸從語義層面向推理層面邁進,推理層面解決好後,接下來就要進入應用層面,也就是AI要能聽懂語言的弦外之音,了解同一句話在不同語境中的不同含義,更好适應語言表達的個性化。
要讓AI擁有這些更進階的能力,首先要建構足夠大的模型,但大模型隻是解決了知識的存儲問題,怎樣能更好地調用知識呢?——強化學習,在代碼上繼續訓練,讓AI生成的結果更符合人類的預期,越來越有“人味”。
何俊良:很多專家都很關注ChatGPT的可信性問題,在我看來,搜尋基本上是唯一的解決方法,即ChatGPT能為自己的結論提供來源,這樣人們可以自行分辨是對是錯、可不可信。列出理由的結論,總讓人感覺更加可以信賴,心裡更踏實。
很多使用者使用搜尋,用得并不是很好,因為搜尋引擎最重要的是找到關鍵詞,而很多時候這并不容易。這時,ChatGPT就可以扮演解釋的角色,将使用者的自然語言轉化成關鍵詞再搜尋,然後把結果給大模型,整合後再輸出給使用者。我認為這就是一個理想的結合場景,既能省去人腦總結提煉的時間,搜尋準确率也更高。
吳楠:我認為,搜尋和大語言模型相結合存在一個鴻溝。搜尋引擎需要一定的穩定性,搜尋結果通常應該是客觀而正确的。但ChatGPT這類大語言模型,對問題的回答是不斷疊代的,不像搜尋引擎那麼穩定。大家會問ChatGPT很多有意思的問題,但在搜尋引擎上不會這麼問。
唐明:有一點需要注意,網絡搜尋出來的結果就一定可信嗎?不見得。一次搜尋能有成千上萬條結果,ChatGPT能總結、合成得完嗎?如果不能完全總結,那麼ChatGPT會不會限制搜尋者的視野?ChatGPT如何擴充自己的知識面呢?
在人工智能三大領域算力、資料和算法中,大陸都有人在做,算法技術也都掌握。但我認為,僅僅有這三點還不夠,還需要的是保持耐心和專注。耐心和專注不僅僅是對科研人員的要求,也是對投資人的要求,持續深耕才能開花結果。不過,無論如何,未來可期。
陳雨強:資料更新是需要解決的重要問題,不可能每天或每個月更新一次,這樣成本太高,機器學習和推理訓練的成本也很高。是以,如何讓“AI腦”及時跟上步履不停的資訊社會,讓人們能用搜尋引擎把更多更新的資料調用出來,也是需要突破的技術。
還有資料源方面,今後可能會出現服務于不同需求的、專業化版本的類ChatGPT應用,分别對接不同的資料源。比如新聞版本的,資料源就要更加嚴謹可靠。