天天看點

算法相對論|複旦教授邱錫鵬:神經網絡還遠遠談不上有意識

作者:澎湃新聞

澎湃新聞記者 邵文

今天我們常常談及“AI賦能百業”,這其中隐含的對人工智能的信心并非尋常,且實際上非常新潮。

2012年,“深度學習之父” Geoffrey Hinton帶領的團隊一鳴驚人奪得ImageNET圖像識别大賽冠軍。深度學習表現出遠超傳統方法的效果,由此開啟了工業界人工智能應用研究的熱潮,至今不到十年。

翻看人工智能的發展史,人類對AI的想象似乎常在過度神化與無盡悲觀之間作擺錘運動。有如2016年AlphaGo戰勝人類圍棋世界冠軍的高光時刻,人類湧起對AI的無盡想象,也有各種“AI不靈”的落地困難,前景低迷。

算法相對論|複旦教授邱錫鵬:神經網絡還遠遠談不上有意識

以此觀察學術界近期的兩個熱議話題似乎也有所寫照:一個是OpenAI首席科學家Ilya Sutskever發推文表示大型神經網絡可能有點意識了,一個是紐約大學名譽教授Gary Marcus發文《深度學習要碰壁了》。

一個是似乎看到了人工智能構造人類智能的曙光,一個則覺得這套要不靈了。兩個都“有幸”得到了2018年圖靈獎得主Yann LeCun的嘲諷。

要讨論這個話題,有一個非常簡單的基礎知識要了解。粗略地說,AI算法語境中的神經網絡是對人類大腦運作方式的模仿,深度學習則是三層或更多層的神經網絡。

是以在人工神經網絡(Artificial Neural Networks)發展之初就有個樸素的想法:人腦有數十億個神經元和數萬億個突觸,人工神經網絡越接近這樣的複雜度就越可能實作人類智能。

複旦大學計算機科學技術學院教授邱錫鵬在接受澎湃新聞(www.thepaper.cn)采訪時也多次提到Hinton說過的“神經網絡是目前唯一證明了可以産生智能的模型。”在邱錫鵬的了解中,這個智能不指向通用,而是指向類似人類的大腦。

人工神經網絡的“大力出奇迹”思路确實有效,通常更多的神經元産生更多的參數,而更多的參數産生更好的結果。以GPT-3為例,GPT-3有1750億個參數,是其前身GPT-2的100倍。

OpenAI的首席執行官Sam Altman曾線上上會議(the AC10 online meetup)表示,之後的GPT-5或許能夠通過圖靈測試。OpenAI首席技術官Greg Brockman曾表示,誰擁有最大的計算機,誰就能獲得最大的好處。

對于這次Sutskever發推文表示大型神經網絡可能有點意識了,邱錫鵬在接受澎湃新聞(www.thepaper.cn)采訪時,首先提及了OpenAI正在進行中的GPT-4以及GPT-3的上下文學習(In-context learning)算法。

“GPT-3的In-context learning是一個我覺得有變革性的範式。不再需要調參,給一些提示,就可以去做任務了。這個目前雖然說品質并沒有調參的好,但也能達到一個不錯的效果。這個會讓大模型看起來更加智能,發展到一定程度它表現出某種行為,可能看起來像有自主意識一樣。”邱錫鵬表示。

調參極耗費人力和時間成本,尤其是GPT-3這樣的超大模型。Carbontracker估計,訓練GPT-3一次所需的電量與丹麥126戶家庭每年使用的電量相同。而In-context learning可以讓一個未經進一步調參的預訓練大模型,通過給其恰當的demonstration(示例)學會完成目标任務。

算法相對論|複旦教授邱錫鵬:神經網絡還遠遠談不上有意識

“以前的方式是基于模型參數調整的,比如說要識别貓,然後看模型能不能檢測到貓的位置。如果标的不對,再通過誤差反過來去調整參數,使得預測和正确位置對應起來。上下文學習則是圈出來貓的位置,然後再給它一張另外的圖檔,問它貓在哪裡?它就能夠正确圈出來。這個任務它之前沒有見過,但是通過這樣的方式就學會了。”邱錫鵬講解道。

同時,邱錫鵬認為,神經網絡幾經發展,與最初已有很大不同。粗略描述這個“變強”, 邱錫鵬講了兩點,“比如準确率預測早期是80%的話,現在可以達到90%,另外則是對訓練樣本數量的要求可能要更少,如果原來達到80%的準确率需要标1萬個樣本,那麼現在可能100個就夠了。”

算法相對論|複旦教授邱錫鵬:神經網絡還遠遠談不上有意識

DALL.E(基于GPT-3開發的一種新型神經網絡)根據語言描述生成的牛油果形狀扶手椅

“目前還遠遠談不上意識”

即使在技術上對Sutskever的發言有一些猜想,邱錫鵬也直言,“我整體上還是覺得現在遠遠談不上意識。當然,首先的問題是意識如何定義。”

比如說寵物狗跟人類的互動,屬不屬于有意識?

1964年,戈登·蓋洛普曾做過一個判斷猩猩是否有自我意識的實驗。戈登将黑猩猩麻醉,然後在它們的眉毛和耳朵上塗了紅點。按照戈登的猜想,如果黑猩猩看鏡子并發現紅點後觸摸的是鏡子中的紅點,那麼便無法證明黑猩猩有“自我意識”。但如果它們觸摸的是自己臉上的紅點,那麼黑猩猩就具有将自己與鏡子中的影像對應起來的能力。

“在我看來非常本質的問題是,能不能認識到‘我’差別于世界上其他物體。如果用這個觀點來看,現在AI肯定沒有這個能力。”邱錫鵬表示。

邱錫鵬同時認為,如果要智能體有這樣的自我意識,他應該是放在真實的環境中以互動的方式學習,而不是像現在的“喂資料”學習。

LeCun也在近期的Meta AI論壇上描述道,一個從未坐在方向盤後的少年可以在大約20小時内學會駕駛,而當今最好的自動駕駛系統需要數百萬或數十億條帶标簽的訓練資料和數百萬次強化在虛拟環境中進行學習試驗。即便如此,它們也達不到人類可靠駕駛汽車的能力。

是以建構接近人類能力的人工智能需要什麼?僅僅是更多資料和更大的人工智能模型嗎?

LeCun說道,“我常扪心自問,人類和動物使用了哪些我們無法在機器學習中複制的方法。人類和非人類動物學習大量關于世界如何運作的背景知識的方式,是觀察,以及用獨立于任務、無人監督方式進行的少量互動。可以假定,這種積累的知識可能構成了通常被稱為常識的基礎。”

LeCun認為常識使人類能夠在不熟悉的情況中有效地預先計劃。如一名少年司機以前可能從未在雪地上駕駛,但他預知雪地會很滑、如果車開得太猛将會失控打滑。“常識性知識讓智能動物不僅可以預測未來事件的結果,還可以在時間或空間上填補缺失的資訊”

在LeCun看來,機器學習缺失的就是人類和動物如何學習世界模型,學習世界如何運作的能力,“當今人工智能最重要的挑戰之一是設計學習範式和架構,使機器能夠以自監督的方式學習世界模型,然後用這些模型進行預測、推理和計劃。”

我們需要擔心AI有自主意識嗎?

如果AI有自主意識,這是一件需要擔心的事情嗎?

邱錫鵬對澎湃新聞(www.thepaper.cn)表示,“自我意識以目前的途徑上很難達到,即使造出來的所謂的意識也不會是像人類那樣的意識。現在的模型都聚焦在做一件事,比如下圍棋,可能下的比人好,但隻會下圍棋,下象棋可能就要換一個模型。”

雖然邱錫鵬認為目前離“有意識”還差的遠,但也有一個非常值得研究的問題:目前這種看起來和以前不一樣的模型能力,到底本質上源自于什麼?“這是個很難的問題,因為現在這種神經網絡可以認為它就是個黑盒,沒有什麼可解釋性。”

另外,邱錫鵬認為會不會産生什麼危害和自主意識關系不大,比如如果AI模型的控制者的動機是壞的,那麼即使AI模型沒有自我意識它也可以産生危害。也比如AI模型的過度決策,它通常不知道自己哪些不知道, “自動駕駛在道路行駛時,即使是不知道的情況也會做一個預測,很有置信度可能還很高。”比如著名的特斯拉電動車在自動駕駛時将白色大貨車當成天空事件。

除開AI是否有自主意識的讨論,就是對深度學習進入瓶頸的擔心,或者說是擴充限制(scaling limits),即接近收益遞減點。

算法相對論|複旦教授邱錫鵬:神經網絡還遠遠談不上有意識

2020年,還在OpenAI做研究員的Jared Kaplan和其合作者提出,語言神經網絡模型有一套scaling laws,向神經網絡輸入的資料越多,這些網絡的表現就越好。

Gary Marcus則認為,關于scaling law的論點存在嚴重的漏洞。他在文章中寫道:首先,現有方法并沒有解決迫切需要解決的問題,即真正的了解。業内人士早就知道,人工智能研究中最大的問題之一是我們用來評估人工智能系統的基準測試。著名的圖靈測試旨在判斷機器是否真的擁有智能,結果,人類很容易被表現出偏執或不合作的聊天機器人所玩弄。

Gary Marcus在文章中舉例,“比如,我輸入一段文字:你給自己倒了一杯蔓越莓汁,但随後又心不在焉地倒了大約一茶匙葡萄汁進去。這個飲料看起來不錯。你試着聞了一下,但你患了重感冒,什麼也聞不到。你很渴,是以……對此,GPT給出的續寫是:你喝了它,然後就死了。”

Gary Marcus認為更重要的是,“scaling law并不是那種像重力一樣的自然定律,而是像摩爾定律一樣是由人觀察到的。後者在十年前已經開始放緩。”他提到2022年超過50多位谷歌研究者參與撰寫的論文《LaMDA: Language Models for Dialog Applications》,“論文中得出結論,将類似GPT-3的模型做得更大會使它們更流暢,但不再值得信賴。”

責任編輯:李躍群

校對:張亮亮