天天看點

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

作者:鳳凰衛視
晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

專訪方濱興

中國工程院院士 網絡空間安全專家

2023年5月18日,第七屆世界智能大會在天津舉辦,千餘位院士專家與企業家共聚。随着ChatGPT的出現,生成式人工智能進入大衆視野,也成為本屆大會與會嘉賓們探讨的焦點話題。

自然語言模型ChatGPT,掀起了生成式人工智能浪潮,有人稱贊其誕生價值不亞于個人電腦與網際網路;還有人将其等同于一場工業革命;當然也有人對其不屑一顧;更多的人則是擔憂其所帶來的風險與安全問題。

基辛格在他的新書《人工智能時代與人類未來》中預測,人工智能這項具有颠覆性潛力的技術,可能在五年之内成為影響全球安全的關鍵因素。

方濱興:人工智能上世紀五十年代就有了,那個時候它叫自然語言了解,到了九十年代開始引入深度學習,這是一個比較重要的環節,沒有深度學習,自然語言了解更多的還是從規則,那确實非常麻煩。

吳小莉:我當時印象很深的是人工智能打敗了圍棋高手。

方濱興:對,就是因為它可以訓練大量的資料。其實深度學習在我看來,不是一個知識體系,而是個資料體系,它利用的是大量的資料。比方說下棋,它見過有多少個人走了這一步。

吳小莉:成功率最高的。

方濱興:對,它把這個規律找出來,然後就這麼走。它不知道為什麼,也不需要知道為什麼,是以我們把這叫做機率。那麼既然讨論機率,就是純資料,是以研究人工智能的人,不認為這裡是有知識的。

吳小莉:幾年前我去浙江大學的人工智能研究所,他們給我看了AI作的曲,還有AI拉提琴,那時候AI已經開始識别一些圖像了。為什麼這次ChatGPT問世,會如此的火爆?

方濱興:我們知道人工智能有三個核心,算法、算力和資料,現在就是算力的問題。你想要有大量的資料來做,要訓練,那就得有足夠大的算力。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

中國發展人工智能 晶片短缺問題隻是暫時

人工智能技術持續突破,全球算力進入“軍備競賽”。有評論指出,要訓練出GPT-3.5至少需要1萬張A100的晶片叢集,而目前中國内地可用作大模型訓練的A100晶片總共隻有4萬張左右。

美國商務部從2022年10月出台高端GPU出口限令,中國隻可以向英偉達購買與A100算力一緻,但傳輸速率隻有A100三分之二的特供版晶片A800,而且此後算力更強的GPU晶片都會被限制出口到中國。

近日,處于人工智能浪潮中心的半導體公司英偉達,其CEO黃仁勳在接受采訪的時候表示,對華晶片戰将會對美國科技造成“巨大損失”。

吳小莉:我們的晶片是不足的,這會不會影響我們未來發展這方面的事情?

方濱興:客觀上,算力是有問題,但情況沒有那麼悲觀,當我們的需求很确切的時候,這種晶片就可以做了。比如說A100,它實際上是一種更通用的晶片,它不是為了模型生成生産的,它是為了圖像處理,為了更多的事情生産的,那當我知道要為模型生成生産晶片,我就可以把很多不需要的部分去掉,我就可以做專門服務于模型生成的這種GPU,是以現在晶片問題不是說不能解決,而且現在社會上有很多邊緣計算,各種雲計算,我算法調整一下,不調用GPU我來做,也是可以的。我不知道您聽說過“挖礦”沒?“挖礦”搞個木馬,誰一中毒了之後,它就到誰那占用點資源去“挖礦”,“挖礦”都能做,我為什麼不能做?是以想做總是能做的。

現在最大的問題是什麼呢?大家都在訓練,浪費極大。其實我們國家,第一,人多,成本低;第二,我們的組織能力極強,其它國家不可能做到。如果我們有一個專門搞訓練的部門,訓練之後什麼模型都可以共享,這才是正道。現在是你也組織訓練,他也組織訓練,成本越來越高。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

吳小莉:中國内地一些類似ChatGPT的産品,您試用過嗎?覺得怎麼樣?

方濱興:我是百度文言一心的試用使用者,我覺得它是可以用,我問它的問題,它的回答已經可以用了,答案我基本上都能接受。但是它有一點比ChatGPT弱一些。

吳小莉:弱在哪裡?

方濱興:有時候資訊量可能差一點,訓練的東西可能少一點。但我聽說它也組織了幾千人在做資料标注,這種産品好不好完全取決于事後的這種強化學習,你不做強化學習,每次都給一個莫名其妙的答案,又沒人去管它,這肯定不行,是以它在這方面做得比較多。但因為它是在中國,它從中文的角度來說,已經是非常成功了,隻是資訊量欠缺一些。

人工智能快速發展 如何從技術層面防範風險

人工智能的快速發展帶來了各種突破原有道德和法治邊界的風險。2023年4月30日,在日本召開的七國集團(G7)數字與技術部長會議上,日本、美國和歐洲國家的技術部長們共同聲明,需要促進“負責任”地使用ChatGPT等人工智能工具。

吳小莉:GPT-4給大家帶來了驚奇、驚喜,但也有人會覺得很驚恐,因為它學習的速度太快了。

方濱興:它應該有一個邊界,比方說我是研究安全的,我在寫《人工智能安全》的時候,我就提出一個概念叫做行為體,行為體的特點就是有能量,能夠去行動,去傷害人類,同時能夠做規劃,決定怎麼傷害人類,有目的性。ChatGPT它是一個對話框,你罵它,它很生氣但也沒辦法,它不能去控制人類,但如果ChatGPT是個機器人呢?你設想一下,這個機器人根據ChatGPT給它的訓示,來決定動手的話,那才叫恐怖呢,一旦把這種東西和行為體結合起來,這個時候就要開始考慮風險了。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

方濱興:是以我當時提出了一個保險箍的概念,什麼叫保險箍呢?就是像保險絲那樣,電流大了就燒掉了,像緊箍咒那樣,你孫悟空你太不服管教,我喊兩嗓子就能把你給收拾了。

比如說我在ChatGPT裡設定一個小的插件,沒有這個插件,它動不了,這個插件是它的核心回路,插上插件你才能動。然後這個插件還能幹什麼呢?我遠端遙控可以讓它停止工作,比如說它在傷害人類的時候,我們每人都會一句咒語,說出來這句咒語,插件接受到咒語,它就停止工作,這個機器人的行為就會失去,就算它還能思想,但它已經不能行為了。

是以我想象将來真的有一天要把人工智能行為體和ChatGPT連接配接在一起,就需要制定一個标準,規定出廠的東西必須配備它,而且它必須能起到作用。這跟汽車有刹車一樣,失控的時候,我有個遙控能夠緊急給它刹住車。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

提前制定規則 為人工智能發展劃定邊界

近日,歐盟立法者委員會舉行對AI立法的關鍵投票,以絕大多數票數通過《人工智能法案》的談判授權草案。

此次商定的草案文本是歐洲議會曆史上讨論協商最多次的文本之一,修正案多達1000多項,其中包含了有關面部識别、生物識别監控和其他AI應用使用的新規則,并且提出了嚴格監管ChatGPT等AI工具的新思路。

2023年4月11日,中國網信辦也已迅速行動,就《生成式人工智能服務管理辦法(征求意見稿)》,向社會公開征求意見。

吳小莉:埃隆·馬斯克此前聯合了一些企業高管,以及相關科技專家們,聯名說要暫停繼續大模型訓練,給半年的時間大家做一些規則和規範。

方濱興:我覺得暫停不是特别現實的事,當然大家可以這麼呼籲,可是想做大模型的人會聽呼籲嗎?不會聽呼籲的。馬斯克他自己不是也搶購了1萬張A100晶片嘛,肯定也是為了做,是以說暫停意義不大,問題的關鍵在于發展下去怎麼控制。

我們訓練怕什麼?我們可能怕三點,第一怕訓練出一個失控的事情;第二就是通過這個訓練出現了違反倫理的事情;第三就是可能違反法律,或者說形成有害的社會影響。這樣的話還得靠後面的管理措施,你可以懲罰,比方說你要有這個問題,你這家企業關門吧,你要有這個問題,你研發的系統不能運作,是以事後控制是對的,也是可行的。還有一個關鍵就是要早點說什麼是不行的,你早點告訴大家,大家可以去避免,别花那麼大代價,最後才知道原來這個不行,那花那個代價幹什麼呢?是以早點告訴大家,也是一個非常重要的事情。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

大搜尋為生成式人工智能帶來突破 也帶來隐患

2023年2月,引入ChatGPT的新版必應搜尋引擎(New Bing)問世,微軟CEO納德拉将這件事稱作是他執掌微軟9年來發生的最大事件,但有人卻認為這像是打開了“潘多拉魔盒”。

吳小莉:ChatGPT一進入網際網路的大搜尋,會不會就沒有邊界了?

方濱興:他搞預訓練是相對安全的,因為他事先知道我訓練的資料是什麼,但是你再把搜尋放進來,搜尋的東西比較實時,量比較大,人已經不會站在旁邊再去看了,人在旁邊看,這個時間是沒有的,是以這确實是存在這樣的問題。

是以對我們來講,解決這個問題的唯一方法就是,你要有一種判斷一個生成結果是不是可被接受的一種能力。這種能力倒不是特别複雜,我們計算機自動判斷一篇文章,它的立場、它的态度、它的世界觀是否正确,都是有判斷方法的,是以是要有這些。判斷完了怎麼辦?你要有安全閥,生成的答案不合适,是不是會被安全閥按住,然後生成一個相對通用的答案,對吧?甚至不回答,對吧?但是所有的前提都是要有一個安全閥,是以搜尋引擎帶來的問題,導緻安全的重要性就更為強大了,因為它是不可預控的。我們現在傳統搜尋引擎不會有這麼高的風險,因為傳統搜尋引擎我們叫存在性搜尋,網上有什麼你拿走什麼,哪怕是一個有害資訊,它也是客觀存在的,跟工具沒有關系。但現在就不一樣了,跟工具有關了。

吳小莉:它會自己生成。

方濱興:是以它的責任一下就變得非常大了。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

試圖推進中國的大搜尋項目 我們失去了十年嗎

2013年,方濱興曾試圖推進中國的大搜尋項目研究,但因當時缺乏國家實驗室的力量,以及強勢企業的介入,項目最終因缺乏資金而停滞。

方濱興:大概在2008年,那時一方面全國到處都在說物聯網,另一方面物聯網好像又沒有那麼火,為什麼呢?後來我說,你們想想網際網路是怎麼火的,如果沒有搜尋引擎,網際網路是火不了的,那麼物聯網為什麼火不了,還是缺搜尋引擎,是以我最早就在呼籲應該搞物聯網搜尋引擎。當時我提出泛在搜尋的概念,過去我們搜尋的隻是資訊,我說我們要搜尋人,我還要搜尋物,再後來我的一些朋友們說,那我們不如把問題解答也提出來,是以這就是2013年,我們擴充(研究領域),從物聯網搜尋擴充到了智慧搜尋。

那這怎麼推動呢?光聽我到處演講沒有用,我們就找到國家自然科學基金委當時的副主任,管我們這個口的副主任高文,他是了解這個的,當時他就說好,支援,我們就等于在基金委立項了。那在基金委立項之後,他說你們研究的這種東西得讓大家懂,是以2014年我們就辦了雙清論壇,同時在好幾個地方專門開智慧搜尋的會議。到了2015年,我們就說要把白皮書寫出來。大資料的核心要解決的是挖,挖價值,那大搜尋正好是解決挖價值的事情,是以我們正好叫大搜尋了,是這麼改的名,然後我就為此專門寫了《網絡空間大搜尋技術白皮書》,是這麼一個過程。

但比較可惜的是咱們好像缺少這種環境,真要說做的話,我們是不是上來就敢投足夠多的錢去搞資料标注?是不是有人會做這樣的決策?是以這是我們現在的一個問題。

吳小莉:據說當時您也跟一些網際網路大平台聊過?有跟現在的網際網路三巨頭BAT聊過嗎?

方濱興:這是比較得罪人的事。實際上我們在開世界網際網路大會時,我們就經常有接觸,我還專門找了幾個人,給他們建議,這種建議後來我發現其實沒有任何意義。什麼樣的建議才有意義呢?比如說請網際網路公司的決策者參加學術研讨會,他就會認真來決策,像我們偶爾當面建議人家做,我發現沒有用。甚至我也曾經找過某個人坐在一起談上一個小時,讨論問題,也沒有觸動他往下做什麼,因為他們那樣的企業決策過程是很複雜的,任何一個全新的決策,一定會打亂他原本計劃裡的什麼事,是以說靠一個人去這樣說話,沒有用。

吳小莉:那您看到今天ChatGPT問世,會覺得我們是以失去了十幾年的時間嗎?

方濱興:肯定是失去了,否則的話我堅信如果我們當時走下去,絕對是超前的領域。

晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興
晶片短缺?風險難控?聽安全專家如何解讀生成式AI | 專訪方濱興

制作人:韓煙

編導、編輯:鄭書筠