天天看點

中國發展高層論壇2024丨人工智能:時代的機遇和挑戰

作者:中國經濟時報
中國發展高層論壇2024丨人工智能:時代的機遇和挑戰
中國發展高層論壇2024丨人工智能:時代的機遇和挑戰
中國發展高層論壇2024丨人工智能:時代的機遇和挑戰

人工智能發展與治理專題研讨會現場

■中國經濟時報記者 趙姗

中國發展高層論壇2024年年會于3月24日在京召開。在人工智能發展與治理專題研讨會上,十幾位中外嘉賓共同研讨如何利用好人工智能的機遇,應對好人工智能的挑戰。國務院發展研究中心副主任張順喜主持專題研讨會。

科學技術部副部長吳朝晖在作主題發言時表示,人工智能将成為第四次工業革命的标配,中國政府高度重視人工智能發展,通過加強人工智能領域科技創新、推動人工智能深度賦能實體經濟、推進人工智能倫理治理等方面發展。

對于人工智能的發展趨勢,吳朝晖認為,一是人工智能正在邁向多智能融合新階段,以ChatGPT為代表的技術突破,打開了邁向通用人工智能的序幕,大模型已成為主流技術路線,并加快疊代演進。二是人工智能将成為第四次工業革命的标配,它将推動傳統實體經濟實作革命性更新與發展,進而催生智能經濟新形态,成為發展新質生産力的重要引擎。三是人工智能将引發社會發展的深遠變革,它将廣泛地應用于教育、醫療、家政等行業,充分滿足消費者對于自動化、實時化、個性化的要求。

“我們希望與世界各國攜手合作,共同探索人工智能邊界,共享創新成果,共管風險與挑戰,進而共赢美好未來。”吳朝晖說。

北京智源研究院創始人、創始理事長張宏江在作主題發言時表示,目前,AI進入了一個新的發展階段,以大模型為代表的階段,它代表了第四次技術革命,帶來了效率的提高,為我們的生活帶來了諸多友善,将會創造大量的價值以及一個又一個新的産業。但同時,人工智能可能導緻全球性的災難性後果。為了避免這樣的危險發生,我們需要劃出紅線,改進治理機制,同時需要研發更多安全的技術,控制人工智能不去跨越這些紅線。要想做到這一點,最重要的一條是堅持和加強國際科學界和政府間在安全方面的合作。

在小組讨論中,Verimag實驗室創始人、2007年圖靈獎得主約瑟夫·希發基思表示,人工智能本身既不是好的,也不是壞的,關鍵的挑戰是要明智地使用它,通過規範來預防風險。他認為,有兩種主要風險,一種是技術風險,另一種是人為的風險,這可能是來自于對AI的誤用或者無意中的使用而産生的影響,可以通過監管或者法律的架構來控制。由于AI所帶來的自動化導緻的失業問題,也可以通過适當的社會政策來應對。此外,還有兩種風險,一個是怎麼在選擇和性能之間取得平衡,如果我們不能確定系統是以公正、中立的方式使用可靠資訊,則不要将決策權交給系統。另一個是性能的提升是否與人類控制的缺失相平衡。

香港中文大學(深圳)前海國際事務研究院院長、廣州粵港澳大灣區研究院理事長鄭永年表示,人工智能的發展與治理必須要同時發展、同時進步。美國跟中國在AI領域實際上是互補的,各有自己的比較優勢,可以互相學習。在治理方面,在國際社會上,更需要中美兩個國家在AI治理領域進行合作。網際網路AI最重要的還是要開放,中國要通過開放向美國學習,把發展做起來;美國應當向中國的監管、治理方面學習,互相進步。

清華大學蘇世民書院院長薛瀾表示,人工智能的發展面臨一系列風險需要防範。從人工智能治理的角度來看,面臨五大挑戰。一是人工智能的技術發展是非常快的,但是我們治理體系的建構相對慢一些。二是資訊不對稱的問題。比如,企業不知道政府規制最關心的問題在哪兒;對技術發展可能會帶來什麼風險,政府不清楚。三是防範風險的成本要遠遠高于它有可能造成危害的成本,是以風險治理的成本較高。四是在全球治理方面,互相之間有重疊甚至也有沖突的機構,都對某個問題有相關的利益,都希望來參與治理,使得全球治理體系的形成有很大的困難。五是人工智能領域的治理,一定要有美國和中國的合作,但是目前這種地緣政治也會帶來相應的一些問題。

怎麼去解決上述這些問題?薛瀾建議,第一,要加強安全和技術。目前,在安全領域的研發是不夠的,今後在這方面需要加強研究,尤其是需要加強國際合作。第二,通過靈活治理的方式解決治理方面的問題。第三,鼓勵企業的自我規制。第四,加強國際治理。在全球治理方面,聯合國剛剛通過了協定,并且召開進階别專家的讨論。第五,在人工智能領域,中美雙方一定要加強合作,這樣才能真正解決人類面臨的各種問題。

清華大學智能産業研究院院長、中國工程院院士張亞勤表示,目前,Sora的能量很大,但是剛剛開始,未來5年,我們會看到其在各領域的大規模應用,是以會帶來很多風險。他認為有三大風險:一是資訊世界的風險。比如,有錯誤的資訊、虛假的資訊。二是在大模型領域獨有的幻覺,但這個風險本身是可控的。而比較大的風險是,當把資訊智能延伸到實體智能、延伸到生物智能,在大規模使用的時候,會出現風險的規模化。三是大模型連接配接到經濟體系、金融體系、電站、電力網絡等的風險是相當大的。

怎樣防備這些風險?張亞勤提出以下五個建議。第一,辨別我們所産生的數字人或者智能體。第二,要有映射和注冊機制。未來會有很多機器人,但機器人本身是一個從屬體,不是主體,必須要映射到主體。第三,建立分級體制。對于一般規模的模型監管可以少一點,對于前沿大模型、萬億級參數用到實體世界無人車的、用到金融系統的、用到生物系統監管的要多一些,要分級。第四,呼籲把10%的經費投入到大模型風險的研究中,這不僅是政策研究,還有很多算法、技術的研究。第五,人工智能大模型一定不要跨越紅線。紅線可能在不同的時間并不一樣,但是需要有這個紅線。中國需要和全球不同人工智能領域一起合作,否則就會有生存風險。

中國發展高層論壇2024丨人工智能:時代的機遇和挑戰

總 監 制丨王 輝 車海剛

監 制丨李丕光 王彧 劉衛民

主 編丨毛晶慧 編 輯丨谷 雲

中國發展高層論壇2024丨人工智能:時代的機遇和挑戰
中國發展高層論壇2024丨人工智能:時代的機遇和挑戰

繼續閱讀