天天看點

#聯合國安理會将開會讨論AI風險問題#還是沒跑掉!人工智能的危險,進入聯合國議程7月17日,有報道稱,聯合國安理會将在本

作者:郝聞郝看

#聯合國安理會将開會讨論AI風險問題#

還是沒跑掉!人工智能的危險,進入聯合國議程

7月17日,有報道稱,聯合國安理會将在本周正式讨論人工智能的風險問題。

這是第一次舉行相關讨論,也是第一次有新技術,那麼快引發如此國際級關注(從爆發到如今也就9個月)。

大模型AI僅9個月就風靡全球,但因為資料安全、隐私、版權等問題,頻頻被推到風口浪尖。

比如南韓三星幾個員工因為使用AI,洩露晶片設計資訊;多人發起訴訟,稱諸多大模型訓練時,違規利用個人隐私資訊;藝術家、設計師訴訟大模型侵權;AI換臉、模拟聲音的詐騙也多了起來;甚至有人用AI編造的假判例,蒙騙法官……

是以,幾個月前,包括馬斯克、大模型發明者等技術達人在内,就開始呼籲監管大模型,各國也一改過去對新興技術先發展、再監管等寬容思路,迅速從行政等多個層面對AI落地監管。

甚至有AI領袖人物倡議,建議成立像國際原子能機構一樣的AI監管機構。

現在看,這一說法正被聯合國響應。

這次開會有幾個點值得關注:

1、全球對AI監管的邏輯基本一緻,一邊要防治AI衍生的新危害,另一邊也要支援AI的發展,因為它确實代表先進生産力,大大優化經濟發展的效率,改變社會、全球格局。

但各國AI發展的程度不同,産業的需求不同,監管的寬嚴細節上能否達成一緻?

2、從目前中國、歐盟等已經有的架構看,基本監管方向:都是消除AI技術發展的不确定性,讓它剔除“黑盒”屬性,透明度不斷提高;

手段上:确定AI危險等級、安全評估、算法備案,前置到資料标注新規,協同牌照許可、内容責任制促成合規,強化技術透明度。

但這涉及到的監管成本,商業平台能承受多少?會如何博弈?會不會存在各國機制差距,形成監管套利?Open AI的當家人奧特曼就曾因監管威脅退出歐盟……

3、警惕某些國家利用技術以外的影響力,主導國際AI監管架構,形成對咱們AI發展不利的結果。

總之,人工智能就像科學家霍金說的:它要麼是人類有史以來最好的事,要麼是最糟的。它真的會像馬斯克說的“導緻文明毀滅”?相信很快聯合國會給出答案。

畢竟,按計劃,9月,人工智能的顧問委員會就可能在聯合國成立,很多事情或許會加速清晰起來。

您說呢?

#聯合國安理會将開會讨論AI風險問題#還是沒跑掉!人工智能的危險,進入聯合國議程7月17日,有報道稱,聯合國安理會将在本
#聯合國安理會将開會讨論AI風險問題#還是沒跑掉!人工智能的危險,進入聯合國議程7月17日,有報道稱,聯合國安理會将在本
#聯合國安理會将開會讨論AI風險問題#還是沒跑掉!人工智能的危險,進入聯合國議程7月17日,有報道稱,聯合國安理會将在本
#聯合國安理會将開會讨論AI風險問題#還是沒跑掉!人工智能的危險,進入聯合國議程7月17日,有報道稱,聯合國安理會将在本

繼續閱讀