天天看點

歐洲的人工智能監管困局與焦慮

作者:光明網

【環球視野】

光明日報駐赫爾辛基記者 鄧宇飛

近期,來自不同政治派别的11位歐洲議會議員發出一封公開信,呼籲行業、研究人員和決策者更加關注“非常強大的人工智能”的潛在危險。鑒于目前人工智能技術的快速發展,歐洲有不少人擔心歐盟的監管政策跟不上技術發展的步伐,希望歐盟更加關注不斷變化的人工智能技術格局。

1.政策監管出台即過時

歐盟在嘗試推動出台人工智能監管政策方面是先行者。2021年,歐盟委員會推出了全球第一個關于人工智能的法律架構——歐盟人工智能法案,希望通過該架構來應對人工智能技術可能帶來的風險與挑戰。在歐委會設計的架構中,根據應用場景、使用技術等多個方面,人工智能技術被劃分為四個不同的風險等級,配有不同的監管要求。

當時的架構設計者們相信,盡管人工智能是一項快速發展的技術,但是歐洲的制度設計足以适應技術變化。但事實似乎并不盡然。僅僅幾年間,人工智能技術的發展就讓那些規則設計者們感歎歐盟的設計似乎已經過時了。歐盟人工智能法案的主要起草人之一、來自德國的歐洲議會議員阿克塞爾·沃斯指出,人工智能技術在兩年前還沒有這麼先進,而未來兩年中還會進一步發展,“如此之快”的發展速度讓當時的大部分法律設計在實際生效時可能已經不再适用了。

此次,歐洲議會成員在公開信中要求,歐盟人工智能法案應保證未來人工智能發展本着“以人為本、安全、可信賴”的理念發展,甚至讓涵蓋整個歐盟市場的監管“可以成為全球不同監管傳統和環境中其他監管舉措的藍圖”。

引人關注的是,公開信還呼籲歐盟委員會主席馮德萊恩和美國總統拜登舉行一次進階别峰會,就“研發、控制和部署非常強大的人工智能的初步管理原則達成一緻”。

2.語言模型人工智能引發擔憂

歐洲議員們的呼聲很大程度上受到時下火爆的語言模型人工智能應用的影響。大型語言模型讓人工智能可以進行深度學習和訓練,使其不僅可以模仿人類對話,甚至還可以編寫和調試代碼、創作詩歌和論文。不過,這樣的人工智能應用自推出伊始,人們對其技術倫理就紛争不斷,各方監管機構也十分關注。

今年2月,參與歐洲人工智能法案讨論的歐洲議員曾提議,人工智能語言模型技術在沒有人類監督的情況下生成複雜文本應該被列入“高風險”清單,以阻止這類應用大規模制造虛假資訊。

意大利資料保護機構認為,開發語言模型人工智能使用的資料,可能違反了歐洲的通用資料保護條例。意大利資料保護機構要求研發公司必須對使用者更加透明地說明資料是如何處理的,如果要将使用者的資料用于進一步的軟體開發(即幫助人工智能學習),必須獲得使用者的許可,并且必須設定未成年人的通路權限。西班牙和法國也表示了類似的擔憂。

目前,歐洲議會仍在讨論歐盟委員會兩年前提出的人工智能法案,尚未确定通過該法案。法案即使在歐洲議會獲得準許,仍需歐盟成員國逐一稽核通過。有分析認為,該法案可能要到2025年初才能生效。

沃斯議員在接受歐洲媒體采訪時表示:“出于競争原因,也因為歐洲在技術上已經落後,歐洲實際上需要以更多的樂觀态度來看待人工智能。但正在發生的情況是,歐洲議會中大多數人都被恐懼和擔憂所引導,試圖排斥一切。”他說,歐盟成員國有關方面希望設立一個獨立機構來監控人工智能技術,并且修改現有的資料保護立法。

3.英國與歐盟不同的監管思路

今年3月,英國政府公布了人工智能監管拟定辦法白皮書。英國政府表示,計劃在相關部門和領域中迅速采用新的監管架構,未來數月将向金融、市場等行業領域的監管機構提供人工智能監管準則。

英國采取的人工智能監管思路與歐盟提出的監管設計架構截然不同。歐盟試圖推出高度規範性指令,針對高風險人工智能系統的研發者和使用者做出具體的技術和機構規定;而英國則有意對人工智能研發和使用采取寬泛的監管原則,實施更為靈活、平衡的監管辦法。此外,英國政府希望,由行業監管機構在參考政府的一系列指導原則的基礎上,制定具體的監管辦法。

未來一年裡,英國政府監管機構将面向人工智能研發和應用企業推出更加具體的監管指南,引導後者對人工智能進行風險評估。在此基礎上,英國議會再适時開啟人工智能立法,以確定監管機構有法可依。

英國政府希望在人工智能領域掌握更多的話語權。英國前财政大臣傑裡米·亨特此前在一次演講中表示,英國在培育人工智能技術方面必須“全速前進”,以保證“赢得這場競賽”,為新興技術制定全球标準。2022年亨特就表示要将英國變成“世界的下一個矽谷”,提出為量子計算技術投入數十億美元,并承諾投資一台新的超級計算機來推動人工智能研究。

4.政府與科技公司的博弈

有業内分析認為,目前歐盟和英國加快對人工智能的監管規則設計,都是希望在規則制定上搶奪話語權,但它們的規則設計都難以在消費者保護、監管、經濟和科研的自由發展之間取得平衡。

很多歐盟官員認為,監管機構必須承擔更多責任,僅用風險級别來管理人工智能應用程式是遠遠不夠的。歐盟内部市場專員蒂埃裡·布雷頓提出,研發人員和科技公司應該監控每個人工智能應用程式的風險,因為科技公司有時無法預測其人工智能産品在第二天可能會做什麼,甚至對做了什麼感到驚訝。

但是,很多科技公司對部分歐盟監管規則并不滿意。2022年歐盟曾推動出台人工智能責任規定,作為對歐盟人工智能法案的補充,以使消費者在因人工智能技術受到傷害時能夠更容易起訴技術所屬的科技公司。而很多科技公司堅稱,這将給歐洲的技術創新帶來“寒蟬效應”,科技公司的程式員不僅要為人工智能的程式錯誤負責,還要為人工智能技術對使用者産生的潛在心理健康影響負責,這是一種苛責。

歐洲監管困局的背後,還有歐洲各國在人工智能技術領域失去領先位置後的憂心忡忡。兩年前歐盟提出人工智能立法時,布雷頓就表示,歐盟此舉不是要趕走人工智能的研發者,而是要鼓勵和說服他們留下來。歐盟不應依賴外國供應商,人工智能資料也應在歐盟存儲和處理。

沃斯議員的話更是充滿焦慮:“如果歐盟規則過于複雜,科技公司就會去其他地方搞人工智能研發。歐盟還不迅速采取行動的話,将成為其他國家的‘數字殖民地’,并有可能最終失去政治和社會的穩定。”

《光明日報》( 2023年06月01日14版)

來源: 光明網-《光明日報》

繼續閱讀