天天看點

意大利首禁ChatGPT拟開2000萬歐元罰單,AI開發狂飙應否踩刹車?

作者:網際網路法律評論
意大利首禁ChatGPT拟開2000萬歐元罰單,AI開發狂飙應否踩刹車?

2023年4月5日,ChatGPT官網停止Plus付費項目的購買,原因是“需求量過大”,不過OpenAI公司應對迅速并在翌日又開啟了購買通道。此現象彰顯由ChatGPT引領的生成式人工智能風潮正在商業化和資本市場領域所向披靡。

伴随ChatGPT商業化“狂飙”,反對它的民間聲浪和政府監管力量随之加大。3月31日,意大利宣布禁用ChatGPT,因為其違反歐盟《通用資料保護條例》(GDPR)。

人工智能的發展正在經曆拷問:人工智能本次崛起,是為所有行業的發展提供了加速引擎,還是将導緻人類社會的毀滅?

當然,更多人認為,前者是過于樂觀的資本泡沫,後者是不切實際的推測性恐慌。

本文拟從近期全球正在發生的政府監管和民間反對動作予以分析,幫助我們思考人工智能開發的邊界究竟在哪裡。

意大利政府宣布禁用ChatGPT——歐盟啟動監管的開始

2023年3 月 31 日,意大利資料保護局 (DPA)發表聲明,禁止在意大利使用人工智能聊天平台 ChatGPT。意大利DPA指責ChatGPT系統違反了歐盟《通用資料保護條例》(GDPR),并已對OpenAI這家美國科技公司展開進一步調查。

根據意大利DPA的初步調查,其暫時禁止ChatGPT 的理由主要是:

1使用者告知義務:OpenAI 沒有告知使用者其個人資料正在被收集并用于訓練其資料算法;

2法律依據缺失:OpenAI沒有法律依據證明大量收集個人資料用于訓練其人工智能模型是正當的;

3洩露個人資料:在測試中,ChatGPT 在其回複中提供了與個人資料相關的資訊,包括3月20日ChatGPT Plus 部分訂閱者的對話和支付資訊方面遭遇資料洩露的問題;

4年齡驗證缺失:ChatGPT沒有适當的程式來驗證使用者的年齡,這可能導緻兒童接觸到不适合他們年齡水準的内容。

意大利資料保護機構表示,OpenAI 有 20 天的時間來說明它将如何解決監管機構的擔憂,否則将被處以 2000 萬歐元(2170 萬美元)或高達年收入 4% 的罰款。

意大利是第一個禁止使用ChatGPT的歐盟國家,同時也預示着歐盟層面可能采取的相關行動。

根據BBC報道,愛爾蘭資料保護委員會正在與意大利監管機構跟進溝通,以了解他們采取行動的依據,并“将與所有歐盟資料保護機構就禁令進行協調”。

此外,歐洲刑警組織近期出具了一份報告《ChatGPT:大型語言模型對執法的影響》(ChatGPT: The impact of Large Language Models on Law Enforcement)詳細說明了如何使用生成人工智能——在某些情況下,已經在使用它——來幫助人們犯罪,從欺詐和詐騙到黑客攻擊和網絡攻擊。例如,聊天機器人能夠以特定人的風格生成語言,甚至模仿他們的聲音,可以使其成為網絡釣魚詐騙的有力工具;語言模型在編寫軟體腳本方面的熟練程度,幾乎可以讓人人都能夠生産惡意代碼等。

意大利首禁ChatGPT拟開2000萬歐元罰單,AI開發狂飙應否踩刹車?

圖檔來源:歐洲刑警組織官網

歐盟《人工智能法案》為AI模型提供商和第三方賦予重大義務

《人工智能法案》(AIA)是一項歐盟的旗艦立法,旨在根據人工智能造成傷害的能力對其進行監管。AIA 作為該領域第一個綜合性法律架構,有可能像歐盟的GDPR一樣,成為全球人工智能治理的标準。目前立法提案談判中的一個大問題,就是如何處理通用人工智能(GPAI) 這種可适應各種任務的大型語言模型。

2023年3月14日,歐盟議會聯合報告員透露出最新一版就通用人工智能(GPAI)所作的修改内容。其中提出了通用人工智能(GPAI)模型提供者的一些義務以及不同供應鍊參與者的責任規範。

(1)定義——通用人工智能(GPAI)納入監管範疇

通用人工智能(GPAI)被定義為:一種“在大規模廣泛資料上進行訓練的人工智能系統,專為輸出的通用性而設計,并且可以适應廣泛的任務”。

上述定義很寬泛是為了能夠包含未來發展的人工智能,是以檔案中也規定了非通用人工智能 (GPAI) 的類别:為有限應用程式開發的AI系統不能适應廣泛的任務,如元件、子產品或簡單的多用途AI系統,不應被視為通用AI系統。

(2)通用人工智能(GPAI)提供者責任

通用人工智能(GPAI)提供商遵守最初對更有可能造成重大損害的人工智能解決方案的一些要求,其中解決方案的設計、測試和分析應符合法規的風險管理要求。在整個生命周期内,ChatGPT等必須接受外部審計,測試其性能、可預測性、可解釋性、可糾正性、安全性和網絡安全,以符合人工智能法案的最嚴格要求。

在這方面,歐盟立法者提出了一項新的條款,通用人工智能(GPAI)模型的提供者必須在歐盟資料庫中進行注冊;基于人工提示生成文本的人工智能模型可能被誤認為是真實的人工内容,必須遵守作為高風險人工智能供應商的品質管理和技術檔案要求,并遵循相同的合格評定程式。

(3)通用人工智能(GPAI)第三方責任

歐盟立法者修改了文本序言中關于人工智能價值鍊上經濟參與者責任的一段,并将其納入文本的強制性部分。任何第三方,如人工智能的分銷商、進口商或部署者,如果大幅度修改人工智能系統(包括通用人工智能系統),都将被視為高風險系統的提供者(具有相關義務)。

在這方面,引入了一個新的附件,列出了通用人工智能(GPAI)提供商應向下遊營運商提供的資訊示例,這些資訊涉及《人工智能法案》的具體義務,如風險管理、資料治理、透明度、人力監督、品質管理、準确性、穩健性和網絡安全。

相關公司應當注意,《人工智能法案》可以适用于歐盟境外,将會成為“布魯塞爾效應”(歐盟單方面監管全球市場的權力)的另一個例子。隻要人工智能系統的影響發生在歐盟内部,無論AI提供者或使用者在哪裡,《人工智能法案》都将适用于歐盟或非歐盟的企業。

民間的反對:什麼才是人工智能的真正風險?

然而,大規模監管仍舊是未來的,從全球科技巨頭到初創公司紛紛投身于AI開發,到微軟解散了原有的科技倫理團隊,生成式人工智能必定将經曆一個時期的野蠻生長。

>>>>錯誤資訊、勞動力影響和社會安全?

意大利首禁ChatGPT拟開2000萬歐元罰單,AI開發狂飙應否踩刹車?

圖檔來源:未來生命研究所(Future of Life Institute)官網公開信頁面

近期,OpenAI最初的創始人之一馬斯克,帶頭開始反對人工智能進一步開發,并在未來生命研究所(Future of Life Institute)釋出了一封公開信呼籲:我們應該立即停止訓練比GPT-4更強大的AI系統,暫停期至少6個月。

目前已經有超過 12,000 +名研究人員、技術專家和公衆人物在這封信上簽名。這封信對“錯誤資訊、對勞動力的影響和安全”這三大人工智能風險因素提出了警告:

● 我們是否應該讓機器用宣傳和謊言淹沒我們的資訊管道?

● 我們是否應該将所有工作自動化,包括令人滿意的工作?

● 我們是否應該發展最終可能超過我們、超越我們、過時并取代我們的非人類思維?我們應該冒險以至最終失去對文明的控制嗎?

同時,這封信提出了人工智能是否可以進一步開發的标準:隻有當我們确信它們的影響是積極的并且它們的風險是可控的時候,才應該開發強大的人工智能系統。

就連OpenAI的首席執行官 Sam Altman在近期的一次訪談中,也表達過上述可能的安全風險:GPT系列為何會出現推理能力,OpenAI的研究者自己都搞不明白;而根據他的認知,“AI确實有可能殺死人類”。

人工智能教父Geoffrey Hinton、比爾蓋茨、紐約大學教授Gary Marcus最近也紛紛發出警示:AI消滅人類,真的不是空談。

>>>>産品安全與消費者保護角度?

這封信顯然已經獲得廣泛的支援,包括許多真正的專業人士。但也有許多同領域的專家認為,雖然在更廣泛的層面上贊同上述三種類型的風險,但卻不贊同這封信提出的具體問題:這封信誇大了人工智能的近期能力,所闡釋的推測性的、未來主義的風險,卻讓人忽略了已經形成了真正傷害的問題。

推測型風險 實際風險
錯誤資訊 惡意造謠活動 AI使用不當導緻誤傳
勞動力影響 淘汰所有工作 AI剝削勞動力,将權力轉移給企業
安全性 長期人類生存的風險 近期的資料安全風險

人工智能學術專家 Sayash Kapoor 和 Arvind Narayanan 在他們的時事通訊AI Snake Oil中指出,現在語言模型創新的主要驅動力不是推動更大的模型,而是将我們擁有的模型整合到所有方式中的應用程式和工具。他們認為,監管機構應該從産品安全和消費者保護的角度來看待人工智能工具,而不是像遏制核武器一樣試圖遏制人工智能。不同的應用程式所具有的危害和應當采取的幹預措施會有很大差異,比如搜尋、個人助理、醫療應用程式等。

>>>>隐私風險是确定的安全漏洞

據南韓媒體近日報道,三星公司在引入ChatGPT的近20天時間内,發生3起資料外洩事件,其中2次和半導體裝置有關,1次和内部會議有關:因三星員工直接将企業機密資訊以提問的方式輸入到ChatGPT中,會導緻相關内容進入OpenAI的學習資料庫,進而可能洩漏給更多人。三星公司稱已告知員工謹慎使用ChatGPT,如果無法阻止類似事故,将考慮禁止在公司内網上使用ChatGPT。

此案例清晰傳遞出ChatGPT使用者将會遭遇的資料安全風險。

非營利性研究機構“人工智能和數字政策中心”(Center for Artificial Intelligence and Digital Policy)近日向美國聯邦貿易委員會(FTC)提出投訴,要求其調查 OpenAI 的做法,停止 GPT-4 軟體的進一步商業釋出,并確定該公司遵循有關部署 AI 系統的指南和原則。與前述公開信不同,這項投訴強調了一些具體的隐私問題,包括涉嫌對使用者聊天記錄的不當處理,這可能意味着存在安全漏洞。

生成式 AI 系統對資料隐私的影響主要分為兩個方面:一方面,是個人資料有可能被用于訓練 AI 模型的資料集中,包括基于公開資料還是私有資料集;另一方面,通過使用者與生成人工智能系統的互動來收集和使用個人資料。

如何才能避免濫用AI?

對變化速度的焦慮很可能是有道理的。而真正的焦慮,不是來自人工智能會比人類更聰明,而是因為人類已經在使用人工智能以現有機構沒有準備好的方式來超越、利用和欺騙彼此。

人工智能應用代表了這一時代的科技進步,但能否真正促進人類社會整體進步,将取決于如何運用這一科技的人類集體的“智慧”。我們仍舊期待一場擺脫恐慌和炒作、做好積極準備的技術變革。

參考連結

  • https://futureoflife.org/open-letter/pause-giant-ai-experiments/
  • https://iapp.org/news/a/a-view-from-dc-should-chatgpt-slow-down/
  • https://aisnakeoil.substack.com/p/a-misleading-open-letter-about-sci
  • https://www.washingtonpost.com/technology/2023/04/04/musk-ai-letter-pause-robots-jobs/
  • https://www.euractiv.com/section/artificial-intelligence/news/italian-data-protection-authority-bans-chatgpt-citing-privacy-violations/
  • https://europeanlawblog.eu/2022/02/17/eu-draft-artificial-intelligence-regulation-extraterritorial-application-and-effects/

作者:張穎 《網際網路法律評論》主編

【免責聲明】本文撰寫所需的資訊采集自合法公開的管道,我們無法對資訊的真實性、完整性和準确性提供任何形式的保證。

本文僅為分享、交流資訊之目的,不構成對任何企業、組織和個人的決策依據。

繼續閱讀