天天看點

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

作者:清博智能

還記得5月OpenAI在國會山聽證會上的自信、坦誠、遊刃有餘的問答嗎?

那時的Sam Altman可謂意氣風發,在耐心、友好的國會議員面前,就AI立法、大模型安全性問題侃侃而談,甚至還自己提出了AI監管方針,“懇求”國會議員監管。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

在Sam Altman精湛的說辭和誠懇的态度下,本該針鋒相對、充滿緊張氛圍的聽證會,卻成了雙向奔赴的現場,“暧昧之情”可謂羨煞旁人。

既然話都說到這份上了,那AI監管自然得抓緊提上日程!

于是,在群眾舉報和官方調查的有力結合下,一條大魚終于“落網了”。

7月13日,美國聯邦貿易委員會(FTC)對OpenAI正式發起調查。調查内容集中在兩方面,即ChatGPT是否通過釋出虛假資訊損害了人們的利益,以及OpenAI是否存在“不公平或欺騙性”的隐私和資料安全行為。

事實上,這不是OpenAI首次被質疑資料隐私問題。

6月28号,位于北加州的Clarkson律所對OpenAI及其合作夥伴微軟提起了集體訴訟。理由是OpenAI在訓練大模型時抓取的資料,嚴重侵犯了16名原告的著作權和隐私。

6月底,作家阿瓦德(Mona Awad)與特蘭布拉(Paul Trembla)也向舊金山聯邦法院提起訴訟,稱ChatGPT未經他們同意,擅自調用他們的小說來進行訓練。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

監管看似是對AI企業的debuff(負效應),但在監管成為必然的趨勢之下,先一步成為規則的制定者,則可以獲得相對的競争優勢。這是OpenAI高呼“安全”“合法”的原因。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

但如今,“AI監管先鋒”OpenAI成了遊走在法律邊緣的頭号違規者,這場“AI狂飙大戲”,Sam Altman作為“AI界高啟強”的真面目也算是被揭開了。

01

聽證會上的漏洞

面對怒氣沖沖的被侵權者和來勢洶洶的監管部門,OpenAI的CEO Sam Altman雖然語氣依舊克制,就侵權、起訴、調查等問題發表自己的看法,但從其推特的高頻回複來看,或許着實有點慌了。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

面對質疑,Sam Altman連發了三條推特:

  1. 他對FTC的調查和未能建立起信任表示遺憾,并強調自己一直重視技術安全問題,相信OpenAI的一切行為是符合法律的。
  2. 他繼續強調GPT-4的安全性,稱OpenAI在多年的安全研究基礎上建構了GPT-4,并在完成初始訓練後花費了6個多月的時間使其更安全、更符合要求,然後才将其釋出。
  3. Altman表示其對技術的局限性一直保持透明,并稱OpenAI沒有動力去追求無限的回報,因為他們的盈利結構是有限的,其暗指将社會道德置于盈利之上。

總結一下就是,我們一直試圖不被發現,但很遺憾還是暴露了。

事實上,此次被調查的問題,早在5月的聽證會上,就已經埋下了伏筆。

雖然在國會山上的答辯中,Sam Altman的表現可謂異常出彩,但是,并非全無漏洞。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

當時坐在證人席上的紐約大學心理學和神經科學教授Gary Marcus問出了兩個緻命問題:

  1. 為什麼要和微軟結盟?
  2. GPT-4的訓練資料為何不透明?

時隔兩個月,當初的兩個問題均成為OpenAI此次信任危機爆發的重要根源。

北加州Clarkson律所在起訴書中言辭激烈,表示OpenAI的整個商業模式都是基于盜竊,并聲稱,OpenAI和微軟在開發、營銷和營運其AI産品時,對數以億計的網際網路使用者的個人資訊,包括兒童資訊進行了非法收集、使用和分享。除了ChatGPT,其訴訟涉及的對象包括了ChatGPT、Dall-E、Codex在内的衆多OpenAI旗下産品。基于這一點,許多網友将其稱作“OpenAI第一案”。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

最近的一次,FTC對于OpenAI的調查更為詳細,其列舉了一份包含49個大問題,200多個小問題的清單,要求OpenAI就清單上的所有問題進行詳細的回答和陳述。問題涉及模型開發與訓練、風險評估與應對、隐私和Prompt風險及措施和API內建及插件等諸多方面。

答完這些問題,原本不Open的OpenAI想必不得不Open一回了。

02

谷歌見機行事

更新隐私政策

在OpenAI和微軟兩位同行應付接二連三的侵權訴訟,忙得焦頭爛額之際,谷歌敏銳地嗅到了危機,于是選擇先行堵上這一漏洞。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

7月1日,谷歌更新了其隐私政策,明确規定谷歌有權收集任何公開可用的資料,并将其用于其人工智能模型的教育訓練。此舉意味着,隻要是谷歌能從公開管道獲得的内容,它都可以拿來訓練自己的Bard模型或未來的一切人工智能。

國外媒體對此評論,在這一項條款中,谷歌似乎保留了收集和利用在公共平台上釋出的所有資料的權利,就好像整個網際網路是該公司自己的AI遊樂場。

不過,針對隐私保護的擔憂,谷歌的發言人克裡斯塔·馬爾登(Christa Muldoon)強調,谷歌已将隐私原則和保障措施融入人工智能技術開發之中,以確定其與谷歌的人工智能原則保持一緻。

此外,谷歌也采取了一系列措施來應對使用者資料的安全性和隐私性等方面的問題。例如,谷歌承諾僅在獲得使用者明确同意的情況下收集和使用他們的資料,并将采取嚴格的技術和管理措施來防止資料洩露。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

并且,谷歌正在與美國、英國和歐洲的新聞機構進行溝通,表示願意付費購買新聞内容。同時他們的AI工具Bard也正在接受“公開可獲得的資訊”的教育訓練,這可能包括需要付費的網站。若付費購買新聞資訊的協定達成,谷歌在資訊版權問題上将邁出值得借鑒的一步,而谷歌的資料庫也将獲得更為豐富的資料來源。

但是,新政策對書籍著作、藝術繪畫等受版權保護的内容作品,如何防止其進入訓練資料庫的具體做法并未明确。

03

資料“公私分明”

AI監管的未來方向

從“OpenAI第一案”,到AI公司現階段普遍面臨的資料隐私問題,AI監管的下一步方向已經較為明确,那便是社交平台上釋出的“私人資料”和用于訓練的“公共資料”之間的劃分準則。

目前,美國對于大模型訓練資料的立法還沒有通過,法官判決很大程度上是參考已經有的隐私權和著作權的案例。但随着AI與人類社會之間不斷融合、浸潤,所謂“具身智能”的未來不斷臨近,私人資料的保護邊界、使用邊界必須要逐漸明确。

AI界地震!美國對OpenAI展開全面調查!監管風暴來襲!

然而,要想區分資料的公私邊界,在立法層面上來看,也并非易事。

作為生産資訊資料量最大的社交媒體,平台本身的公共性質和使用者活動的私人性質,無疑構成了一對複雜的沖突,使用者與平台對于資料的保護和使用邊界的界定,當中涉及諸多複雜的主客觀因素,使得要想明确地界定公私界限,極為困難。

不過,縱然法律上的尚未探明的灰色地帶成了AI巨頭們時不時攫取利益的來源,但是,在沒有明确法律規則的背景之下,類似的隐私侵犯案件的審判中,和解往往是普遍的處理方式。而在和解中,OpenAI等AI公司并不一定會具有優勢。

是以,頻繁增多的隐私侵犯案件,勢必會倒逼政府及法律部門在AI監管上作出重要舉措,也會迫使AI科技公司收斂自己的權力,更新完善既有的資訊政策。

作者:西瓜 排版:孫可盈

圖檔源于Q仔網際網路沖浪所得,若有侵權,背景聯系,Q仔滑跪删除~

繼續閱讀