天天看點

起訴OpenAI

作者:經濟觀察報
起訴OpenAI

陳永偉/文

最近,總部位于加州的克拉克森律師事務所(ClarksonLawFirm)向加州北部地區巡回法院送出了一份長達157頁的起訴書,對風頭正勁的人工智能公司OpenAI和它的合作夥伴微軟提起了一項集體訴訟。

在起訴書中,原告指控OpenAI和微軟在開發、營銷和營運其AI産品時,對數以億計的網際網路使用者的個人資訊,包括兒童資訊進行了非法收集、使用和分享。原告認為,被告的上述活動違反了多項法律。據此,原告要求法院對被告釋出禁令,并對被告的損失進行賠償。

由于這項訴訟是ChatGPT爆火以來面臨的第一次較有影響力的訴訟,是以在很多新聞報道中将其稱為“ChatG-PT第一案”。不過,嚴格來說,這個“第一案”的名頭可能未必恰當。一方面,幾乎就在克拉克森律師事務所提起訴訟的同時,作家保羅·崔布雷(PaulTrem-blay)和莫納·阿瓦德(MonaAwad)也向舊金山聯邦法院提起了一項針對Ope-nAI的著作權訴訟。隻不過,克拉克森律師事務所提起的這項訴訟在媒體上披露得更多(或許這應該歸功于律所的訴訟政策),因而其影響更大。另一方面,這次訴訟涉及的對象也不限于ChatGPT,而是包括了ChatGPT、Dall-E、Codex在内的衆多OpenAI旗下産品。基于這一點,相比于将這次訴訟稱為“ChatGPT第一案”,倒不如将其稱作“OpenAI第一案”更為恰當。

AI:最好和最糟的發明

2016年10月,著名實體學家斯蒂芬·霍金(StephenHawking)曾在一次演講中說道:“AI的成功創造可能是我們文明史上最大的事件。但它也可能是最後一次,除非我們學會如何避免風險。”在他看來,“強大的人工智能的崛起或許是人類有史以來最好的事情,但也可能是有史以來最糟糕的事情。”

在克拉克森律師事務所向法庭送出的起訴書的開頭,就這次集體訴訟的基本情況撰寫了一段引言,其中就引述了霍金的上述著名言論。在代理案件的律師看來,随着ChatGPT等産品的成功,一場激烈的AI軍備競賽正在大型科技企業之間展開。這在大幅推進AI技術進步的同時,也迫使人們不得不認真思考霍金的預言:人們應該選擇一條更為安全、繁榮、可持續的AI發展道路,還是選擇一條通向毀滅的AI發展道路。

起訴書指出,被告的産品及其技術無疑具有很多向善的潛力,但遺憾的是,它們在擁有了強大力量的同時,卻沒有意識到它所蘊含的破壞性力量。

原告律師引述了OpenAI安全部門負責人的一段公開發言。這段發言表明,OpenAI方面其實早就認識到,它們的AI産品是“一項相當不成熟的技術”,如果沒有足夠的安全防範,激進地部署AI模型将是非常魯莽的。但顯然,OpenAI的上述認識并沒有讓其放緩對AI的研發和部署。在原告律師看來,正是這種對風險的忽視和放縱,造成了對人們隐私權、财産權等多種權利的侵犯。

原告律師指出,被告這種為謀取經濟利益而不惜犧牲他人和公衆利益的行為是非法的。據此,他們呼籲法庭要求被告立即停止這些行為,并讓被告確定他們今後的産品是透明(Transparen-cy)、可問責(Accountability),以及可控(Control)的。

美國AI的發展回顧

在結束了“引言”之後,起訴書對美國AI的發展進行了一段回顧——不過,雖然題為“美國AI發展”,其實關注的焦點完全是在OpenAI和微軟這兩個被告上。具體來說,這段回顧強調了四個基本的事實:

(1)OpenAI從非營利組織向營利公司的轉變

最初,OpenAI是以一個非營利研究機構的形式成立的,它聲稱要以安全和負責任地推動人類進步作為自己的使命。然而,從2019年起,OpenAI的戰略就發生了180度的轉變,從一個開放的非營利組織轉向以盈利為目的的公司結構,并與外部投資者進行合作,其中最著名的合作者就是微軟。

從商業上看,OpenAI的這個轉型是非常成功的。短短幾年時間,它就從一家默默無聞的AI研究機構搖身一變成了估值290億美元的公司。但是,原告律師指出,這個轉變也帶來了很多問題。很多人擔心OpenAI是以将短期财務利益置于人類利益之上,尤其是他們在已知存在風險的情況下突然将産品廣泛商業化,可能引發道德、安全和倫理等多個方面的問題。

(2)ChatGPT的發展對秘密抓取網絡資料的依賴

大型語言模型的開發和訓練嚴重依賴于個人資料,尤其是人與人之間的對話資料。起訴書指出,為了能夠以相對低廉的成本對ChatGPT等大語言模型進行訓練,OpenAI坐視成熟的資料交易市場不用,而選用了“偷竊”(theft),也就是秘密在網際網路上爬取資料的方式。在數年中,它爬取了大約3000億字的網上文本資料,包括書籍、文章,以及網絡文章等。除此之外,它還秘密爬取了大量的個人資料,包括個人資訊、聊天記錄、線上客戶服務互動、社交媒體對話和從網際網路上抓取的圖檔等。

(3)ChatGPT在使用者的應用程式上進行訓練

起訴書指出,最初,ChatGPT曾在未經使用者同意的情況下,利用使用者來幫助其進行模型的訓練。當使用者和ChatGPT聊天時,他的所有行為和資訊,包括點選、輸入、問題、使用、移動、按鍵、搜尋和地理位置等,都會被Ope-nAI秘密搜集,并用于模型的訓練。

另外需要指出的是,OpenAI并沒有對其搜集的使用者資訊的儲存狀況進行充分披露。由于這些資料當中可能包含使用者的敏感資訊,是以在缺乏妥善保護的情況下,它們存在着很大的洩露風險。

(4)微軟推廣OpenAI的經濟依賴模式

起訴書指出,作為OpenAI的最重要合作者,微軟在推廣OpenAI産品的過程中起到了至關重要的作用,但與此同時,也大幅加速了潛在風險的擴散。盡管GPT的最新版本GPT-4不久之前才正式釋出,但微軟就已經積極将其內建到了從學術到醫療的各領域核心産品當中。這樣的內建讓OpenAI的産品觸達的使用者數量暴漲,同時也大幅擴大了風險。然而,微軟不但沒有對這種風險引起足夠的重視,反而解雇了負責確定倫理AI原則的團隊。而當其他的AI開發商目睹了OpenAI和微軟的“成功”之後,也紛紛加以效防。在這種情況下,相關風險達到了前所未有的高度。

AI的最主要風險

在對“美國的AI發展”進行了回顧之後,起訴書進一步列出了目前情況之下存在的最主要風險。這些風險包括:

(1)大規模侵犯隐私的行為

被告對使用者個人資訊的大規模收集和跟蹤構成了對使用者隐私和安全的巨大威脅。這些資訊可能被用于身份盜竊、金融欺詐、敲詐勒索等惡意目的。

這裡尤其值得指出的是,OpenAI沒有尊重使用者的“被遺忘權”(righttobeforgotten),即使用者删除自己個人資料的權利。雖然OpenAI表面上允許使用者要求删除自己的相關資料,但事實上,這個删除選項可能是虛假的。一些公司禁止或限制ChatGPT的使用,也因為他們擔心所有上傳到像OpenAI的Chat-GPT或谷歌的Bard這樣的AI平台的内容将被存儲在這些公司的伺服器上,進而無法通路或删除這些資訊。

(2)AI引發的虛假資訊宣傳、有針對性的攻擊、性犯罪和偏見

起訴書指出,包括ChatGPT在内的被告産品存在着嚴重的産品缺陷,即會産生各種虛假的資訊。一個典型的例子是ChatGPT編造的關于喬治·華盛頓大學法學教授喬納森·特利(JonathanTurley)性騷擾的謠言。不久前,加州大學洛杉矶分校的法學教授尤金·沃洛克(EugeneVolokh)為研究AI生成内容的法學問題而進行了一項測試:他要求ChatGPT生成一份“曾對他人進行過性騷擾的法律學者”的名單。為了確定生成的内容是真實的,他還專門要求ChatGPT對生成的内容标明資訊出處。當沃洛克閱讀這份名單時,他發現特利的名字赫然在列。根據ChatGPT的描述,特利曾在一次去阿拉斯加的班級旅行中發表了具有性暗示的言論,并嘗試對一名學生進行猥亵。沃洛克對此大為震驚,畢竟作為著名教授,特利也是圈内響當當的人物,而作為同行,他竟完全沒有聽過這個圈内的“大瓜”。于是,他立即對該消息進行了确認。結果發現,此事根本是子虛烏有,特利根本沒有去參加過什麼班級旅行,也更沒有進行過什麼性騷擾的活動。在沃洛克向媒體公布了這個消息後,“人在家中坐,‘鍋’從天上來”的特利才知道了自己竟然被ChatGPT描述為了一名性騷擾者。他對此非常不滿,在接受采訪時,他說道:“這真令人不寒而栗!這種莫須有的指控是非常有害的。”

起訴書還指出,除了傳播錯誤資訊外,被告的産品還可能被犯罪分子應用于騷擾、勒索、敲詐、脅迫、詐騙等犯罪活動。例如,現在出現了一種新型的“性騷擾”形式,通過社交媒體獲得的私人照片和視訊,以建立含有色情内容的深度僞造(deepfake)内容。這些照片在網上的公開傳播,對受害人的情緒和心理造成了嚴重的傷害。

這裡尤其需要重視的是,被告的産品還被用于兒童色情。例如,有一些戀童癖者使用Dall-E,以非常低的成本創造出了大量兒童性行為的圖檔和視訊,并将它們在暗網上大肆傳播。這些行為都造成了相當嚴重的後果。

此外,起訴書還指出,被告的産品,如ChatGPT等還促進了憎恨和偏見的傳播。這是因為,語言模型是基于現實的語料訓練而成的,其中就包含了大量涉及憎恨和偏見的内容。被告在訓練模型時,并沒有注意排除這些資訊,因而就導緻了模型本身存在着缺陷。

(3)幫助建構超強惡意軟體

起訴書指出,被告的産品還為惡意軟體的建立提供了強力支援。所謂惡意軟體(Malware),指的是旨在破壞或滲透計算機系統的計算機程式。過去十年中,惡意軟體變得越來越複雜,越來越難以檢測。

被告的産品可以以很低的成本生成幾乎不可檢測的惡意軟體,并且可以大規模使用,對全球的網絡安全構成前所未有的風險。盡管OpenAI方面聲稱有禁止生成多态惡意軟體的安全防護措施,但實際上惡意軟體開發人員可以通過巧妙的輸入繞過這些過濾器。據此,原告律師認為,将這種增強的破壞能力交給大衆,但又缺乏必要的安全防護措施應當被視為是被告的嚴重過失行為。

(4)自主武器

所 謂 自 主 武 器(AutonomousWeapons),也被稱為“殺戮機器人”(Slaughterbots)、“緻命自主武器系統”(lethalautonomousweaponssystems),或“殺手機器人”(killerrobots),它利用AI識别、選擇,并在無需幹預的情況下以殺死人類為目标,進而對國際安全和人權構成了嚴重的威脅。

起訴書指出,目前這種未受監管的AI風險已經不再遙不可及,而是正在成為一種現實的風險,例如它曾差一點就刺殺了一名外國元首(注:起訴書沒有對這起事件進行說明。筆者猜測,它指的應該是委内瑞拉總統尼古拉斯·馬杜羅在演講時遭遇無人機攻擊一事)。而要建造和使用這樣的殺人武器,其成本和難度都非常低。

專家警告稱,由于在不斷提升人工智能能力的同時,缺乏足夠的道德和倫理規範,是以類似技術的進展将加速自主武器的發展,而對這些産品的大規模商業化則會加速風險的傳播和擴散。

被告對原告财産權和隐私權的侵犯

在列舉了被告的産品可能造成的各種重大風險之後,起訴書着重對被告侵犯隐私權和财産權的問題進行了陳述。

(1)被告的爬取資料應當被視為盜竊

起訴書認為,被告在未經同意的前提下,秘密對網際網路進行的大規模抓取本質上是一種盜竊和挪用行為。

為了對被告的行為性質進行說明,原告律師将其和2020年的ClearviewAI事件進行了類比。ClearviewAI是一家人臉識别公司,為了開發其産品,在未征得使用者同意的情況下,從各種網站和社交媒體平台上抓取了數十億張公開的照片。在其行為被《紐約時報》公開後,立即引發了公衆的不安。2020年3月,伊利諾伊州的美國公民自由聯盟,以及佛蒙特州的檢察官幾乎在同時對ClearviewAI提起了訴訟。英國、意大利、澳洲等國的監管部門也陸續對ClearviewAI展開了調查,并先後對其作出了數額不等的罰款。

原告律師認為,現在OpenAI的違規資料搜集行為在性質上是和ClearviewAI十分類似的,因而也應該被視為非法。

(2)被告行為對原告财産權益的侵犯

起訴書指出,在過去的案例當中,法院已經确立了網際網路使用者對其個人資訊和資料擁有财産權益的原則,是以,OpenAI的非法抓取資料行為首先就對原告的财産權益構成了侵犯。在資料市場上,一個網際網路使用者的資訊價值在15美元到40美元之間,甚至更多。另外有調查表明,一個人的線上身份在暗網上可以以1200美元的價格出售。如果按照此估價,OpenAI非法侵犯的财産價值将是十分驚人的。

(3)被告行為對原告隐私權益的侵犯

除了财産權利之外,網際網路使用者對個人資訊擁有隐私權利,即使這些資訊已經釋出在網絡上。是以,被告的非法爬取行為也對原告的隐私權益構成了侵犯。

起訴書指出,通過對資料進行聚合和分析可以揭示個人不願被公開的資訊。比如,通過個人公開的推文,可以分析出他的心理健康狀況。是以,即使隻有少量的“公開”私人資訊,也足以損害網際網路使用者的隐私權益。除此之外,起訴書還指出,使用者在網上發表言論時通常會預期這些内容不會被太多人看到,并且随着時間的流逝其影響還會日漸消退。但被告的行為卻打破了使用者的這種預期,進而對他們的利益造成了侵犯。

(4)被告商業行為對理性人的冒犯及對監管機構警告的無視

起訴書指出,現在的公衆對被告如何使用和可能濫用他們的個人資訊感到恐懼和焦慮。人們擔心自己的個人資訊會被永遠嵌入到被告的産品當中,進而被反複通路、共享和濫用。

此外,起訴書還指出,現在的監管機構已經對類似的非法行為進行了警告,例如聯邦貿易委員會就曾在一起針對亞馬遜的案件中提到:“機器學習不是違法的借口……用來改進算法的資料必須合法收集和保留。公司最好汲取這一教訓。”然而,被告顯然并沒有對這個警告引起充分的重視。

(5)被告在超出合理同意的情況下竊取使用者資料

除了直接在網絡上抓取資訊外,被告還對使用者使用ChatGPT等産品的過程中産生的資料進行搜集。在起訴書中,将其稱為第二類盜竊行為。具體來說,這有兩種表現:一方面,對于那些使用ChatGPT插件或API的消費者來說,各個網站并沒有提供任何知情同意資訊,消費者的資訊和個人資料在這種情況下被違規搜集并被用于了訓練被告的大模型。另一方面,即使是那些注冊了OpenAI賬戶,并與ChatGPT直接互動的人在其資料被搜集之前,也沒有得到告知。

除此之外,被告還告知使用者可以要求不使用他們的私人資訊,但實際上,他們并無法從語言模型的知識庫中删除已收集的資料。同時,被告也無法向使用者提供資料使用的狀況,因而其行為嚴重違反了透明度原則。

被告對兒童權益的侵犯

在陳述了被告對原告造成的财産權侵害和隐私權侵害之後,起訴書還着重強調了其對兒童的隐私和風險帶來的危害。具體來說,這包含如下幾個方面:

一是在未經同意的情況下對兒童進行欺騙性的追蹤。起訴書指出,被告違規搜集了大量關于兒童的敏感資訊,包括身份、位置、興趣和關系等。

二是OpenAI在服務條款和隐私政策中明确指出ChatGPT的使用對象是十三歲及以上的個人,但在現實中,平台并沒有設定驗證機制,未成年使用者可以很容易通過虛報年齡來獲得使用資格。而被告的這個疏漏,會把這些未成年使用者置于有害資訊的曝露之下。

三是被告對兒童使用者的經濟價值進行了剝奪。起訴書指出,相比于成人,兒童更容易在誘導之下出賣自己和其他人的各種資訊,這使得被告可以通過兒童獲得更高價值的資料,并将其用于營利用途。

四是被告侵犯了合理的隐私預期,并具有冒犯性。起訴書指出,家長撫養和監護子女的權利是基本的自由權益。是以,被告在兒童隐私問題上存在的問題其實也是侵犯了家長對于隐私保護的合理預期,這不僅違法,也嚴重沖擊社會規範和道德。

相關的指控和法律救濟

基于以上的相關事實,原告律師認為,被告OpenAI和微軟涉嫌違反了包括《電子通信隐私法》、《計算機欺詐和濫用法》在内的多項法律,因而對其提起了十五項指控。

同時,原告向法院提出了自己的法律救濟方案。該方案包括:請求法院釋出禁止令,讓被告臨時當機對産品的商業通路和商業開發,直到完成一系列整改,并符合法院要求為止。同時,起訴書中還要求被告對原告進行賠償——包括由審判确定的實際賠償,三倍的懲罰性損害賠償,以及法律允許的示範性賠償。盡管在起訴書中,并沒有給出大緻的賠償金額,但如果相關指控得到了法院的支援,那麼這個數額應該會是一個不小的數字。

訴訟的前景和意義

實事求是地說,雖然這份起訴書中提出的指控非常嚴重,但原告想要據此成功告倒OpenAI和微軟并不是那麼容易的。畢竟,作為被告的微軟擁有強大的法律團隊,還有雄厚的财力支援。即使真的能夠成功,恐怕也要經曆一場曠日持久的訴訟。事實上,根據慣例,這個案件最有可能的終結方式就是原被告雙方達成和解,OpenAI和微軟接受原告的部分訴求,并給予一筆數額不算太大的賠償了事。也就是說,盡管案件的雷聲很大,但最後的結果可能隻是幾點小雨而已。

不過,雖然乏味的結局大機率已經注定,但在此時此刻,這個案件本身依然是非常有意義的。從去年開始,生成式AI迎來了爆發。和過去的技術熱潮不同,引領這場爆發的并不是谷歌、臉書這樣的傳統巨頭,而是OpenAI這樣一家規模并不算大的創業公司。強大的技術、勵志的公司形象設定,很容易讓人忘記它正在推廣的産品背後所蘊含的風險。随着生成式AI模型的迅速普及,相關風險已經越來越難以忽視,因而在這個時間點上,通過一場這樣的訴訟把問題挑明,讓更多的人認識到AI發展背後的風險,就是非常有價值的。

應當承認,原告律師在起訴書當中提出的問題大部分是存在的,不過,對于其提出的法律救濟方案,我個人認為存在可以商榷之處。

在現階段,各類AI模型已經被廣泛使用,如果要像原告要求的那樣,立即停止使用這些模型,将會造成非常巨大的損失,這是不現實的。相比之下,一種更為穩妥的方式可能是在發展中逐漸加強治理。

事實上,起訴書中給出的很多問題,都可以用技術的方式來解決的,例如在注冊過程中加強驗證,就可以解決未成年人僞造年齡的問題;通過聯邦學習等方式,就可以有效緩解資料搜集帶來的隐私洩露問題;借助于區塊鍊等技術,就可以追蹤資料的流向。我想,比起一禁了之來說,如果OpenAI和微軟在通過AI獲得了巨額收入之後,将營利的一部分投入技術,用來克服先前的各種問題,讓其AI模型在發展和治理之間實作更好的平衡,可能是一個更好的解決方案。

繼續閱讀