天天看點

科技巨頭承諾防止AI幹擾全球選舉 人工智能引發倫理風險該如何應對?|科技觀察

科技巨頭承諾防止AI幹擾全球選舉 人工智能引發倫理風險該如何應對?|科技觀察

封面新聞記者 邊雪 馬曉玉

在橫空出世的Sora還在用60秒的AI視訊震驚世人眼球時,科技圈已經開始警惕起來了。

當地時間2月16日,包括Adobe、Amazon、AnthroPIC、Google、Meta、Microsoft、OpenAI、TikTok和X在内的20家科技公司簽署了一份承諾協定,以幫助防止虛假的人工智能内容擾亂2024年的全球選舉投票。

科技巨頭承諾防止AI幹擾全球選舉 人工智能引發倫理風險該如何應對?|科技觀察

Sora生成視訊畫面。(圖源:網絡)

這份協定簽署于德國舉行的慕尼黑安全會議(MSC),其中包括兩家公司承諾在人工智能檢測工具和其他行動方面展開合作,但沒有呼籲禁止與選舉有關的人工智能内容。

Anthrophic公司周五還表示,将禁止其技術應用于政治活動或遊說。在一篇部落格文章中,該公司表示,将警告或暫停任何違反其規則的使用者。該公司制造了一個名為克勞德的聊天機器人:“它正在使用經過訓練的工具,來自動檢測和阻止甚至改變錯誤資訊的影響。”

Sora新興技術帶來的社會影響,AI治理應該采用什麼樣的态度?2月19日,西南科技大學計算機科學與技術學院楊春明副教授在接受封面新聞記者采訪時表示,智能技術發展的目标是為人類解決繁雜的體力勞動,AI技術的發展應該以人類的需求為目标。

誤導群眾 人工智能如何幹預大選?

2024年對于人工智能和政治都是具有潛在颠覆性影響的一年,特别是當人工智能與選舉重疊時,局面似乎變得更加難以預測。

據統計,今年全球5大洲将有超過70個國家和地區舉行地區、立法或總統、總理選舉,涵蓋美國、俄羅斯、歐盟、日本、印度等多個國家和地區,覆寫近42億人口。與此同時,美國中央情報局和國土安全部均釋出警告稱,俄羅斯和伊朗等對手國家正在使用生成式人工智能來攻擊美國的選舉基礎設施和流程。人工智能已經成為美國大選前最受關注的政治和社會問題之一。

“在我那個時代,如果一名警察殺死17或18人,也不會有人給予什麼關注”。2023年2月份芝加哥市四人初選前,一條關于芝加哥市長候選人保羅·瓦拉斯(Paul Vallas)的發言視訊在網絡上迅速走紅,但最後證明,該視訊是生成式人工智能的産物。雖然後面被澄清,但是它對選民心理的影響已經造成,并且難以評估。

科技巨頭承諾防止AI幹擾全球選舉 人工智能引發倫理風險該如何應對?|科技觀察

Sora生成視訊畫面。(圖源:X 賬号@Gabor Cselle)

技術所造成的網絡安全問題一直以來都是政治活動的嚴重隐患。其中最著名的就是2016年美國大選民主黨全國委員會黑客事件,該黑客事件旨在破壞希拉裡·克林頓 (Hillary Clinton) 的總統競選活動,并在選舉中制造不信任感。技術的使用自始至終都是各候選人團隊的重要工具:2016年劍橋分析公司擷取數百萬Facebook使用者的個人資料,對此展開分析并根據分析的結果為2016年泰德·克魯茲和唐納德·特朗普的總統競選活動提供政治廣告幫助。

2022年,基于大模型、大資料的生成式人工智能工具首次向公衆開放,而這之後的發展更可能使在政治活動、虛假資訊、資料安全互相作用下的政治選舉的結果失去客觀性,阿根廷是總統競選中人工智能武器化的第一個案例。

據《紐約時報》報道,2022年11月,阿根廷右翼自由主義者哈維爾·米雷 (Javier Milei)在總統競選中大量使用人工智能工具,利用X(Twitter)等平台最終以300萬票的大優勢獲勝。

深度僞造的圖像、音頻和視訊可能會促使圍繞虛假醜聞或人為故障的病毒式傳播,進一步扭曲國家在選舉期間的公民對話:通過在網絡空間中散布數百萬個文章,惡意行為者可以使用語言模型來制造政治協定的假象,或者造成人們普遍相信不誠實的選舉叙事的錯誤印象。

影響力活動可以部署量身定制的聊天機器人,根據選民特征定制互動,實時調整操縱政策以增加其說服力,可以使用人工智能工具向選舉辦公室發送一波來自虛假“選民”的欺騙性評論,正如一位在2019年使用ChatGPT的前身技術欺騙愛達荷州官員的研究人員所顯示的那樣。聊天機器人和深度僞造音頻還可能通過個性化、令人信服且可能比我們過去看到的更有效的網絡釣魚活動來加劇對選舉系統的威脅。

如何確定“AI”在選舉的“決策環”中?

未來,不同類型的人工智能工具将在選舉中留下不同的足迹,以各種方式威脅民主,如何保證選舉結果以民意而非AI幹預,成為各國重點讨論的核心問題。

2024年1月,OpenAI就曾表示,它正在努力防止旗下産品在選舉中被濫用,方法之一是禁止使用它們來建立僞裝成真人或機構的聊天機器人。最近幾周,谷歌還表示,“出于高度謹慎”,将限制其人工智能聊天機器人巴德(Bard)對某些與選舉有關的提示做出回應。而擁有Facebook和Instagram的Meta則承諾将更好地标記在其平台上生成内容,這樣選民就可以更容易地辨識哪些是真實的,哪些是假的。

實際上,美國立法者已經着手開始對人工智能技術進行立法幹預。2023 年頒布的每一項 AI 競選法案都獲得了一定程度的跨黨派支援。截至今年1月,美國已有六個州頒布了規範生成式人工智能在活動中使用的政策。

2024年年初,威斯康星州麥迪遜的州立法者提出了一項關于在選舉中使用人工智能的新要求。 一項兩黨法案試圖通過要求候選人披露競選廣告中是否使用了任何合成媒體(例如深度僞造)來解決這些問題。參議員斯普雷策表示,到目前為止,該提案尚未收到任何反對意見。他希望該法案能夠在共和黨控制的立法機構通過,并在4月2日威斯康星州總統初選之前簽署成為法律。

與此同時,老牌的社會媒體已經在加強自身資料安全問題管控。2023年11月,Meta 推出了一項政策,禁止廣告商從2024年開始使用該公司的生成式人工智能軟體在Facebook和Instagram上制作政治廣告。該政策還要求廣告商披露在建立真人或假人的圖像、視訊或音頻時使用第三方人工智能軟體的情況。廣告商還必須披露廣告中描述的事件是否是虛假的、經過篡改的或真實的但沒有“真實”圖像、視訊或音頻的。

另一方面,TikTok等較新的平台很可能會開始在政治内容中發揮更大的作用,也有部分國家政客正計劃在Twitch上進行直播活動,Twitch上還将舉辦人工智能生成的拜登總統和前總統唐納德·J·特朗普之間的辯論。

然而,即使官員們意識到人工智能帶來的新威脅,他們應對它的能力也存在脫節。根據網絡安全公司Arctic Wolf曾公布的一項調查,超過三分之一的州和地方政府上司人表示,他們的預算在某種程度上或非常不足以解決他們對即将到來的選舉的網絡問題。

人工智能公司一直處于開發這一變革性技術的前沿。如今,在世界各地都在舉行重大選舉的這一年裡,他們也在競相為人工智能的使用設定限制。

人類對AI技術的發展究竟是否可控?

在AI技術快速更新的時代,如何準确把握時代發展和社會運作特質,深刻反思并應對人工智能引發的倫理風險,做到有針對性和前瞻性地進行應對?

“利用人工智能去解決實際的問題,才能在未來是友好的。”西南科技大學計算機科學與技術學院楊春明副教授告訴封面新聞記者,智能技術發展的目标是為人類解決繁雜的體力勞動,AI技術的發展應該以人類的需求為目标。

“我們可以做一些賦能,甚至是賦予人工智能一些倫理原則,隻不過現在我仍然會感到緊張,因為到目前為止,我還想象不到更智能的事物,被一些反倒沒那麼智能事物所控制的例子。”圖靈獎得主、“深度學習之父”辛頓 (Geoffrey Hinton)認為,一旦 AI 掌握了“欺騙”技能,也就能輕易具備控制人類的能力。“超級智能控制問題非常重要。我看不出如何防止這種情況發生。我希望像你們這樣年輕且才華橫溢的研究人員,能弄清楚我們如何阻止這種通過欺騙實作控制的行為。”

“盡管生成式人工智能對傳統民法尤其是侵權法提出了新的挑戰,但是生成式人工智能引發的侵權糾紛,沒有完全超出民法典和個人資訊保護法的相關規定,現行法的規定仍然可以作為處理和解決糾紛的依據。”中國人民大學教授王利明表示,未來條件成熟時,還可以通過特别立法預防和處理生成式人工智能引發的各種風險,有效保障民事主體合法權益,促進人工智能産業的健康發展。

繼續閱讀