天天看點

AI生成的内容已經開始影響美國選舉

作者:福布斯

文/Irene Benedicto

今年早些時候,在芝加哥市長選舉前夕,網上出現了一段關于溫和派民主黨候選人保羅·瓦拉斯(Paul Vallas)的視訊。該視訊由“芝加哥湖畔新聞”(Chicago Lakefront News)釋出,似乎展示了瓦拉斯對芝加哥無法無天狀況的抨擊,并宣稱曾經有一段時間,“人們對緻命的警察槍擊事件視而不見”。

在瓦拉斯的競選團隊譴責它是由人工智能制造的假視訊之前,這段看似真實的視訊已經在網上被廣泛分享,而最初釋出這段視訊、注冊僅兩天的推特賬戶也消失了。雖然很難說它是否對瓦拉斯在與前教師和工會組織者布蘭登-約翰遜(Brandon Johnson)的競争中失利有任何影響,但這是對高風險的人工智能欺騙行為的一個較低風險的管窺,在即将到來的美國總統大選中,這可能會攪亂公共讨論。這也提出了一個關鍵問題:像Facebook和Twitter這樣的平台将如何緩解這些問題?

AI生成的内容已經開始影響美國選舉

芝加哥市長候選人保羅·瓦拉斯在今年早些時候遭遇了一則深度僞造的廣告,該廣告錯誤地描述了他在2023年該市市長競選中的政治立場。圖檔來源:GETTY IMAGES

這是一個艱巨的挑戰。由于沒有實際的法律來規範人工智能如何在政治競選中使用,平台決定了使用者将在他們的資訊流中看到哪些深度虛假資訊,而現在,大多數平台都在努力解決如何自我監管的問題。加州大學伯克利分校的電子工程和計算機科學教授哈尼·法裡德(Hany Farid)在接受《福布斯》采訪時表示:“這些都是對我們民主的威脅。我沒有看到各平台認真對待這個問題。”

目前,大多數大型社交媒體平台都沒有與人工智能生成的内容相關的具體政策,不管是政治内容還是其他内容。

Meta發言人凱文·麥卡利斯特(Kevin McAlister)在接受《福布斯》采訪時表示,在Meta的Facebook和Instagram平台上,當某段内容被标記為潛在的錯誤資訊時,第三方事實核查員會對其進行審查,并在系統的提示下将其标記為“僞造、篡改或轉換的音頻、視訊或照片”,不管這些内容是通過老派的Photoshop還是人工智能生成工具進行篡改的。

同樣,Reddit将繼續依靠其反對内容篡改的政策,這些政策适用于“虛假資訊活動、僞造檔案和旨在誤導的深度造假”。YouTube還将删除違反虛假資訊政策的選舉相關内容,該政策明确禁止通過技術操縱來誤導使用者并可能構成嚴重風險或潛在傷害的圖像。

Twitter的老闆埃隆·馬斯克(Elon Musk)在4月份更新了該公司的合成和操縱傳播内容政策,聲稱如果推文包含誤導性資訊,就“可能會”被貼上标簽,該公司還将繼續删除那些對個人或社群有害的推文。該政策指出,“通過使用人工智能算法”捏造的傳播内容将受到更嚴格的審查。

到目前為止,隻有一家大型社交媒體公司制定了旨在稽核人工智能生成内容的更全面政策,那就是TikTok。

2023年3月,TikTok宣布了一項新的“合成傳播内容政策”,要求創作者釋出由人工智能生成或修改的逼真場景時,必須明确披露這種技術的使用情況。至于選舉相關的傳播内容,将禁止所有人工智能生成的假冒公衆人物進行政治背書的圖檔。

今年4月,TikTok開始删除不遵守新規定的内容,但内容創作者在公開免責聲明方面有一定的靈活性:隻要不具有誤導性,免責聲明可以放在字幕、标題或标簽中。該平台還沒有自動封禁分享未經授權内容的賬戶,隻是給與了警告。

但是,盡管這種透明度是提醒使用者内容來源的第一步,但它可能不足以防止錯誤資訊的傳播。斯坦福網際網路觀測站的研究經理Renee DiResta說:“當然會有壞人試圖逃避任何政策或标準。”

DiResta認為,這就是為什麼保留一個誠信團隊是應對挑戰的關鍵。Twitter尤其可能在下一次選舉中遇到困難:自從埃隆·馬斯克接手以來,他已經解雇了整個處理錯誤資訊的團隊,并終止了與第三方内容稽核員的合同。

錯誤資訊的傳播長期以來一直是社交媒體平台的一大問題,1月6日對美國國會大廈的襲擊就證明了一個主要通過網絡組織的活動是如何造成緻命的現實後果的。但在2024年的美國總統大選中,競選團隊及其支援者将首次能夠使用強大的人工智能工具,這些工具可以在幾秒鐘内生成逼真的虛假内容。

“虛假資訊的問題仍在繼續。我們以生成式人工智能和深度造假的形式在這個問題上添了一把火。”

然而,專家們警告說,不要誇大人工智能生成的内容在下次選舉中可能造成的破壞性。

“如果我們給人們造成這樣一種印象,即利用深度造假的虛假資訊活動必然會成功,我們可能就會破壞人們對民主制度的信任,雖然事實并非如此。”喬治城大學安全和新興技術中心(Center for Security and Emerging Technology)賽博人工智能團隊研究員喬希·戈德斯坦(Josh Goldstein)說。

除了社交媒體,搜尋引擎也需要防範人工智能生成的内容。

谷歌已經對此進行了幹預,将被操縱的内容從知識面闆和特色片段的突出顯示結果中排除。至于谷歌廣告,被操縱的傳播内容是被禁止的,廣告商需要通過身份驗證過程,并在廣告中披露誰在為其付費。

今年5月,谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)宣布推出一款名為“關于這張圖檔”的新工具,用于披露使用者通過谷歌搜尋找到的圖檔是否是由人工智能生成的。新功能還将顯示某張圖檔和其他類似圖檔首次被索引的時間,以及它是否曾經在網上的其他地方出現,如新聞、社交媒體或事實核查網站。

皮查伊還宣布,谷歌将很快開始自動為其内部生成模型建立的圖像和視訊添加水印,這樣使用者就可以輕松識别合成内容。

谷歌并不是唯一引入這種方法的公司。水印是内容真實性倡議組織(Content Authenticity Initiative)的核心要求之一。該倡議組織是一個由200多家媒體、數字、内容和技術組織組成的聯盟,旨在推動采用内容真實性的行業标準。

除此以外,法裡德還提出了一個比那更進一步的想法,那就是強制内容創作者在内容中加入某種“營養标簽”,以披露其内容是如何建立的。例如,一個視訊标題可能會指出,附帶的視訊是用iPhone 14錄制的,并使用Adobe的人工智能圖像生成器Firefly進行過編輯。

懸而未決的問題是,科技公司是否能夠成功地進行自我監管,或者政府是否需要幹預。法裡德說:“我希望政府不需要介入,但我們仍然需要幫助。”

本文譯自https://www.forbes.com/sites/irenebenedicto/2023/07/05/ai-generated-2024-election-content-social-media/?sh=40106c5337c1

繼續閱讀