天天看點

AI換臉騙局頻現 人工智能使用邊界在哪兒

作者:海外網

來源:中國青年報

對于濫用生成式人工智能技術的擔憂在世界範圍内都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。目前,世界各國對其風險的預判與防範均處于探索階段,有賴于法律體系的進一步完善。

10分鐘内被騙走430萬元,近期,用AI技術興風作浪的詐騙案件,引起了社會關注。

5月22日,標頭警方釋出的一起利用AI實施電信詐騙的案例沖上熱搜。福州市某科技公司法人代表郭先生在接到“好友”微信視訊電話後,考慮到關系好又是真人視訊通話,在10分鐘内直接向對方賬戶彙款430萬元。随後才意識到自己遭遇了“高端”騙局,“好友”是騙子通過AI換臉技術佯裝而成的。

關于AI技術的争論不曾停止過。此前,ChatGPT就曾因編寫假新聞而飽受诟病,而近期大量出現的AI詐騙更是令人不得不開始反思,AI生成的虛假資訊或許潛藏着巨大的社會風險。

需警惕生成式人工智能技術的濫用

英國媒體《每日郵報》曾報道,2019年3月,英國警方逮捕了一名使用AI語音模仿軟體的詐騙者。他将自己的聲音改變成當地一家能源公司老闆的聲音,以“幫助公司避免拖欠罰款”為由要求一位高管向其彙款,通過電話騙取了22萬歐元(約合人民币170萬元)。據這名高管回憶,當時他也産生了疑心,但他的确聽到了老闆的德國口音。此案被認為是全球首例人工智能詐騙案。

其實,模仿一個人的聲音乃至外貌,對AI來說并不是新鮮事。此前,“AI孫燕姿”就曾在B站等網絡平台走紅,視訊上傳者通過使用AI音色替換技術(Sovits4.0),生成了高度還原孫燕姿音色的翻唱歌曲,其中原唱為周傑倫的歌曲《發如雪》播放量已超過200萬次。近期也有媒體報道了一款網絡上的付費AI換臉軟體,其套餐價格從499元到2888元不等,肉眼來看,換臉之後的“數字人”口型、表情、微小的動作幾乎毫無破綻。

諸如此類生成式人工智能(Generative Artificial Intelligence,簡稱GAI)的大量出現很大程度上得益于深度合成和機器學習的快速發展。而AI詐騙者正是通過這些先進的技術,訓練出能夠模拟人類語言和神态的AI。

蘇州大學競争政策與反壟斷研究中心研究員方翔指出,近期的AI詐騙案件主要是人工智能技術在圖像領域的應用,其可以将不同人臉圖像中的面部特征互相替換。“拟聲”則是借助深度學習模型,根據已有的語音樣本(如通話錄音、網絡視訊等)生成與其近似的聲音,進而做到與人交談。

5月24日,中國網際網路協會發文提醒,伴随着深度合成技術的開放開源,深度合成産品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視訊,進行詐騙、诽謗的違法行為屢見不鮮。面對利用AI技術的新型騙局,廣大公衆需提高警惕,加強防範。業内人士普遍認為,“AI換臉”技術的濫用給人們敲響了警鐘,其複雜性、隐蔽性也給科技識别及運用提出了更高的要求。

“對于生成式人工智能,正當适度使用,可以倍增工作效率,有力推動創意産業發展,促進消費者福祉增長。但同時,虛假使用可引發謠言泛濫、侵害權利、壓榨利益,而過度使用可引發踐踏人性、減少就業、貧富懸殊,而惡意濫用甚至成為歪曲真相、撕裂社會、政策幹擾、禍亂宇内的罪惡之源。”中國網際網路協會法工委副秘書長胡鋼認為,要堅持依法崇德治理,使全社會形成法網大于網際網路、國法高于算法、人工智能不能成為“人工制人”的共識。

探索建構完善的人工智能法律體系

“大陸針對人工智能及資料安全、個人資訊保護的立法雖然起步較晚,但日臻成熟。”方翔指出,早在2017年7月,國務院印發《新一代人工智能發展規劃》,其作為大陸AI發展的綱領性檔案,提出了面向2030年大陸新一代人工智能發展的指導思想、戰略目标、重點任務和保障措施,其中特别提到“到2025年初步建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力”。

2022年12月,國家網信辦、工信部、公安部聯合釋出《網際網路資訊服務深度合成管理規定》,強調不得利用深度合成服務從事法律、行政法規禁止的活動,要求深度合成服務提供者對使用其服務生成或編輯的資訊内容,應當添加不影響使用的辨別。提供智能對話、合成人聲、人臉生成、沉浸式拟真場景等生成或者顯著改變資訊内容功能服務的,可能導緻公衆混淆或者誤認的,應當進行顯著辨別。

2023年4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》并向社會公開征求意見,提出AI内容必須真實準确,禁止非法擷取、披露、利用個人資訊和隐私、商業秘密。

“總的來看,建構完善的人工智能法律體系,大陸目前仍在探索階段。”方翔說。中國資訊通信研究院雲計算與大資料研究所所長何寶宏則指出,2022年12月釋出的《網際網路資訊服務深度合成管理規定》明确針對在中國境内應用深度合成技術提供的網際網路資訊服務進行規制,其中,深度合成技術是指利用深度學習、虛拟現實等生成合成類算法制作文本、圖像、音頻、視訊、虛拟場景等網絡資訊的技術。“在上述法律法規的具體落實過程中,存在兩方面的挑戰。”

“一是防範深度合成技術應用生成錯誤價值導向、虛假資訊的能力需要進一步提升。《網際網路資訊服務深度合成管理規定》要求深度合成服務提供者對輸入資料和合成結果進行稽核、建立健全識别違法和不良資訊的特征庫、依法處置違法和不良資訊的生成合成資訊内容。但是,對于深度合成服務提供者如何落實内容管理需要進一步細化,提供者需要不斷提升技管結合的能力;對于内容管理落實的具體效果,也有待進行持續性的跟蹤檢驗。”其次,何寶宏指出,對深度合成資訊内容增加辨別的具體規範也需要進一步細化,檔案中明确深度合成服務提供者提供深度合成服務,可能導緻公衆混淆或者誤認的,應當在生成或者編輯的資訊内容的合理位置、區域進行顯著辨別。“但對于如何增加顯著辨別以及增加辨別的具體方式需要盡快出台細化的要求規範。”

超越一般技術的“破壞性”引發擔憂

對于濫用生成式人工智能技術的擔憂在世界範圍内都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。

從OpenAI去年11月推出ChatGPT,到今年3月其疊代品GPT-4面世,僅用了幾個月的時間。GPT-4不僅知識面更廣、回答問題更流暢,還可以描述并了解圖檔,甚至具備一定自我反思的能力。

OpenAI的首席執行官Sam Altman接受采訪時就曾表示,擔心這些模型可能被用于大規模的虛假資訊,也擔心人類被控制。“ChatGPT是一個高度受人類控制的工具。但也許會有人放棄設定我們目前已有的一些安全限制。”他補充,“我認為,社會隻有有限的時間來弄清楚如何對此做出反應,如何監管,如何處理它。”

今年3月,美國特斯拉汽車公司首席執行官埃隆·馬斯克曾聯合1000多名業界、學界人士發表公開信,呼籲所有AI實驗室立即暫停訓練比ChatGPT更強大的AI系統,暫停至少6個月。其信中提到,在開發強大的AI系統之前,要确信這些系統的影響是積極的,風險是可控的。

同時公開報道顯示,今年3月31日,意大利個人資料保護局宣布即日起暫時禁止使用ChatGPT,并暫時限制OpenAI處理意大利使用者資料。意大利成為首個禁止ChatGPT的西方國家,歐盟的多個國家也開始跟進,醞釀具體監管措施。

各國政府都在加快出台人工智能監管法律。據路透社報道,英國競争和市場管理局正在審查人工智能對消費者、企業和經濟的影響,考慮是否需要新的監管措施。法國隐私監管機構正在調查與ChatGPT有關的幾起投訴。澳洲政府正在咨詢科學咨詢機構,來考慮下一步的監管行動。歐洲資料保護委員會已成立ChatGPT特别工作組;歐盟消費者組織則呼籲歐盟消費者保護機構調查ChatGPT技術及對消費者的潛在危害。

“鑒于人工智能的技術複雜性,世界各國對其風險治理均處于探索階段,對其限制和監管仍有賴于法律體系的完善。”方翔介紹,歐盟目前正在推進全球首部人工智能法案。2023年4月,歐洲議會成員就《人工智能法(The AI Act)》提案達成臨時政治協定,強化對生成式人工智能的監管,并将人工智能技術可能帶來的風險細化為極小風險、有限風險、高風險、不可接受風險4個等級。“這一立法動向值得大陸關注。”方翔告訴記者。

(中青報·中青網記者 李若一 王林 見習記者 裴思童)

繼續閱讀