天天看點

過去一年美國AI詐騙增50% “連哭腔都無比真實”

作者:這是憤世嫉俗的

每經記者:鄭雨航 李孟林 蔡鼎 每經編輯:高涵,蘭素英,譚玉涵

近日,國内AI換臉新型詐騙頻發,有人10分鐘被騙430萬元,一度沖上熱搜,引發全網關注。但利用AI實施詐騙并不止發生在中國。有專家估計,在過去一年裡AI詐騙事件在美國的同比增幅超過50%。

自2022年11月ChatGPT引爆生成式AI的熱潮以來,文字、圖像、語音和視訊類的AI技術加速進化,在帶來生産力革命潛力的同時,也給了犯罪分子強大的工具。幾美元付軟體加幾秒語音就能合成以假亂真的人聲,有專家估計,過去一年,AI詐騙事件在美國的同比增幅超過50%。

除了容易上當受騙的老人群體,連有的商業精英也沒能躲過。面對此類新型詐騙該如何防範?《每日經濟新聞》記者連線倫敦大學學院計算機科學家、人工智能專家Peter Bentley教授。

“僅需5美元生成”

4月末的一天,美國一位叫詹妮弗·德斯特凡諾的女性接到一通陌生電話——“媽媽,我搞砸了!”,電話那頭傳來其正在外地備戰滑雪比賽的大女兒布裡安娜的聲音,不斷向她求救。

“聽着,你女兒在我手裡,你如果打電話報警或者告訴其他任何人,我就給她下藥,把她玩夠了就扔她去墨西哥,你永遠别想再見到她了,”一個低沉的男人聲音在電話裡威脅道,并要求詹妮弗支付100萬美元的贖金。

詹妮弗當場吓呆了,其表示拿不出100萬美元來,電話那頭的男子“大減價”到了5萬美元。挂斷電話後,詹妮弗旁邊的友人報了警,并且試圖說服她這是一個騙局,但愛女心切的母親根本聽不進去,因為“女兒”的哭泣聲實在是太真實。後來,詹妮弗已經開始和對方讨論轉錢的方式,幸虧女兒及時打來電話報平安才避免了财産損失。

“當母親的能認出自己的孩子,就算孩子和我隔着一棟樓,當她哭泣時我也知道那是我的孩子,”回憶起電話裡和女兒一模一樣的聲音,詹妮弗仍然感到驚訝。

據外媒報道,随着AI技術的發展,犯罪分子能夠僅憑一個人在社交媒體上數秒鐘的聲音素材生成遭綁架的對話片段,以此勒索錢财,成本可能僅僅需要每月5美元的AI程式使用費。

“大型語言模型可以按照任何風格編寫文本,是以如果你有一些電子郵件或社交媒體交流的樣本,現在很容易讓AI用來學習并假裝成你本人。經過示例訓練後,生成式AI算法還可以輕而易舉得生成以假亂真的音視訊。随着越來越多的應用程式具備這些功能,它變得越來越容易獲得,”倫敦大學學院計算機科學家、人工智能專家Peter Bentley教授對《每日經濟新聞》表示,“除非我們能提醒每個人更多地意識到危險,否則代價可能是巨大的。”

美國聯邦貿易委員會(FTC)5月釋出警告,稱不法分子正在利用AI語音技術僞造緊急情況騙取錢财或資訊,在新冠疫情期間,此類騙局暴漲了70%。美國紐約州國際詐騙問題專家Michael Skiba5月對媒體估計,過去一年裡,美國AI詐騙的案件數量同比已經上漲了50%到75%之間。

雖利用AI技術詐騙造成的損失沒有單獨統計,但美國聯邦調查局3月公布的年度報告顯示,2022年美國網絡詐騙造成的損失達103億美元,創下五年來新高,并指出面向老年人的AI語音騙局是重災區。

AI合成技術的成熟,在國内爆火的AI孫燕姿翻唱視訊得到淋漓盡緻的展示。無限逼近真實的AI人聲,意味着不隻是家庭主婦或者爺爺奶奶輩才會被騙,就連商業精英也難以分辨。

據Gizmodo報道,英國一名能源公司的CEO的聲音被騙子用AI技術合成,随後騙子利用合成聲音指導電話轉賬,騙取了22萬英鎊到自己的匈牙利賬戶。該CEO表示,他後來自己聽到這段AI合成語音時都震驚了,因為這段語音不僅能模仿他平時的語調,甚至連他“微妙的德國口音”特征也模仿到了。

大衆該如何防範?

自ChatGPT引爆生成式AI的熱潮,科技巨頭和創業公司争先恐後地推出和更新AI産品。技術加速疊代,應用越來越便宜,而監管手段和力度一時難以應付,AI詐騙構成了迫切的挑戰。

2023年初,微軟推出的新模型VALL·E隻需要3秒素材,就可以複制任何人的聲音,甚至連環境背景音都能模仿 。ElevenLabs、Murf、Resemble 和Speechify等公司早已提供生成AI語音的服務,包月費用最低從幾美元到100美元的進階套餐不等。

美國加州大學伯克利分校的數字驗證學教授法裡德(Hany Farid)表示,一兩年前克隆一個人的聲音還需要大量的音頻資料,現在僅需要短視訊裡的人聲,AI軟體就可以分析年齡、性别、口音等特質,然後搜尋龐大的聲音資料庫,找到類似的聲音并預測模式,進而重建個人的整體類似聲音。“這很可怕,具備釀成大禍的所有條件,”他表示。

據外媒報道,詹妮弗也懷疑詐騙者是通過她女兒的社交賬号擷取的音頻,她表示,布裡安娜有一個私人TikTok賬号和一個公開的Instagram賬号,裡面包含她滑雪比賽的照片和視訊。

如果AI語音加上同樣成熟的“換臉”技術,“眼見為實”也很容易成為過去式。“目前的AI音視訊詐騙,如果你非常仔細地看和聽,就可能會在發現一些奇怪的‘錯誤’或聲調,”Peter Bentley教授表示,“但不幸的是,許多人在使用手機通話時使用了音頻過濾器來減少噪音,這讓真實的人可能聽起來像假的,而假的人可能聽起來卻像真的,是以我們目前已經不能再假設我們在螢幕上看到或聽到的任何東西都是真實的了。”

普通人如何防範被騙?Peter Bentley教授表示,目前還沒有百分百能夠識别AI生成和真實之間差別的方法。

“是以最好的建議是:保持懷疑,仔細檢查任何向你要錢或個人資訊的人,即使‘他’看起來是一個值得信賴的朋友或家人。一定要給他們回電話,最好是視訊,或者最好是親自見他們,看看請求是否真實。如果你需要朋友幫忙,那就親自去找他們談談。不管怎樣,這才是恰當的做法!”Peter Bentley教授表示。

每日經濟新聞

繼續閱讀