天天看點

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

作者:PConline太平洋科技
AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

香港警方披露了一起多人“AI 換臉”詐騙案,涉案金額高達 2 億港币;來自陝西西安的财務人員張女士在與“AI 換臉”的老闆視訊通話後,轉出 186 萬,最終追回 156 萬;央視 3.15 欄目記者調查發現,一位女士接到了女兒被綁架的電話,對方開口就要敲詐 80 萬元,但女兒的哭聲是犯罪分子用 AI 拟聲技術僞造的。…… ……

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

在很多人還沒有在工作、學習、生活中用到 AI 時,AI 已經在騙我們的錢了。但如今的 AI 遠稱不上“無敵”我們還是有很多方法來避免被 AI 欺騙的。

·日常生活:安全防護更進一步

雖然形式不同,但 AI 詐騙和其他詐騙還是有共同點的:搜集你的資訊,然後加以分析利用。是以做好日常資訊安全保護是非常重要的,AI 時代,對人臉、聲紋、指紋等生物特征資料的安全要求更高了,雖然我們日常手機、電腦解鎖,支付寶、微信付款等場景一般來說是安全的,但一些來路不明的網站、app,還是要注意它收集你的生物特征資訊的。

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

另外,在我們釋出個人照片到微網誌、小紅書等開放平台時,一定記得删除照片裡的個人資訊,不要上傳原圖。不少手機都擁有隐私保護的功能,在發送照片前記得開啟。

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

另外,當新安裝 app 出現彈窗時,也記得仔細看清楚了再點選,以防洩漏你的個人資訊,這些資訊與你的形象結合起來,就可能會成為 AI 換臉詐騙的工具。

·詐騙進行時,别慌,這樣做

如果你遇到了朋友借錢,但心是 AI 詐騙,那也隻需幾步就能判斷。在判斷 AI 之前,先搞清楚 AI 是如何騙人的:首先,AI 會利用深度學習學習視訊、照片中的人像,提取眼睛、鼻子、嘴巴等面部特征;接下來,犯罪分子會将這這些特征與人臉比對、替換、融合;最後,再通過背景渲染,添加合成聲音,做成逼真的換臉視訊。是以應對騙局,我們就可以讓對方用手遮擋面部,左右晃動,如果是 AI 的話,它很難做出這樣的動作。因為手指會對面部資料造成幹擾,僞造的臉會出現抖動或者閃現,不少專家也提到可以讓對方用手戳鼻子,道理是差不多的。

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

另外,你也可以詢問對方一些隻有你們兩個人知道的資訊,哪怕是假的也沒關系,目的就是讓對方在溝通時漏出馬腳,友善你進行判斷。甚至,你可以讓對方做指定動作,至少如今的 AI 換臉,還沒辦法做出幅度太大的動作,如果金額巨大,最好讓對方當面确認,或者讓他做出大幅度的動作。畢竟現在視訊上眼見也不一定為實。

·我被騙了!不急,還有辦法

2023 年 8 月 15 日,大陸正式施行《生成式人工智能服務管理暫行辦法》。《辦法》從多個方面“劃下紅線”,旨在促進生成式人工智能健康發展和規範應用。而從 2019 年開始,反電信網絡詐騙專用電話,96110 就專門用于對我們的預警勸導和防範宣傳工作了。

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

如果你在和親朋好友視訊、電話時,看到了 96110 的來電,一定要第一時間接聽,它會告訴你可能正處于被詐騙的情況中。如果你沒有接聽到 96110 的電話,或者在轉出錢财後才恍然大悟,也可以第一時間保留證據,立即撥打 96110 報警。AI 詐騙花樣繁多,我們要提高防範意識,不要過度公開個人照片、視訊資訊,也要多和家人溝通,讓他們盡快意識到 AI 詐騙的問題,今天分享給大家的隻是 AI 防騙的一小部分知識,我們要用好 AI,也要防好 AI。

AI 又雙叒騙人?不慌,3步教你拒絕AI詐騙

END

AI防騙·PC大支招🚨AI呀!一不小心就被騙了?!

🔥AI騙局日益猖獗,你竟然還毫無警覺?

🤔你的防騙能力究竟如何?

👇猛戳底部“”,看你能否識破AI的狡詐陷阱?

防騙技巧!