天天看點

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

作者:飛翔的冬瓜皮

導言

随着Chat-Gpt的推陳出新,今年被稱作人工智能“元年”。

一些領域已經掀起了智能化“革命”的浪潮。

詐騙、造謠。以假亂真,給受害者帶來難以磨滅的傷害。

俗話說眼見為實,耳聽為虛。

倘若眼見也非實,那還能相信什麼呢?

有人被AI詐騙,10分鐘時間騙走430萬

事情就發生在前不久,4月20日,福州某科技公司的法人郭先生突然接到好友的微信視訊。

兩人視訊通話中,郭先生的“朋友”表示,自己在外地競标,需要430萬的資金周轉。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

注意,這個騙局中,騙子有微信,有畫面,有聲音。

“一鍵三連”下,郭先生根本就未産生一絲懷疑。

在郭先生的視角中,就是一個微信通訊錄中的好友,撥打過來視訊電話,對方正是本人,聲音也是本人。

出于對朋友的信任,加之視訊中已經“核實”了身份,郭先生直接就把430萬轉過去了。

轉賬成功後,郭先生給朋友撥打電話,對方一臉懵逼,這時郭先生才發覺被騙。

AI騙局,9秒被騙走245萬元

無獨有偶,以上騙局僅過去幾天,安徽的何先生又遇到了同樣的騙局。

和郭某一樣,何先生也是接到了微信好友的“視訊電話”。

電話接通後,何某看到了視訊中的“好友本人”正在參加會議,還未進一步溝通,對方就匆匆挂斷了視訊,全程隻有9秒鐘。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

之後對方發來資訊,說開會不太友善,有重要的事情要與何先生溝通,叮囑何先生添加他的QQ。

之後就是一樣的說辭,項目需要資金周轉雲雲。

何某想着都見到“朋友本人”了。也是沒多想,大手一揮,兩百多萬轉出去了。

後來也是給朋友打電話才發現上當受騙。

人工智能的出現,給了犯罪分子可乘之機。騙子通過AI換臉和拟聲技術佯裝好友可以輕易擷取信任。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

想象一下,假如你的孩子或者夫妻,某一天突然打來電話,稱自己需要一筆資金。

你看到了他/她的臉,聽到了她的聲音,很難産生懷疑。

仿聲模拟敲詐

一個月前,美國就發生了一件類似的案件。一位母親接到電話,對方聲稱綁架了她的女兒,要求支付100萬美元的贖金。

劫匪還放出了女兒的哭訴聲音。母親聽到後當即就相信了,因為不僅聲音一樣,連女兒的哭泣方式都一樣。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

母親趕緊聯絡孩子的父親籌款,恰好女兒就在父親旁邊。這才躲過一劫。

這幾期發生在近期的案件說明。

在科技的加持下,詐騙行業先“革命”了,已經邁入了“智能化”、“定制化”的時代。

對于一些老人老說,缺乏判斷力,更加容易上當受騙。

建議家裡有老人的,先給父母打打預防針,教育訓練一把,防患于未然。

AI換臉早在前幾年就有,但前幾年還很稚嫩,一眼就能看穿。

然而這個技術在今年這個“人工智能”元年,迎來了突飛猛進的更新。

以下這個圖,你能看出來哪個是本人嚒?

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

再看看這個,你以為的聊天女網友長這樣,實際可能長這樣。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

是以,在AI面前,你還能拍着胸脯說,自己一定不會被騙嚒?

除了詐騙,AI造謠,也是需要提防的存在。

尤其是給女子造黃謠,幾乎是動動手指的事情。

女子地鐵照被AI一鍵脫衣

前端時間,一則女子的地鐵上的照片在網上廣泛傳播。

就是女子一張普通的生活照,被猥瑣之人“移花接木”。生成了一張裸照。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

這種AI技術作惡,對營運者動動手指,可對當事人造成巨大的傷害。

造謠一張嘴,辟謠跑斷腿。

換臉合成色情影片

國外一名女網紅,被其他人惡意合成色情視訊,釋出在網上傳播。

女生經常在INS上受到陌生男子辱罵。她不明是以,直至有天她收到好友發來的陌生連結,才明白這是為什麼。

她打開連結發現是一個色情網站,視訊的主人公正是自己。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

女生一度情緒崩潰,她在直播時痛哭:

“這種感覺就像遭到侵犯,被利用,看着赤身裸體的自己被肆意傳播……不該是我來花錢把這些東西移除掉,也不該是我被騷擾,看着自己的‘裸照’滿天飛……我用人格保證,我TM一定會起訴你們。”

如果說造黃謠是一些猥瑣之人的惡趣味。

那麼還有一種人,則是利用AI捏造新聞,博取眼球和流量。

AI新聞造假,全球媒體受騙

上個月,一些人應該刷到過一個新聞。

一位加拿大小哥,酷愛南韓男團,為了出道,他多次依照韓星整容。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

前後整容12次,結果第12次不幸喪命。

報道中,男子南韓經曆,整容過程應有盡有,妥妥的一個有圖有真相。

國外各大媒體都相繼播報此事,加拿大Postmedia以及南韓的YTN、Osen、star等。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

一衆吃瓜群衆紛紛惋惜,結果很快反轉來了。

有記者對加拿大小哥的身份進行了查證,這個人壓根就不存在。

網上流傳的照片都是AI合成的。調查結果讓大衆嘩然。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

這隻是憑空捏在一個不存在的人而已,

AI造謠層出不窮,險些引發社會恐慌

4月25日,平涼市警察局崆峒分局網警發現。

有多個網絡賬号陸續釋出“今晨,甘肅一火車撞上修路勞工, 緻9人死亡 ”的文章,并且有多個市州的不同版本出現,其中涉及甘肅省平涼、慶陽、隴南、酒泉等多地。

警方迅速核實,發現事件完全子虛烏有,是有人惡意造謠,博取流量。

警方當即截斷了資訊傳播鍊條,可事件标題駭人聽聞,已被轉發15000餘次。

調查發現,資訊源頭是廣東深圳的某自媒體公司的法人洪某。

洪某交代,通過朋友口中得知,Chat-Gpt可以竄改新聞時間、地點等關鍵資訊,簡單修改就能規避平台審查。

他便搜尋社會熱點事件,利用人工智能将其修改之後釋出在自媒體平台博取流量,非法牟利。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

幸好警方發現及時,在“新聞”尚未引起恐慌時就将犯人捉拿歸案。但此事也足以讓人意識到,AI造假後患無窮。

結語

倘若AI可以模糊現實與虛拟的界限,切斷人們分辨真僞的能力。那麼人類不就是利用AI給自己打造了《楚門的世界》嚒?

人人畏懼虛假的楚門世界,人人卻都成了主角。

AI絲滑換臉加變聲,你以為的聊天女網友長這樣,實際可能長這樣

人工智能将何去何從,你怎麼看?

歡迎評論區讨論。