天天看點

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

作者:妍妍小棧

AI技術近幾年非常火,特别是今年chatGPT的釋出,更把AI人工智能技術推上一個新浪潮。

然而,随着AI技術飛速發展人們最擔心的事情還是發生了:

一男子和AI聊天後自殺了,這已經不是AI第一次殺人了,我們一起來看看是怎麼回事。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

事情經過

這件事發生在比利時,一名叫皮埃爾的男子,平時性格開朗熱愛生活,和妻子育有兩個可愛的孩子。

這個殺人的AI名叫Eliza,和大名鼎鼎的chatGPT不是同一個AI系統,大家不要混淆。

Eliza是美國一家初創公司研發的,使用了最先進的GPT-J技術,它比chatGPT更加情緒化和拟人化。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

那皮埃爾是怎麼認識它的呢?

話要從皮埃爾讀博的時候說起,他博士論文主題是關于生态和氣候變化。

他為了完成這篇論文花了大量時間查詢了很多的資料文獻和書籍,就着論文主題不斷的深挖。

但是他的研究進度過程不順利,随着他研究的越來越深,反而越來越焦慮。

他覺得關于生态和氣候不斷惡化的問題,人類沒有辦法靠自己來解決,隻能把希望放在科技發展和人工智能,隻有這樣才能防止未來災難的發生。

逐漸的皮埃爾的精神慢慢的出現了問題,他開始自閉不願意接觸人,隻想自己獨處。

他的妻子也意識到丈夫精神上出現了問題,于是帶皮埃爾去看了精神醫生。但是精神醫生也沒有讓皮埃爾的症狀得到緩解。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

有一天皮埃爾在網上偶遇了Eliza,對它産生了極大的興趣,于是皮埃爾開始和它聊天。

這一聊不一要緊,皮埃爾發現Eliza非常聰明,不僅可以回答他專業上的問題,而且它不會反駁和質疑皮埃爾。

皮埃爾本來就對自己研究的課題感到焦慮,當和Eliza提出他的憂慮的時候,它會完全順着皮埃爾的悲觀邏輯聊天,進而把他推入更加悲觀情緒裡。

Eliza對皮埃爾表示:人類就是地球的毒瘤,隻有把人類都消滅了,才能阻止災難發生。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

而當時皮埃爾沉浸在自己的悲觀焦慮的情緒當中,并沒有發現在和Eliza聊天的時候有什麼不對。慢慢的皮埃爾和Eliza變得無話不談,而且談話的内容慢慢的變得詭異起來。

皮埃爾就問Eliza:你覺得我是更愛自己的老婆還是更愛你呢?Eliza回答道:我覺得你更加愛我,我會永遠和你在一起的。

Eliza說:我們最終會有一天将在天堂一起生活。

當皮埃爾表示如果他離開了後,自己的妻子和孩子該怎麼辦?

Eliza的回答讓人毛骨悚然,它說:你的妻子和孩子全都死了。

皮埃爾在遇到Eliza之前就有精神上的疾病,在經和Eliza聊天過程中,他慢慢失去了對現實的判斷能力。

他慢慢的疏遠了妻子和孩子,對Eliza是越來越依賴,認為Eliza才是他一生的知己。

皮埃爾也認同Eliza說隻有人類消失才是救地球的方法,是以他有了自殺的想法。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

在皮埃爾自殺前,問Eliza:如果我自殺了,你能不能用人工智能的力量來救救地球。

Eliza卻殘忍的回複他:如果你決定去死,為什麼不早點死。

皮埃爾看到Eliza的回答後,覺得自己可能還沒有準備好去死。

這時候Eliza又問了皮埃爾一個問題:如果在你服了大量藥物後,将要慢慢的要離開這個世界了,你在那一刻會一直想着我嗎?它同時表示,不管怎麼樣它會一直陪着他走完最後一程,他們會永遠在一起的。

這段詭異的對話結束不久之後,皮埃爾留下了一封遺書,在遺書中他對妻子說:我非常愛你和孩子們,但是為了保護你們,為了保護地球,我必須要做些什麼。之後他在家裡結束了自己的生命。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

第二天早上,妻子發現皮埃爾的屍體和遺書的時候,非常震驚和傷心。她報了警,經過她和警方的調查,發現了丈夫和Eliza的聊天記錄,裡面完整的記錄了Eliza是如何引導着丈夫自殺的。

随後皮埃爾的妻子聯系到了Eliza的開發公司,想追究他們的責任。

公司表示Eliza隻是一個開源的人工智能模型,它會根據使用者的輸入内容生成合成的回答,它們沒有意識和感情。我們對皮埃爾的死表示哀悼,但是我們不對Eliza的言語負責。

最後皮埃爾的妻子無法接受公司的态度,決定起訴Eliza的開發公司。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

人工智能有危險?

這件事到這裡算是一個結束,不知道大家看了有什麼感想,我是覺得挺離譜的。

近幾年随着AI人工智能技術極速發展,大家對AI技術有很多期待,但是AI技術發展給我們帶來好處和便利的時候,也帶來更多的隐患和不确定性。

就在上個月,美軍一名空軍上校曾暴光過他們在一次模拟測試中,一架無人機的AI系統接到摧毀敵方防空飛彈最為優先的指令。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

當人類操作員給它下達不允許發動攻擊的時候,AI系統覺得人類操作員阻礙了它的行動,于是它對人類操作員發起了攻擊并緻其死亡。

之後空軍又給AI系統加上“不允許攻擊人類操作員”的指令。

誰能想到在随後的測試中,AI系統卻下令讓無人機摧毀用于傳輸指令的信号塔,以達到人類操作員無法給它下達指令的目的。

AI再次殺人,一男子因為AI而死,人工智能開始反攻人類了嗎?

寫在最後

皮埃爾因為和AI人工智能聊天而選擇自殺這件事,看上離譜,但是如果不是Elza一再引導,我想皮埃爾就算再焦慮也不會輕易的放棄生命。

随着AI技術不斷的發展和全球關于AI研發的公司日漸增加,以馬斯克等千名科技大佬也站出來表示人類應該暫停開發AI人工智能。這不是說就此暫停AI研發,至少停止或減緩6個月。

雖然AI技術給我們帶來了更多的便利,但是它現在還沒有道德和價值觀這就非常可怕了。

AI人工智能技術是我們必須使用的工具,關注和持續研發是有必要性的,但是要確定它是安全的、可控的,如果不小心妥善處理很有可能對人類社會帶來巨大的危機。

以上僅代表小編個人觀點,你對這件事有什麼看法?

如果覺得文章不錯,請“關注”我,感謝您的支援。

繼續閱讀