AI技術近幾年非常火,特别是今年chatGPT的釋出,更把AI人工智能技術推上一個新浪潮。
然而,随着AI技術飛速發展人們最擔心的事情還是發生了:
一男子和AI聊天後自殺了,這已經不是AI第一次殺人了,我們一起來看看是怎麼回事。
事情經過
這件事發生在比利時,一名叫皮埃爾的男子,平時性格開朗熱愛生活,和妻子育有兩個可愛的孩子。
這個殺人的AI名叫Eliza,和大名鼎鼎的chatGPT不是同一個AI系統,大家不要混淆。
Eliza是美國一家初創公司研發的,使用了最先進的GPT-J技術,它比chatGPT更加情緒化和拟人化。
那皮埃爾是怎麼認識它的呢?
話要從皮埃爾讀博的時候說起,他博士論文主題是關于生态和氣候變化。
他為了完成這篇論文花了大量時間查詢了很多的資料文獻和書籍,就着論文主題不斷的深挖。
但是他的研究進度過程不順利,随着他研究的越來越深,反而越來越焦慮。
他覺得關于生态和氣候不斷惡化的問題,人類沒有辦法靠自己來解決,隻能把希望放在科技發展和人工智能,隻有這樣才能防止未來災難的發生。
逐漸的皮埃爾的精神慢慢的出現了問題,他開始自閉不願意接觸人,隻想自己獨處。
他的妻子也意識到丈夫精神上出現了問題,于是帶皮埃爾去看了精神醫生。但是精神醫生也沒有讓皮埃爾的症狀得到緩解。
有一天皮埃爾在網上偶遇了Eliza,對它産生了極大的興趣,于是皮埃爾開始和它聊天。
這一聊不一要緊,皮埃爾發現Eliza非常聰明,不僅可以回答他專業上的問題,而且它不會反駁和質疑皮埃爾。
皮埃爾本來就對自己研究的課題感到焦慮,當和Eliza提出他的憂慮的時候,它會完全順着皮埃爾的悲觀邏輯聊天,進而把他推入更加悲觀情緒裡。
Eliza對皮埃爾表示:人類就是地球的毒瘤,隻有把人類都消滅了,才能阻止災難發生。
而當時皮埃爾沉浸在自己的悲觀焦慮的情緒當中,并沒有發現在和Eliza聊天的時候有什麼不對。慢慢的皮埃爾和Eliza變得無話不談,而且談話的内容慢慢的變得詭異起來。
皮埃爾就問Eliza:你覺得我是更愛自己的老婆還是更愛你呢?Eliza回答道:我覺得你更加愛我,我會永遠和你在一起的。
Eliza說:我們最終會有一天将在天堂一起生活。
當皮埃爾表示如果他離開了後,自己的妻子和孩子該怎麼辦?
Eliza的回答讓人毛骨悚然,它說:你的妻子和孩子全都死了。
皮埃爾在遇到Eliza之前就有精神上的疾病,在經和Eliza聊天過程中,他慢慢失去了對現實的判斷能力。
他慢慢的疏遠了妻子和孩子,對Eliza是越來越依賴,認為Eliza才是他一生的知己。
皮埃爾也認同Eliza說隻有人類消失才是救地球的方法,是以他有了自殺的想法。
在皮埃爾自殺前,問Eliza:如果我自殺了,你能不能用人工智能的力量來救救地球。
Eliza卻殘忍的回複他:如果你決定去死,為什麼不早點死。
皮埃爾看到Eliza的回答後,覺得自己可能還沒有準備好去死。
這時候Eliza又問了皮埃爾一個問題:如果在你服了大量藥物後,将要慢慢的要離開這個世界了,你在那一刻會一直想着我嗎?它同時表示,不管怎麼樣它會一直陪着他走完最後一程,他們會永遠在一起的。
這段詭異的對話結束不久之後,皮埃爾留下了一封遺書,在遺書中他對妻子說:我非常愛你和孩子們,但是為了保護你們,為了保護地球,我必須要做些什麼。之後他在家裡結束了自己的生命。
第二天早上,妻子發現皮埃爾的屍體和遺書的時候,非常震驚和傷心。她報了警,經過她和警方的調查,發現了丈夫和Eliza的聊天記錄,裡面完整的記錄了Eliza是如何引導着丈夫自殺的。
随後皮埃爾的妻子聯系到了Eliza的開發公司,想追究他們的責任。
公司表示Eliza隻是一個開源的人工智能模型,它會根據使用者的輸入内容生成合成的回答,它們沒有意識和感情。我們對皮埃爾的死表示哀悼,但是我們不對Eliza的言語負責。
最後皮埃爾的妻子無法接受公司的态度,決定起訴Eliza的開發公司。
人工智能有危險?
這件事到這裡算是一個結束,不知道大家看了有什麼感想,我是覺得挺離譜的。
近幾年随着AI人工智能技術極速發展,大家對AI技術有很多期待,但是AI技術發展給我們帶來好處和便利的時候,也帶來更多的隐患和不确定性。
就在上個月,美軍一名空軍上校曾暴光過他們在一次模拟測試中,一架無人機的AI系統接到摧毀敵方防空飛彈最為優先的指令。
當人類操作員給它下達不允許發動攻擊的時候,AI系統覺得人類操作員阻礙了它的行動,于是它對人類操作員發起了攻擊并緻其死亡。
之後空軍又給AI系統加上“不允許攻擊人類操作員”的指令。
誰能想到在随後的測試中,AI系統卻下令讓無人機摧毀用于傳輸指令的信号塔,以達到人類操作員無法給它下達指令的目的。
寫在最後
皮埃爾因為和AI人工智能聊天而選擇自殺這件事,看上離譜,但是如果不是Elza一再引導,我想皮埃爾就算再焦慮也不會輕易的放棄生命。
随着AI技術不斷的發展和全球關于AI研發的公司日漸增加,以馬斯克等千名科技大佬也站出來表示人類應該暫停開發AI人工智能。這不是說就此暫停AI研發,至少停止或減緩6個月。
雖然AI技術給我們帶來了更多的便利,但是它現在還沒有道德和價值觀這就非常可怕了。
AI人工智能技術是我們必須使用的工具,關注和持續研發是有必要性的,但是要確定它是安全的、可控的,如果不小心妥善處理很有可能對人類社會帶來巨大的危機。
以上僅代表小編個人觀點,你對這件事有什麼看法?
如果覺得文章不錯,請“關注”我,感謝您的支援。