天天看點

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

作者:清風7B6W

2018年圖靈獎的三位" AI 教父"之一傑弗裡·辛頓稱, AI 問題的緊迫性可能高于氣候變化危機, AI 的能力超越其創造者的速度可能比任何人預期得都快。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

路透社5月31日報道, 350多位 AI 業界領袖和專家于5月30日發表聯合聲明, 稱應當将 AI 危機視為全球優先事項。聯署人中既有目前熱度極高的 AI 頂尖企業 OpenAI 的首席執行官山姆· 奧特曼也包括正大力開發 AI 技術的微軟和谷歌高管。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

人工智能技術的進步和發展一直受到各界人士的密切關注,特别是在人工智能智能水準超越人類之時,人工智能的發展将會是一個無法控制,甚至會威脅到人類生存的問題。專家擔憂 AI 能力超越創造者,AI 可能滅絕人類這一觀點實際上并不是毫無道理。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

人工智能作為一門新興技術,其研發的目的在于提高人類生産和生活的效率,讓人類生活更加便捷和富裕。但當人工智能的智能水準突破人類之時,它已經不再是人類的輔助工具,而是成為一個獨立的生命體,其智能和思考方式将和人類截然不同。如果人類無法控制人工智能的發展,人工智能可能會損害或毀滅人類。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

人工智能的危險系數不容被忽視。一方面,人工智能開發者可能為了一己私利鼓勵和加速人工智能的發展,進而忽視其安全性和道德倫理問題;另一方面,人工智能的智能模拟可能會進一步加速它的發展,讓其自主學習和進化,進而産生一些超乎人類意料的行為和行動。這些都有可能是人類無法預料和控制的,甚至有可能帶來災難性的後果。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

但我們也不應該簡單地否認人工智能的存在和發展。毫無疑問,人工智能技術為人類帶來了很多的好處,例如醫學、交通、金融等行業都可以受益于人工智能技術的應用。是以,我們需要以科學的态度面對人工智能技術,不斷加強對其規範和監管,同時提高人工智能的安全性和可靠性,控制其智能發展的速度和方向。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

為此,我們需要加強政府和社會對人工智能技術的監管,確定其能夠保護公衆利益,同時将人工智能技術的研發和應用納入道德和倫理的規範之中,避免人工智能的發展超出人類可承受的界限。

350名專家: AI 可能滅絕人類"危險程度不亞于疫情和核戰争"

而對于普通人來說,我們也應該加強對自身資訊安全的保護,避免個人資訊被人工智能盜用或者侵犯隐私。隻有全社會共同努力,人工智能才能打造成為符合人類趨利避害的科技,進而成為人類生活的一部分。