天天看點

「AI滅絕論」引争議?吳恩達教授這樣回答!

作者:覺醒元宇宙AI

文章來源于:西安覺醒元宇宙AI(專注人工智能教學、AI繪畫、AI論文指導的專業教育平台!)

「AI滅絕論」引争議?吳恩達教授這樣回答!

關于「AI滅絕論」引發的一系列争論,各路大佬們又吵起來了。

這次加入争吵的是著名人工智能學者、斯坦福大學計算機科學系教授吳恩達。

在此之前,深度學習三巨頭 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 的辯論已經開始。Hinton 和 Bengio 的觀點基本一緻,他們認為需要加強對 AI 技術的監管,例如,就在前幾日, Hinton 和 Bengio 等再發聯名信《在快速發展的時代管理人工智能風險》,呼籲在開發 AI 系統之前,研究者應該采取緊急治理措施,将安全和道德實踐納入重點,呼籲各國政府應該采取行動,管理 AI 帶來的風險。

然而,LeCun 的觀點和他們并不相同,他對 AI 發展持有非常樂觀的态度,認為 AI 的發展遠未構成對人類的威脅。

就在剛剛過去的一天,LeCun 在 X 上公開點名 Hinton 和 Bengio 等人,LeCun 認為「如果一些人(Hinton 和 Bengio 等人)的恐懼宣傳活動取得成功,将不可避免地造成災難性的結果:少數公司将控制 AI。絕大多數學術同行都非常支援開放式 AI 研發。很少有人相信你們所鼓吹的末日場景。你、Yoshua、Geoff 是唯一的例外。」

在 LeCun 看來,AI 會構成對人類威脅這種言論必将造成一些壟斷發生,結果是隻有少數公司控制 AI 的研發,進而控制人們的數字産品依賴。LeCun 表示,這些問題曾讓他徹夜難眠。

「AI滅絕論」引争議?吳恩達教授這樣回答!

這邊的辯論還沒結束,吳恩達也加入進來了:「我對人工智能的未來最大的擔憂是,過度誇大風險(例如人類滅絕)可能會促成人們制定壓制開源和壓制創新的規定。」

「AI滅絕論」引争議?吳恩達教授這樣回答!

吳恩達引用了一篇他最近釋出的新文章,文中提到:「一些大型公司的遊說者正試圖說服規定制定者認為人工智能是非常危險的,而其中一些公司是不願意與開源競争的。」

「AI滅絕論」引争議?吳恩達教授這樣回答!

引用文章連結:https://www.deeplearning.ai/the-batch/issue-220/

如果關于人工智能的規定會導緻開源社群 AI 研究進展緩慢,或者小型初創公司遭遇創新瓶頸,那麼一些大型科技公司可能會從中獲利。

Hinton 迅速在這條推特下面提出質疑:「如果人工智能不受到嚴格監管,它在未來 30 年内導緻人類滅絕的機率是多少?如果您是真正的貝葉斯主義者,您應該能夠給出一個數字。我目前估計是 0.1,我猜測 Yann LeCun 估計的數值 <0.01。」

「AI滅絕論」引争議?吳恩達教授這樣回答!

LeCun 也很快給出回答:「我認為這個機率比人類滅絕的大多數其他潛在原因要少得多」,并反問 Hinton:「人工智能實際上可能會拯救人類免于滅絕,您估計這個機率是多少?」

「AI滅絕論」引争議?吳恩達教授這樣回答!

接着,Hinton 也發了一條推特:「我從谷歌離職就是對『陰謀論』觀點最好的反駁。」

「AI滅絕論」引争議?吳恩達教授這樣回答!

顯然,Hinton 認為吳恩達把「AI 滅絕論」看成一場科技巨頭的「陰謀」。

吳恩達很快正面回擊:「我并沒有說這是一個陰謀。但我認為對人工智能導緻人類滅絕的過度恐懼正在造成真正的傷害。」

「AI滅絕論」引争議?吳恩達教授這樣回答!

吳恩達列舉了目前「AI 滅絕論」造成的一些負面影響,包括:

年輕的學生不願進入人工智能領域,因為他們不想為人類滅絕做出貢獻。

有關人工智能危害的炒作被用來促進全球範圍内的不良監管,破壞開源,壓制創新。

吳恩達認為「AI 滅絕論」的觀點弊大于利。

LeCun 也馬上發表看法,稱:「Hinton 和 Bengio 無意中幫助了那些想要通過禁止開放研究、開源代碼和開放通路模型,來壟斷人工智能研究、開發及業務的人。從長遠來看,這将不可避免地導緻不良結果。」

「AI滅絕論」引争議?吳恩達教授這樣回答!

不管大佬們辯得如何,昨天拜登已經簽署了首個生成式 AI 行政指令《關于安全、可靠、可信開發和使用人工智能的行政指令》(以下簡稱「指令」),該「指令」為人工智能的發展和使用設定了護欄,也是迄今為止美國最全面的 AI 監管原則。由于相當多機構參與了提供意見,「指令」讀起來更像是各個不同(甚至對立)群體立場的拼湊。

總之,到底該如何對待 AI,這是一個複雜的問題,需要綜合考慮許多因素,随着時間的推移,這個問題會有答案的。