天天看點

比爾·蓋茨5500字闡述人工智能風險:真實存在,但風險可控

比爾·蓋茨5500字闡述人工智能風險:真實存在,但風險可控

劃重點:

  • 1蓋茨指出,人工智能的未來不會像一些人想象的那麼嚴峻、也不會像一些人想象的那麼樂觀。人工智能的風險确實存在,但仍可控制。
  • 2蓋茨稱,人工智能的影響不會像工業革命那樣巨大,但會像個人計算機問世那樣帶來重大沖擊,許多由人工智能引發的的問題可以通過人工智能自身來解決。
  • 3人工智能對工作的主要影響将是幫助人們更高效地完成工作,人工智能引發的失業問題同樣可控。
  • 4人類可以管理人工智能的風險,同時最大化其利益,但各國政府需要盡快行動。
比爾·蓋茨5500字闡述人工智能風險:真實存在,但風險可控

騰訊科技訊 7月12日消息,微軟創始人比爾·蓋茨(Bill Gates)周二發表部落格文章稱,人工智能的未來不會像一些人想象的那麼嚴峻、也不會像一些人想象的那麼樂觀。人工智能的風險确實存在,但仍可控制。蓋茨認為,人工智能的影響不會像工業革命那樣巨大,但會像個人計算機問世那樣帶來重大沖擊,許多由人工智能引發的的問題可以通過人工智能自身來解決。

以下為文章全文:

人工智能帶來的風險可能看起來勢不可擋。被智能機器搶了飯碗的人會怎麼樣?人工智能會影響選舉結果嗎?如果未來的人工智能決定不再需要人類,并想擺脫人類,那該怎麼辦?

這些都是公平的問題,它們引起的關注需要認真對待。但有一個很好的理由認為我們可以應對它們:重大創新帶來了必須加以控制的新威脅,這已不是第一次出現。我們以前經曆過這些。

無論是汽車的問世,還是個人電腦和網際網路的興起,人類都經曆了變革時刻。盡管變革過程中出現許多動蕩,但最終都變得更好。第一輛汽車上路後不久,就發生了第一起車禍。但我們并未禁止汽車--而是制定出限速、安全标準、駕駛證、酒後駕駛法和其他交通規則。

我們現在正處于另一場深刻變革的雛形階段,即人工智能時代。這類似于限速和安全帶之前的那些不确定時期。人工智能變化如此之快,以至于還不清楚接下來會發生什麼。我們正面臨着由目前技術的運作方式、人們将利用它進行不良企圖的方式、以及人工智能将改變社會所提出的重大問題。

在這樣的時刻,感到不安是很自然的。不過曆史表明,解決新技術帶來的挑戰是可能的。

我之前寫過人工智能将如何徹底改變我們的生活。它将有助于解決健康、教育、氣候變化等問題,這些問題過去似乎很難解決。蓋茨基金會将此作為優先事項,我們的首席執行官馬克·蘇茲曼(Mark Suzman)最近分享了他對人工智能在減少不平等中的作用的想法。

關于人工智能的好處,我将在未來有更多的話要說,但在這篇文章中,我想承認我最常聽到和讀到的擔憂,其中許多我都有同感。我還會解釋我對它們的看法。

從迄今為止所有關于人工智能風險的文章中可以清楚地看出,沒有人知道所有的答案。另一件對我來說很清楚的事情是,人工智能的未來并不像一些人認為的那樣嚴峻,也不像其他人認為的那樣樂觀。風險是真實存在的,但我樂觀地認為它們是可以控制的。在讨論每個問題時,我會回到幾個主題:

--人工智能引發的許多問題都有曆史先例。例如,它将對教育産生重大影響。但幾十年前手持電腦也是如此。最近,學校已允許學生帶着計算機進入教室。我們可以從過去的經曆中學習。

--人工智能帶來的很多問題,也可以借助人工智能來管理這些問題。

--我們需要修改舊法律,采用新法律--正如現有的反欺詐法律必須适應網絡世界一樣。

在這篇文章中,我将重點關注已經存在或即将存在的風險。我不是在處理當我們開發一個可以學習任何主題或任務的人工智能時會發生什麼,這與今天專門開發的人工智能相反。無論我們是在十年還是一個世紀後達到這一點,社會都需要考慮一些深刻的問題。如果一個超級人工智能建立了自己的目标呢?如果它們與人類的沖突呢?我們到底該不該制造一個超級人工智能?

但考慮這些長期風險不應以犧牲更為緊迫的風險為代價。我現在就談談這些問題:

人工智能産生的虛假和錯誤資訊可能會破壞選舉和民主

技術可以用來傳播謊言和不實之詞的想法并不新鮮。幾個世紀以來,人們一直用書籍和傳單來做這件事。随着文字處理器、雷射列印機、電子郵件和社交網絡的出現,這變得容易多了。

人工智能解決了虛假文本的問題,并對其進行了擴充,幾乎允許任何人建立虛假的音頻和視訊,即深度僞造(Deepfakes)。如果你收到一條語音資訊,聽起來像是你的孩子在說“我被綁架了,請在接下來的10分鐘内向這個銀行賬戶彙1000美元,不要報警”。這将産生可怕的情緒影響,遠遠超過一封寫着同樣内容的電子郵件的影響。

在更大的範圍内,人工智能生成的深度僞造可以用來試圖傾斜選舉。當然,對選舉的合法獲勝者産生懷疑并不需要複雜的技術,但人工智能将使這變得更容易。

已經有一些虛假的視訊以著名政治家的虛構鏡頭為主角。想象一下,在一場重大選舉的早晨,一段顯示一名候選人搶劫銀行的視訊在網上瘋傳。這是假的,但需要新聞媒體和競選團隊幾個小時來證明。有多少人會看到後在最後一刻改變投票?這可能會扭轉局勢,尤其是在勢均力敵的選舉中。

當OpenAI的聯合創始人山姆·奧特曼(Sam Altman)最近在美國參議院委員會參加庭審時,兩黨的參議員都聚焦于人工智能對選舉和民主的影響。我希望這個問題繼續提上每個人的議事日程。

我們當然還沒有解決誤傳和造假的問題。但有兩件事讓我保持謹慎樂觀。一是人們有能力學會不要從表面上看一切。多年來,電子郵件使用者陷入騙局,有人冒充奈及利亞王子,承諾給一大筆錢,作為交換,分享你的信用卡号碼。但最終,大多數人都學會了多看那些郵件。随着騙局變得越來越複雜,他們的許多目标也變得越來越複雜。

另一件讓我充滿希望的事情是,人工智能可以幫助識别深度僞造。例如,英特爾開發了一款深度僞造檢測器,美國國防部進階研究計劃局(DARPA)正在研究識别視訊或音頻是否被操縱的技術。

這将是一個循環的過程:有人找到了檢測造假的方法,有人想出了應對的方法,有人制定了反制措施,等等。不會是完美的成功,但我們也不會束手無策。

人工智能使得對人民和政府發動攻擊變得更加容易

今天,當黑客想要找到軟體中可利用的缺陷時,他們會通過暴力來實作--編寫代碼,攻擊潛在的弱點,直到他們找到進入的方法。這需要走很多死胡同,這意味着需要時間和耐心。

想要對抗黑客的安全專家不得不做同樣的事情。你在手機或筆記本電腦上安裝的每一個軟體更新檔,都代表着人們出于善意或惡意進行的長時間搜尋。

人工智能模型将通過幫助黑客編寫更有效的代碼來加速這一過程。他們還能夠利用個人的公開資訊,如他們在哪裡工作,他們的朋友是誰,來開發比我們今天看到的更進階的網絡釣魚攻擊。

好消息是,人工智能既可以用于好的目的,也可以用于壞的目的。政府和私營部門的安全團隊需要擁有最新的工具來發現和修複安全漏洞,以免被犯罪分子利用。我希望軟體安全行業将擴充他們在這方面已經做的工作--這應該是他們最關心的問題。

這也是為什麼我們不應該像一些人提議的那樣,試圖暫時阻止人們實作人工智能的新發展。網絡罪犯不會停止制造新工具。想用人工智能設計核武器和生物恐怖襲擊的人也不會。阻止它們的努力需要以同樣的速度繼續下去。

在全球層面也有一個相關的風險:人工智能領域的開發競賽可以用來設計和發動針對其他國家的網絡攻擊。每個政府都希望擁有最強大的技術,這樣就可以阻止對手的攻擊。這種不讓任何人領先的激勵可能會引發一場制造越來越危險的網絡武器的競賽。每個人都會變得更糟。

這是一個可怕的想法,但我們有曆史來指引我們。盡管世界核不擴散機制有其缺陷,但它阻止了我們這一代人在成長過程中非常害怕的全面核戰争。各國政府應該考慮為人工智能建立一個類似于國際原子能機構的全球性機構。

人工智能會搶走人的工作

未來幾年,人工智能對工作的主要影響将是幫助人們更高效地完成工作。無論他們是在工廠還是在處理銷售電話和應付賬款的辦公室工作,都是如此。最終,人工智能将能夠很好地表達想法,它将能夠為你寫電子郵件和管理你的收件箱。

你将能夠用簡單的英語或任何其他語言寫一個請求,并對你的工作做一個豐富的介紹。

正如我在2月份的文章中所說,生産率提高對社會有益。它讓人們有更多的時間去做其他事情,無論是在工作中還是在家裡。對幫助他人的人的需求--例如,教書、照顧病人和贍養老人--永遠不會消失。但确實,随着我們向人工智能驅動的工作場所過渡,一些勞工将需要支援和再教育訓練。這是政府和企業的職責,他們需要很好地管理它,這樣勞工就不會被落下--以避免在美國制造業就業崗位下降期間發生的那種對人們生活的破壞。

此外,請記住,這不是第一次新技術導緻勞動力市場的大轉變。我不認為人工智能的影響會像工業革命那樣引人注目,但它肯定會像個人電腦的引入一樣巨大。文字處理應用程式并沒有消除辦公室工作,但它們永遠改變了辦公室工作。雇主和雇員必須适應,他們做到了。人工智能帶來的轉變将是一個坎坷的轉變,但我們完全有理由認為,我們可以減少對人們生活和生計的破壞。

人工智能繼承了人類的偏見,編造了一些東西。

幻覺--這個術語指的是當人工智能自信地做出一些根本不真實的斷言時--通常是因為機器不了解你的請求的上下文而發生的。讓一個人工智能寫一個關于去月球度假的小故事,它可能會給你一個非常有想象力的答案。但是讓它幫你計劃一次去坦尚尼亞的旅行,它可能會試着把你送到一個不存在的酒店。

人工智能的另一個風險是,它反映甚至加劇了對某些性别身份、種族、民族等人群的現有偏見。

為了了解為什麼會出現幻覺和偏見,重要的是要知道當今最常見的人工智能模型是如何工作的。它們本質上是非常複雜的代碼版本,可以讓你的電子郵件應用程式預測你将要鍵入的下一個單詞:它們掃描大量的文本--在某些情況下,幾乎是網上可以找到的所有内容--并對其進行分析,以找到人類語言的模式。

當你向人工智能提出問題時,它會檢視你使用的單詞,然後搜尋經常與這些單詞相關聯的文本塊。如果你寫“列出薄煎餅的配料”,它可能會注意到“面粉、糖、鹽、發酵粉、牛奶和雞蛋”這些詞經常與這個短語一起出現。然後,基于它所知道的這些單詞通常出現的順序,它生成一個答案。(以這種方式工作的人工智能模型使用的是所謂的變壓器。GPT-4就是這樣一個模型。)

這個過程解釋了為什麼人工智能可能會出現幻覺或出現偏見。你問的問題和你告訴它的事情都沒有上下文。如果你告訴一個人它犯了一個錯誤,它可能會說,“對不起,我打錯了。”但那是一種幻覺——它沒有打出任何東西。它隻是說,因為它掃描了足夠多的文本,知道“對不起,我打錯了那個”是人們經常在有人糾正他們後寫的句子。

類似地,人工智能模型繼承了他們接受訓練的文本中的任何偏見。如果一個人讀了很多關于内科醫生的書,并且書中大部分都提到了男醫生,那麼它的答案會假設大多數醫生都是男性。

雖然有些研究者認為幻覺是一個固有的問題,但我不同意。我樂觀地認為,随着時間的推移,人工智能模型可以被教會區分事實和虛構。例如,OpenAI正在這方面做着有希望的工作。

其他組織,包括艾倫圖靈研究所和國家标準與技術研究所,都在緻力于解決偏見問題。一種方法是将人類價值觀和更進階的推理建構到人工智能中。這類似于一個有自我意識的人的工作方式:也許你認為大多數醫生都是男人,但你足夠意識到這個假設,知道你必須有意識地與之鬥争。人工智能可以以類似的方式運作,特别是如果模型是由來自不同背景的人設計的。

最後,每個使用人工智能的人都需要意識到偏見問題,并成為一個知情的使用者。你讓人工智能起草的文章可能充滿偏見,也可能存在事實錯誤。你需要檢查你的人工智能和你自己的偏見。

學生不會學習寫作,因為人工智能會替他們做。許多教師擔心人工智能會破壞他們與學生的工作。在一個任何可以上網的人都可以使用人工智能來寫一篇體面的論文初稿的時代,有什麼可以阻止學生把它作為自己的作品來送出呢?

已經有一些人工智能工具正在學習辨識某個東西是由人還是由計算機寫的,這樣老師就可以知道他們的學生什麼時候沒有做自己的作業。但是一些老師并沒有試圖阻止他們的學生在寫作中使用人工智能--他們實際上是在鼓勵它。

今年1月,一位名叫切麗·希爾茲(Cherie Shields)的資深英語教師在《教育周刊》上寫了一篇關于她如何在課堂上使用ChatGPT的文章。它幫助她的學生從開始寫論文到寫提綱,甚至給他們工作上的回報。

“教師将不得不接受人工智能技術,作為學生可以使用的另一種工具,”她寫道。“就像我們曾經教學生如何進行正确的谷歌搜尋一樣,教師應該圍繞ChatGPT機器人如何幫助論文寫作設計清晰的課程。承認人工智能的存在并幫助學生使用它可能會徹底改變我們的教學方式。”不是每個老師都有時間學習和使用一種新工具,但像切麗·希爾茲這樣的教育家提出了一個很好的論點,那些這樣做的人将受益匪淺。

這讓我想起了20世紀70年代和80年代電子電腦普及的時候。一些數學老師擔心學生會停止學習如何做基本算術,但其他人接受了新技術,并專注于算術背後的思維技能。

人工智能還可以通過另一種方式幫助寫作和批判性思維。尤其是在這些早期,當幻覺和偏見仍然是一個問題時,教育者可以讓人工智能生成文章,然後與他們的學生一起檢查事實。我資助的汗學院和OER項目等教育非營利組織為教師和學生提供免費的線上工具,這些工具非常重視測試斷言。很少有技能比知道如何辨識真假更重要。

我們确實需要確定教育軟體有助于縮小成績差距,而不是讓它變得更糟。今天的軟體主要是面向那些已經有動力的學生。它可以為你制定學習計劃,為你指出好的資源,并測試你的知識。但是它還不知道如何把你帶入一個主題

你已經不感興趣了。這是開發者需要解決的問題,以便所有類型的學生都能從人工智能中受益。

下一步是什麼?

我相信有更多的理由不樂觀,我們可以管理人工智能的風險,同時最大化其利益。但是我們需要盡快行動。

政府需要積累人工智能方面的專業知識,以便能夠制定明智的法律法規來應對這一新技術。他們需要努力應對錯誤資訊和虛假資訊、安全威脅、就業市場的變化以及對教育的影響。僅舉一個例子:法律需要明确深度僞造的哪些使用是合法的,如何标記深度僞造,以便每個人都明白他們看到或聽到的内容不是真的。

政治上司人需要具備與選民進行知情、深思熟慮的對話的能力。他們還需要決定在這些問題上與其他國家合作的程度,而不是單幹。

在私營部門,人工智能公司需要安全負責地開展工作。這包括保護人們的隐私,確定他們的人工智能模型反映基本的人類價值觀,最大限度地減少偏見,讓盡可能多的人受益,以及防止技術被犯罪分子或恐怖分子使用。許多經濟領域的公司将需要幫助他們的員工向以人工智能為中心的工作場所過渡,以便沒有人被落下。客戶應該總是知道他們何時與人工智能而不是人類互動。

最後,我鼓勵每個人盡可能地關注人工智能的發展。這是我們有生之年将會看到的最具變革性的創新,健康的公共辯論将取決于每個人對該技術及其好處和風險的了解。好處将是巨大的,相信我們能夠管理風險的最好理由是我們以前做過。(無忌)

繼續閱讀