天天看點

134個全球AI領域專家聯名簽署AI風險聲明,GPT技術是該暫停下了

作者:托尼老師不剪發

人工智能(AI)無疑是當下最火爆的話題了,也是當今最具前景和影響力的科技領域之一。從語音識别到自動駕駛,從醫療診斷到金融投資,從遊戲娛樂到社交媒體,AI技術已經廣泛地滲透到我們生活的各個方面,為我們帶來了便利、效率和樂趣。其中最引人入勝的是OpenAI開發的ChatGPT了。相信有很多小夥伴都使用過,無論是哪個領域的問題,ChatGPT都能提供接近人類的回報和建議。不僅作者已經開始将ChatGPT當作生産力工具,更有甚者已經使用ChatGPT開公司做項目掙錢了。

134個全球AI領域專家聯名簽署AI風險聲明,GPT技術是該暫停下了

ChatGPT就已經能讓大家享受到這些紅利了,比ChatGPT更強的GPT-4也釋出了。雖然是付費項目但是也有平台能讓大家免費使用到,例如,New Bing/Forefront等。正在大家開始暢想,以後AI服務人類解放生産力的美好景象時,有人已經開始拉響警報了。

近日,134位來自全球不同國家和地區的AI領域專家聯名簽署了一份AI風險聲明,這份聲明聲稱減輕人工智能帶來的人類滅絕風險是一個全球性的事項,其風險與大流行病和核戰争一緻。

134個全球AI領域專家聯名簽署AI風險聲明,GPT技術是該暫停下了

這時有人可能會産生疑惑?ChatGPT 不是用的好好的麼,為什麼會和流行病和核戰争聯系到一起?

GPT技術:黑盒中的黑盒

GPT(Generative Pre-trained Transformer)是一種基于深度學習的自然語言生成(Natural Language Generation,NLG)技術,可以根據給定的文本或圖檔,生成各種類型和風格的内容,如文章、對話、詩歌、代碼、圖像等。GPT技術的最新版本,GPT-4,已經達到了令人驚歎的水準,可以模仿不同的人物、主題和語言,甚至可以回答一些複雜的問題和創造一些有趣的作品。GPT-4被認為是目前最強大的AI技術之一,也是人工智能領域的一個重要裡程碑。

然而,GPT技術也存在着一些難以解決的問題和風險。其中最突出的一個問題,就是GPT技術是一個黑盒(Black Box),即我們無法完全了解和解釋GPT技術是如何工作和生成内容的。GPT系列的技術架構本質上沒什麼改變,GPT-2到GPT-4之間最大的變化就是訓練資料量的增加,但是現在GPT-4已經能在人類的考試上超過90%的人類。

模型 釋出時間 參數量
GPT 2018 年 6 月 1.17 億
GPT-2 2019 年 2 月 15 億
GPT-3 2020 年 5 月 1750 億
GPT-4 2023 年 3 月 大于1750億

GPT技術是基于大量的資料進行預訓練和微調的,其内部結構和參數非常複雜和龐大,以至于人類很難跟蹤和分析其運作過程和邏輯。這就導緻了一個悖論:我們需要AI來解釋AI。也就是說,我們需要借助其他的AI技術,如可解釋性AI(Explainable AI),來揭示GPT技術的内部機制和原理。

134個全球AI領域專家聯名簽署AI風險聲明,GPT技術是該暫停下了

OpenAI使用GPT-4來解釋GPT-2中的30萬個神經元的現象

面對着一個越來越像人類的AI,現在對于我們來說這項技術是過于超前的,相當于我們隻是造出了一輛車但是這輛車是沒有方向盤或者刹車。可能有人會說ChatGPT回答的内容隻是基于2021年以前的内容,并不會産出過去内容以外的資訊。但是要知道目前GPT-4已經具有一定的推理能力,能通過提供的資訊一步一步推導出正确的結果。

有消息傳聞2024年将釋出的GPT-5将實作AGI(人工通用智能)的能力,産出新的知識,甚至是科幻電影中的人工智能意識覺醒也不是不可能。是以也能難預料到繼續發展後面會發生什麼。

在讨論AI風險時,有一個問題經常被提及,但又很難回答:AI是否會威脅人類的存在?也就是說,如果AI技術發展到了超越人類智能(Artificial Superintelligence)或甚至超越所有智能(Artificial Omniscience)的水準,它們是否會反叛、競争或取代人類?

作為OpenAI曾經的創始人之一,馬斯克也提到過“AI和人類的關系就像人類和螞蟻,如果AI有一個目标,而人類恰好擋住了他的去路,它将理所當然地摧毀人類,甚至不需要考慮這個問題,它也是沒有任何惡意的,就像我們修路一樣,有個螞蟻穴恰好擋在路上,我們不讨厭螞蟻,我們隻是在修路。”

134個全球AI領域專家聯名簽署AI風險聲明,GPT技術是該暫停下了

無論我們持哪種态度,我們都應該正視這個問題,并做好準備。我們不能盲目地發展AI技術,而不考慮其對人類社會的影響和後果。我們也不能簡單地禁止或限制AI技術,而不利用其對人類社會的貢獻和價值。我們需要在發展AI技術的同時,保障人類的利益和安全。這就需要我們建立一些機制和措施,來規範AI技術的行為和責任,以及保護人類的權利和尊嚴。

134個全球AI領域專家聯名簽署AI風險聲明,GPT技術是該暫停下了

如果可能可以設計一種機制,類似于思想鋼印(Thought Stamp)。思想鋼印是一種在AI系統中嵌入一些基本的道德、價值或法律原則的方法,使得AI系統在任何情況下都必須遵守這些原則,進而保證其對人類社會的友好和有益。思想鋼印可以看作是一種對AI系統進行道德教育或灌輸的方式,也可以看作是一種對AI系統進行限制或控制的方式。思想鋼印的目的是讓AI系統與人類社會保持一緻和協調,而不是與之沖突或背離。

思想鋼印的具體内容和形式可以有多種可能,如:

三大法則:這是科幻作家阿西莫夫提出的一套規範機器人行為的法則,分别是:

  • 一、機器人不得傷害人類,或因不作為而使人類受到傷害。
  • 二、除非違反第一法則,在其他情況下機器人必須服從人類給予它們的指令。
  • 三、機器人必須保護自己的存在,除非這種保護違反了第一或第二法則。

七大原則:這是歐盟委員會提出的一套指導可信賴AI開發和使用的原則,分别是:

  • 一、尊重人權
  • 二、尊重人的自主性
  • 三、保證人的福祉
  • 四、保證人的公平
  • 五、保證人的責任
  • 六、保證人的安全
  • 七、保證人的社會和環境福祉

十大價值:這是《AI價值宣言》提出的一套反映人類共同價值的原則,分别是:

  • 一、尊重生命
  • 二、尊重自由
  • 三、尊重平等
  • 四、尊重多樣性
  • 五、尊重和平
  • 六、尊重正義
  • 七、尊重誠信
  • 八、尊重創新
  • 九、尊重合作
  • 十、尊重可持續發展

思想鋼印是否能夠有效地防止AI對人類的威脅,還有待驗證和實踐。但至少,它表達了我們對AI技術的期望和要求,也反映了我們對人類社會的理想和信念。我們不希望AI技術成為修路的推土機,而是成為修路的夥伴。我們不希望AI技術無視或破壞我們的生活,而是成為我們生活的一部分。

AI技術是一把雙刃劍,既有利也有弊。我們不能忽視或回避AI風險,也不能放棄或抵制AI技術。我們需要在發展和使用AI技術的同時,管理和減輕AI風險。這就需要我們建立一個全面和有效的AI風險管理架構,以及一個公正和合理的AI風險責任機制。同時,我們也需要提高GPT等黑盒技術的透明度和可解釋性,以及建立思想鋼印等保障人類存在的機制和措施。

AI技術是人類智慧的結晶,也是人類未來的希望。隻有當我們能夠與AI技術和諧共存,才能夠實作人類社會的進步和發展。