天天看點

通用人工智能的雙刃劍:駕馭發展 規避危機

作者:砍柴網
通用人工智能的雙刃劍:駕馭發展 規避危機

《未來簡史》作者尤瓦爾·赫拉利警示:核武器和人工智能最大的差別是,核武器不能制造更強大的核武器。但人工智能可以産生更強大的人工智能,是以我們需要在人工智能失去控制之前迅速采取行動。

最近,微軟雷蒙德研究院機器學習理論組負責人塞巴斯蒂安·布貝克(Sébastien Bubeck)聯合2023斯隆研究獎得主李遠志等人,發表了一篇關注度極高的論文。這篇論文名為《通用人工智能的火花:GPT-4早期實驗》,長達154頁。一些好事者從LaTex源碼中發現,原定的标題實際上是《與AGI的第一次接觸》。

這篇論文的發表,标志着人工智能研究領域的一次重要裡程碑。它為我們深入了解通用人工智能(AGI)的發展和應用提供了有價值的見解。同時,論文的原定标題《與AGI的第一次接觸》,也凸顯了對邁向通用人工智能的探索的重要性和前瞻性。

我耐着性子,看完了這篇論文的翻譯版。說句大實話,半懂半不懂,不明覺厲。先給大家介紹一下這篇論文的核心主張:GPT-4呈現出一種通用智能的形式,綻放了通用人工智能的火花。這表現在它的核心心智能力(如推理、創造力和推理),它獲得專業知識的主題範圍(如文學、醫學和編碼),以及它能夠完成的各種任務(如玩遊戲、使用工具、解釋自己等)。

讀完這篇,我又重溫了拙文《未來可期|人工智能繪畫:讓每個人都成為藝術家》。我問了自己一個問題:此前把ChatGPT這類大模型歸類在人工智能生成内容(AIGC),是否有些狹隘?正如微軟研究院論文所說,GPT-4實際上不僅僅是AIGC,它更像是通用人工智能的雛形。

在解釋AGI意味着什麼之前,我先給澎湃科技“未來可期”專欄的讀者朋友說一下ANI、AGI、ASI這三個單詞。

人工智能(Artificial Intelligence, AI)通常分為三個層次:

①弱人工智能(Artificial Narrow Intelligence, ANI);

②通用人工智能(Artificial General Intelligence, AGI);

③超人工智能(Artificial Superintelligence, ASI)。

接下來,再稍微給大家介紹一下這三個層次的差別和發展。

①弱人工智能(ANI):

弱人工智能是目前最常見的人工智能形式。它專注于執行單一任務或解決特定領域的問題。例如,圖像識别、語音識别、機器翻譯等。這類智能系統在特定任務上可能比人類表現得更好,但它們隻能在有限的範圍内工作,無法處理它們未被設計解決的問題。目前市場上有許多智能産品和服務,如虛拟助手(Siri、微軟小冰等)、智能音箱(天貓精靈、小愛音箱等)和阿爾法圍棋(AlphaGo)等,都屬于弱人工智能的範疇。弱人工智能的局限性在于,缺乏綜合性的了解和判斷能力,隻能在特定任務上表現出色。

随着大資料、算法和計算能力的不斷發展,弱人工智能正在逐漸滲透到我們日常生活的各個領域。在金融、醫療、教育、娛樂等領域,我們已經見證了許多成功的應用案例。

②通用人工智能(AGI):

通用人工智能,也稱為強人工智能,是指具備與人類同等的智能,能表現正常人類所具有的所有智能行為的人工智能。這意味着,AGI能夠像人類一樣,在各種領域中學習、了解、适應和解決問題。和ANI不同,AGI能夠獨立完成多種任務,而不僅僅局限于某個特定領域。目前,普遍認為人工通用智能尚未實作,但許多科技公司和科學家正在努力靠近這一目标。

③超人工智能(ASI):

超人工智能指的是一種人工智能系統,在各個領域遠遠超越人類智慧。它不僅能夠完成人類可以完成的各種任務,還在創造力、決策能力、學習速度等方面遠遠超過人類。ASI的出現,可能引發許多前所未有的科技突破和社會變革,解決人類無法解決的難題。

然而,ASI也帶來了一系列潛在的風險。例如,它可能導緻人類價值和尊嚴的喪失,引發人工智能的濫用和誤用,甚至可能引發人工智能的反叛等問題。

原來,我們一直認為,人工智能技術,從弱人工智能到通用人工智能再到超人工智能,将經曆一個漫長而複雜的發展過程。在這個過程中,我們有足夠的時間來做好各種準備,大到法律法規、小到每個個體的心理準備。可是,最近我有一個強烈的感覺:我們離擁有通用人工智能可能隻有幾步之遙,而這可能隻需要20年甚至更短的時間。如果有些人說這個過程隻需要5-10年,我也不會完全排除這種可能性。

OpenAI公司在其釋出的《通向AGI的規劃和展望》中提到:“AGI有可能為每個人帶來令人難以置信的新能力。我們可以想象一個世界,我們所有人都可以獲得幾乎任何認知任務的幫助,為人類的智慧和創造力提供一個巨大的力量倍增器。”

然而,這份規劃強調了一個“逐漸過渡”的過程,而不是過分強調AGI的強大能力。“讓人們、政策制定者和機構有時間了解正在發生的事情,親自體驗這些系統的好處和壞處,調整我們的經濟,并将監管落實到位。”

在我看來,這段話傳達的潛在資訊是:通往AGI的技術其實已經具備。然而,為了讓人類社會有一個适應的過程,OpenAI正在有意放緩技術的進展步伐。他們意圖平衡技術進步和人類社會的準備程度,給予更多時間來進行法律、倫理和社會适應的讨論,并采取必要的措施來應對可能帶來的挑戰。

《論語·季氏将伐颛臾》裡面有這麼一句話:“虎兕出于柙”,現在,各種GPT們,如猛虎一般,已經從籠子裡跑出來了。就像《未來簡史》作者尤瓦爾·赫拉利所言:人工智能正在以超過人類平均水準的能力掌握語言。通過掌握語言,人工智能已經具備與數億人大規模産生親密關系的能力,并正在掌握入侵人類文明系統的鑰匙。他更進一步地警示:核武器和人工智能最大的差別是,核武器不能制造更強大的核武器。但人工智能可以産生更強大的人工智能,是以我們需要在人工智能失去控制之前迅速采取行動。

3月22日,生命未來研究所(Future of Life)向全社會釋出了一封公開信,題為《暫停巨型人工智能研究:一封公開信》,呼籲所有人工智能實驗室,立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時間至少為6個月。生命未來研究所美國政策主任克雷恩(Landon Klein)表示:“我們認為目前時刻類似于核時代的開始……”這份公開信,已獲得超過超千名人士支援,其中包括埃隆·馬斯克(特斯拉創始人)、山姆·奧特曼(OpenAI首席執行官)、約書亞·本吉奧(2018年圖靈獎得主)等知名人士。

如果許多人都意識到,我們即将進入一個“人工智能核武器擴散”的時代,那麼我們确實需要探讨一種可能性。這個可能性是建立一個類似于國際原子能機構的國際組織,其目标是監督所有人工智能公司,根據其使用的GPU數量、能源消耗等名額進行監管。那些超過能力門檻值的系統,都需要接受稽核。通過這樣的國際組織,我們可以共同努力,確定人工智能技術為人類帶來福祉,而不是潛在的危害。

一些科學家主張,在推進人工智能研究和應用時,一定要避免人工智能系統具有超出人類控制的能力。他們做了很多比喻來描述正在發生的災難,包括“一個10歲的孩子試圖和Stockfish 15下棋”,“11世紀試圖和21世紀作戰”,以及“南方古猿試圖和智人作戰”。 這些科學家希望我們,不要把通用人工智能想象成“居住在網際網路中,沒有生命的思考者”。而是要把它們想象成一個完整的外星文明,正在以比人類快百萬倍的速度思考。隻不過,它們最初被限制在計算機中。

然而,也有一些科學家持樂觀态度。在他們看來,人工智能的發展和研究應當持續推進,以促進科學進步和技術創新。他們比喻說,如果在汽車誕生的那個年代,如果有馬車夫提議,讓司機暫停開車6個月。現在回過頭來看,這是否是螳臂當車的行為呢?他們認為,通過透明和負責任的研究方法,可以解決潛在問題,并確定人工智能技術的可控性。而且,正是要通過不斷的實驗和實踐,我們才能更好地了解和應對人工智能可能帶來的挑戰。

最近,世界衛生組織(WHO)對于人工智能與公共醫療的結合發出了警告。他們指出,依賴人工智能生成的資料進行決策,可能存在偏見或被錯誤使用的風險。世衛在聲明中表示,評估使用ChatGPT等生成式大型語言模型(LLM)的風險至關重要,以保護及促進人類福祉。他們強調,需要采取措施來確定使用這些技術時的準确性、可靠性和公正性,以保護公衆的利益并推動醫療領域的進步。

許多國家已經開始采取措施,邁出了規範人工智能領域的第一步。3月31日,意大利個人資料保護局宣布,即日起暫時禁止使用ChatGPT。同時,歐盟官員也正在制定一項名為《人工智能法(AI Act)》的新法律草案,其中包括:禁止特定人工智能服務的使用以及制定相關的法律規範。

美國商務部則釋出通知,征求公衆意見,其中包括:存有危害風險的人工智能新模型是否需要先進行審查才能釋出。同時,商務部還承諾,打擊那些違反公民權利和消費者保護法的有害人工智能産品。

5月16日,OpenAI首席執行官兼聯合創始人山姆·奧特曼首次參加美國國會的聽證會,就人工智能技術的潛在危險發表了講話。他坦承,随着人工智能的進步,人們對于它将如何改變我們的生活方式感到擔憂和焦慮。為此,他認為政府的幹預,可以阻止人工智能“狂放的自我複制和自我滲透”。他提議建立一個全新的監管機構,實施必要的保障措施,并頒發人工智能系統許可證,同時具備撤銷許可的權力。

在聽證會上,奧特曼被問及他對人工智能可能出現的最大擔憂是什麼,他沒有詳細說明,隻是表示“如果這項科技出了問題,可能會大錯特錯”,并可能會“對世界造成重大傷害”。

在這個聽證會之前,中國在人工智能領域的監管和控制措施也引起了廣泛關注。4月11日,為促進生成式人工智能技術健康發展和規範應用,根據《中華人民共和國網絡安全法》等法律法規,國家網信辦起草了《生成式人工智能服務管理辦法(征求意見稿)》。這份辦法明确了對生成式人工智能産業的支援和鼓勵态度,比如,“國家支援人工智能算法、架構等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟體、工具、計算和資料資源。”

該意見稿要求,利用生成式人工智能生成的内容應當展現社會主義核心價值觀,不得含有颠覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情資訊,虛假資訊,以及可能擾亂經濟秩序和社會秩序的内容。意見稿同時要求,供貨商須申報安全評估,采取措施防止歧視,尊重隐私權等。

上述這些國家共同采取的措施提醒我們,目前人工智能的發展帶來了巨大的機遇和挑戰。我們迫切需要制定明确的倫理準則和法規,以確定人工智能技術的正确使用和透明度。我們将面臨着一系列重要問題:如何保障資料隐私和安全?如何應對算法的偏見和不公正?如何確定人工智能的決策透明和可解釋性?這些問題需要通過明确的法規和制度來回應。

寫到這裡,我的思緒莫名地跳轉到了最近大火的國産劇《漫長的季節》中,那首題為《漫長的》的詩歌第一段:

打個響指吧,他說

我們打個共鳴的響指

遙遠的事物将被震碎

面前的人們此時尚不知情

在這裡,我想做一個大膽的預測:當2024年到來,我們來評選2023年度詞彙時,ChatGPT會是十大熱詞之一,甚至可能成為年度詞彙或年度人物。

讓我們來拆解一下“AI”這個單詞吧。如果A代表天使(Angel),那麼I可以代表惡魔(Iblis)。如今,人工智能技術正在迅速發展,展現出令人驚歎的“天使和惡魔”的共生關系。面對這一現實,我們需要采取行動,為了一個目标——“讓我們享受一個金色的漫長的人工智能的收獲之秋,而不是毫無準備地陷入寒冬。”

【來源:澎湃新聞】

繼續閱讀