天天看點

AutoGPT、BabyAGI火爆,但是危險

劃重點:

  • 1GPT-4 API開放之後,開發者開始嘗試實作人工智能模型的代理化,在盡可能少的人工幹預下執行多重任務。
  • 2在新開發的項目中,Auto-GPT和BabyAGI目前最為火爆,但尚未達到通用人工智能标準。
  • 3Auto-GPT和BabyAGI仍需要大量的人力投入與合作,是以還沒有像承諾的那樣自主。
AutoGPT、BabyAGI火爆,但是危險

騰訊科技訊 自從OpenAI上個月開始向測試人員開放GPT-4 API(應用程式程式設計接口)以來,一些開發者團隊開始嘗試實作人工智能模型的代理化(agent-like),試圖在盡可能少的人工幹預下執行多重任務。這些自制腳本可以根據需要循環、疊代和衍生人工智能模型的新執行個體。

在這些項目當中,有兩個實驗性的開源項目在社交媒體上引起外界、特别是瘋狂炒作人工智能項目的人的極大關注:由托蘭·布魯斯·理查茲(Toran Bruce Richards)建立的Auto-GPT和由中島洋平(Yohei Nakajima)建立的BabyAGI。

Auto-GPT和BabyAGI能做些什麼?嗯,現在還無法做太多的事情。它們需要大量的人力投入和合作,是以還沒有像承諾的那樣自主。但它們代表了更複雜的人工智能模型,這些模型在單獨工作時可能比單個人工智能模型能力更強。

什麼是Auto-GPT?

Auto-GPT是一個開源Python應用程式。該應用程式以GPT-4為基礎,允許人工智能“自主”行動,無需使用者提示每個動作。使用者可以為Auto-GPT制定一個總體目标,并逐漸采取行動來實作該目标。這就是“人工智能代理”概念的來源,它們使用網際網路并完全獨立地在PC上執行操作--無需在每一步都得到提示。

原始GitHub中釋出的簡單示例是Auto-GPT,其目标是浏覽Web以得出“下一個即将到來的事件”(例如複活節)的獨特和原始食譜。Chef-GPT,正如它的名字一樣,然後開始在網絡上搜尋解決方案。第二個目标是将食譜作為檔案儲存在使用者的計算機上。

就其本身而言,這聽起來可能并不那麼創新。但是Auto-GPT代表使用者搜尋網際網路并執行儲存檔案等操作的能力使這個人工智能遠遠超出了一個簡單的聊天機器人。

自主實作設定的任何目标

AutoGPT、BabyAGI火爆,但是危險

理查茲稱,自己的腳本是“展示GPT 4語言模型能力的實驗性開源應用程式”。該腳本“将大語言模型(LLM)的‘思想’連結在一起,以自主實作操作者設定的任何目标。”基本上,自動GPT從GPT-4擷取輸出,并通過一個臨時的外部存儲器将其回報給自己,以便它可以進一步疊代任務,糾正錯誤,或提出改進建議。理想情況下,這樣的腳本可以充當人工智能助手,可以獨自執行任何數字任務。

為測試這些說法,測試人員在Windows機器上本地運作了Auto-GPT(一個Python腳本)。當啟動它時,它會詢問人工智能代理的名字,角色的描述,以及試圖完成的五個目标的清單。在設定它時,您需要提供一個OpenAI API密鑰和一個谷歌搜尋API密鑰。運作時,Auto-GPT會請求允許執行它預設生成的每一步。如果想冒險,它還包括一個全自動模式。

如果任務是做類似“購買一雙複古款Air Jordans”這樣的事情,Auto-GPT會制定一個多步驟計劃并嘗試執行。例如,它可能會搜尋賣鞋的人,然後尋找符合使用者标準的一雙特定的鞋。但那是它停止的時候,因為目前它實際上不能購買任何東西。如果與适當的購物應用程式接口連接配接在一起,這是可能的。

如果想親自體驗一下Auto-GPT,有人建立了一個基于網絡的版本,名為AgentGPT,與Auto-GPT的功能類似。理查茲對他的Auto-GPT目标非常開放:開發一種通用人工智能(AGI)。在人工智能中,“通用智能”通常指的是人工智能系統執行廣泛任務和解決問題的能力,這些任務和問題不是專門程式設計或訓練的。

像一個相當聰明的人一樣,具有一般智能的系統應該能夠适應新的情況,并從經驗中學習,而不是僅僅遵循一套預先定義的規則或模式。這與具有狹義或專門智能(有時稱為““狹義人工智能”)的系統形成對比,這些系統旨在執行特定任務或在有限的環境範圍内操作。

與此同時,BabyAGI(它的名字來源于緻力于人工智能的遠大目标)的工作方式與Auto-GPT類似,但處理任務的方式有所不同。

BabyAGI的開發者中島洋平表示,他是在目睹了3月份的“HustleGPT”挑戰賽後受到啟發而創作了他的腳本。HustleGPT挑戰賽源自一位推特使用者的想法:通過給GPT-4 100美元的預算,讓它在短時間内用這筆啟動資金,賺更多的錢。作為一名人類,這位使用者将充當 GPT-4 和實體世界的聯絡員,去購買GPT-4所需要的任何物品。可以說,這場挑戰賽試圖利用GPT-4作為一種人工智能聯合創始人來自動建立業務。“這讓我很好奇,我是否能創造一個完全人工智能的創始人,”中島洋平說。

建立可及時修複錯誤的“再生”人工智能程式

為什麼Auto-GPT和BabyAGI達不到通用人工智能的标準,主要是由于GPT-4本身的限制。雖然作為文本的轉換器和分析器令人印象深刻,但GPT-4仍然感覺局限于狹義範圍的解釋智能,盡管一些人聲稱微軟已經在該模型中看到了通用人工智能行為的“火花”。事實上,像Auto-GPT這樣的工具目前用處有限,這可能是目前大型語言模型局限性的最有力證據。然而,這并不意味着這些限制最終不會被克服。

此外,虛構的問題--當大型語言模型隻是編造一些東西時--可能會嚴重限制這些代理助理的有用性。例如,在一個推特文章中,有人使用Auto-GPT生成了一份關于生産防水鞋的公司的報告,方法是搜尋網絡并檢視每個公司的産品評論。在這個過程中的任何一步,GPT-4都可能在評論、産品上産生幻覺,甚至整個公司都被納入其分析。

當被問及BabyAGI的有用應用時,除了格瑞特·斯科特(Garrett Scott)建立的項目“Do everything Machine”之外,中島洋平拿不出其他實質性的例子。該項目旨在建立一個自動執行的待辦事項清單,目前正在開發中。公平地說,BabyAGI項目隻有大約一周的曆史。“這更像是對一個架構/方法的介紹,最令人興奮的是人們在這個想法的基礎上建構的東西,”他說。

自動兜售

AutoGPT、BabyAGI火爆,但是危險

這兩個項目中對“兜售”和賺錢的關注可能會讓一些人望而卻步。過去的一年裡,在推特、Instagram、Tiktok和YouTube等平台上,圍繞的生成式人工智能,出現了一個由社交媒體網紅組成的團體。Mashable将這些人稱為“兜售兄弟”,他們通常會兜售往往被誇大的誇張說法,例如使用ChatGPT自動獲得收入。随着Auto-GPT的出現,這群人很快就接受了讓一個自主的人工智能代理從事商業建設或賺錢的想法。

Auto-GPT似乎也參與了這場炒作。在啟動該工具時,它會要求使用者命名一個人工智能代理并描述其角色。它給出的例子是“一個旨在自主開發和營運業務的人工智能,其唯一目标是增加你的淨資産。”

盡管有這裡提到的限制,人們還是繼續快速地将Auto-GPT和BabyAGI的代碼應用于不同的語言和平台,盡最大努力去實作它,很多人眼裡都帶着美元符号。“這種利用ChatGPT技術建構自主代理的新方法似乎在整個社群引發了許多新想法,”中島洋平說。“看到人們在此基礎上以不同的方式進行搭建真是令人難以置信,我很高興有機會支援這些建設者和創始人之間的協作和共享知識。”

存巨大風險隐患

AutoGPT、BabyAGI火爆,但是危險

在一個人工智能社群的知名人士一直呼籲“暫停”開發強大的人工智能模型以保護人類文明的世界,問題仍然是:像Auto-GPT和BabyAGI這樣的自主人工智能代理是否危險?

理查茲和中島洋平并不是第一個用所謂的“自主”人工智能系統進行實驗的人。在GPT-4的安全測試期間,與OpenAI合作的研究人員檢查了GPT-4是否可以自主行動來制定和執行目标。他們很可能設計了類似的連鎖設定來實作這一點。OpenAI一直努力用人類回報來調節GPT-4模型,目的是不産生有害的結果。

Lesswrong是一個網際網路論壇,以關注人工智能末日的啟示錄而聞名,其成員目前似乎并不特别關注Auto-GPT,盡管如果表面上擔心強大的人工智能模型“逃”到開放的網際網路上并造成嚴重破壞,那麼自主人工智能似乎是一種風險。如果GPT-4真的像人們經常宣傳的那樣有能力,他們可能會更加擔心。

當被問及他是否認為像BabyAGI這樣的項目可能會有危險時,它的建立者并不擔心。中島洋平說:“如果沒有深思熟慮地實施并小心潛在的風險,所有的技術都可能是危險的。BabyAGI是一個架構的介紹。它的功能僅限于生成文本,是以不構成威脅。”(無忌)

繼續閱讀