天天看點

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

作者:DeepTech深科技

日前,OpenAI 創始人山姆·奧特曼(Sam Altman)表達了對于 ChatGPT 和 GPT-4 的擔憂,AI 模型的内容生成能力、以及取代人類工作的潛力讓他“有點害怕”。他說,人類曆史上的幾次技術革命,确實讓社會工種發生了很大變化,有些工作甚至徹底雲消霧散。

但他同時表示,人類仍然是勞動力的重要組成部分,舊的崗位消失、新的崗位源源不斷,我們總能找到新工作。是以,ChatGPT 隻是人類的工具,而不是人類的替代品。

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

圖 | OpenAI 創始人山姆·奧特曼(Sam Altman)(來源:資料圖)

不過,鑒于 ChatGPT 越來越擅長寫代碼,奧特曼也在擔心它是否會被用于網絡攻擊或大規模炮制虛假資訊。盡管 ChatGPT 在很大程度上可以被人為控制,但他認為保不齊會有人用它來做壞事。是以,面對 ChatGPT 以及其他 AI 工具可能産生的負面影響,留給人們作出合宜處理的時間并不多。

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

當 ChatGPT 面對不該做的任務,它必須拒絕

在 OpenAI 負責研究 AI 政策的桑德希尼·阿加瓦爾(Sandhini Agarwal)說:“我們還有很長的路要走。這個模型仍然很有偏見。是的,ChatGPT 非常擅長拒絕不好的請求,但它也很容易被提示所誤導,以至于它沒能拒絕我們希望它拒絕的東西。”

OpenAI 聲稱,其安全測試已經足以讓 GPT-4 用于第三方應用程式,同時它也做好了迎接突發事件的準備。OpenAI 首席科學家伊利亞·蘇斯克弗(Ilya Sutskever)告訴《麻省理工科技評論》,大語言模型仍然存在根本性的缺陷。

GPT-4 依然會産生帶有偏見、虛假和仇恨的内容;它仍然可以被越獄,躲開 OpenAI 設定的保護措施。盡管 OpenAI 改進了它,但還算不上 100% 地成功。

要知道,實作大模型的安全性并不是一蹴而就的,而是一個逐漸前進的過程。而且隻要 GPT-4 解鎖了新能力,在安全防控上就會更加複雜。就連蘇斯克弗也認為:“盡管很多情況已經被摸清楚,但我相信其中仍藏着一些令人驚訝的東西。”他甚至覺得放慢新成果的釋出速度可能會更好。

此外,在 OpenAI 内部有一支對齊團隊——對齊指的是通過引導人工智能系統的行為,使其符合設計者的利益和預期目标。對齊團隊的負責人簡·萊克(JJan Leike)告訴《麻省理工科技評論》,當使用者的提問不夠清楚時,ChatGPT 就應該追問,此外它還應該澄清自己隻是一個人工智能系統。

也就是說,ChatGPT 不應該假設自己擁有一個不該擁有的身份,也不應該聲稱自己擁有其實并不擁有的能力。當使用者要求它做一個不該做的任務時,它必須拒絕。

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

(來源:資料圖)

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

OpenAI 新目标:避免 ChatGPT“胡編亂造”,讓其生成更多元的内容

在人工智能語言模型研究中,最大的問題之一是如何阻止模型“産生幻覺”,說得更接地氣一點就是如何阻止模型“胡編亂造”。ChatGPT 已經被上億使用者使用了幾個月,盡管有時也會産生謊言和幻覺,但還不至于太離譜。

這是因為 OpenAI 在 ChatGPT 中使用了一種名為“從人類回報中強化學習”的技術,它會基于使用者回報改進答案。該技術的工作原理是讓人們在不同的輸出内容中進行選擇,然後根據不同的标準進行排序,比如事實性和真實性。

為了使 ChatGPT 更可靠,OpenAI 一直在清理資料集,并删除那些會讓模型産出錯誤内容的訓練資料。自從 ChatGPT 釋出以來,人們一直試圖對它進行“越獄”,也就是使用一些“技巧”讓模型打破束縛自己的規則,進而産生有關種族主義或陰謀論的内容。

OpenAI 已經注意到一些使用者的嘗試。目前,OpenAI 已經浏覽了整個資料庫,挑選出了一些會導緻不必要内容的提示,以對模型做出改進并阻止它繼續蔓延下去。

另外,OpenAI 也會從公衆那裡收集更多回報,以便更好地塑造模型。目前,OpenAI 正在探索通過使用者調查或建立公民集會(論壇)的方式,來讨論哪些内容應該被完全禁止。例如,如果以藝術為前提,裸體可能不會被認為是粗俗的、不可接受的,但如果在非藝術類課堂上使用 ChatGPT 生成裸體圖檔就是另外一回事了。

盡管 OpenAI 正在使用資料标注人員的人工回報來疊代模型,但是這些員工的回報并不能很好地代表更廣泛、多元的世界。是以,該公司希望擴充這些模型所代表的觀點和視角。

為此,它開展了一個更具實驗性的項目,名為“共識項目”。在這個項目中,OpenAI 正在研究使用者對于 ChatGPT 所産生内容的同意或不同意的程度。

舉例來說,相比“天空是否是藍的”這樣的單一次元問題,人們可能會對“稅收是否是好事”這類問題産生更加多元的回答。而 OpenAI 希望通過一定的訓練,讓 ChatGPT 可以代表不同的視角和世界觀。是以,人們或許可以用它來生成符合自己觀點的答案,而不是一刀切的答案。

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

(來源:資料圖)

GPT-4技術為何不公開?競争對手稱OpenAI已經變成完全封閉的公司

對于 GPT-4 的核心秘密,OpenAI 為何“守口如瓶”?

很多人都已經知道,ChatGPT 使用的是 GPT-3.5 的一個微調版本。而在最近,GPT-4——一種多模态大型語言模型也已經橫空出世。

使用 GPT-4 時,它可以同時對文本和圖像給出回應。比如當你打開冰箱,拍一張番茄的照片然後發給它,問它用番茄能做什麼菜,這時 GPT-4 就會嘗試制作和番茄相關的食譜。它也很擅長解釋笑話,如果你給它看一個表情包,它能向你解釋裡面有什麼有趣的梗。

目前 GPT-4 僅開放給 ChatGPT Plus 的付費使用者,要麼就是以 API 開發者的身份加入等待名單。并且,目前所有使用者都隻能使用文本模式。

作為業内同行,開源大語言模型 BLOOM 背後的聯合創始人托馬斯·沃爾夫(Thomas Wolf)說,一款優秀的多模态大模型一直是諸多大型技術實驗室所追求的目标。理論上,文本和圖像的結合可以讓多模态模型更好地了解世界。但是,GPT-4 仍然難遙不可及。不過,沃爾夫認為 GPT-4 或許能解決傳統語言模型的弱點比如空間推理的難題。

根據 OpenAI 的說法,GPT-4 之是以比 ChatGPT 表現更好,是因為它是一個擁有更多參數的大模型。在 OpenAI 之前的模型疊代中,參數的增加是一個重要趨勢。

參與開發 GPT-4 的工程師雅庫布·帕喬基(Jakub Pachocki)告訴《麻省理工科技評論》:“這個基本公式多年來并沒有發生太大改變。但這就像建造一艘宇宙飛船,你需要把所有小部件都做好,并確定沒有一個會損壞。”

比如,GPT-3 的性能優于 GPT-2,因為它的參數量是 1750 億,而 GPT-2 的參數量隻有 15 億,兩者相差 100 多倍。

對于 GPT-3,OpenAI 創始人奧特曼此前曾告訴《麻省理工科技評論》:“GPT-3 是人們第一次真正感受到一個系統的智能。GPT-3 可以做人類所做的事。我認為,這讓那些以前根本不相信通用人工智能的人開始認真對待它,并在之後發生了一些我們都沒有預料到的事情。”

如果說 GPT 的前幾代都是科研成果的話,GPT-4 更像一個成熟的産品。同時,GPT-4 也是 OpenAI 有史以來最神秘的新成果釋出,标志着 OpenAI 從非營利性研究實驗室全面過渡到營利性公司。

但是 OpenAI 這次并未透露 GPT-4 的參數量,不過奧特曼曾表示 GPT-4 是迄今為止 OpenAI 最大的模型。

同時,OpenAI 也并不打算公布 GPT-4 到底好在哪裡。GPT-4 釋出之後,《麻省理工科技評論》與其開發團隊進行視訊電話時,OpenAI 首席科學家伊利亞·蘇斯克弗(Ilya Sutskever)表示:“你知道,有些事我們現在還不能評論。外面到處都是競争對手。”

關于這一話題,正在看同類項目的投資人非常有發言權。投資公司 Tola Capital 的聯合創始人希拉·古拉蒂(Sheila Gulati)說:“對大多數公司來說,建立類似規模的模型的成本是無法承受的,但是 OpenAI 采用的方法讓初創公司非常容易接入大型語言模型,這将促進基于 GPT-4 的巨大創新。”

除了不公布參數量之外,OpenAI 也沒有透露 GPT-4 的建構方式,更沒有透露所使用的資料和算力。

這讓作為同行的沃爾夫不禁吐槽:“OpenAI 現在成了一家完全封閉的公司,所做的科學交流也越來越類似新産品的新聞稿。”不過這似乎也可以了解,畢竟 OpenAI 已經變成盈利性公司,自然要通過技術保密來維護利益。

北京智源研究院院長黃鐵軍教授認為:“OpenAI 成立的時候是開放的,隻不過為了訓練大模型必須有很多資金的投入,但是他并沒有放棄開放的夢想。目前可能是比較現實的選擇。”

但 OpenAI 也并非絕對地守口如瓶,在 GPT-4 所使用的技術上,它也做了一定的透露。其表示,通過使用與 ChatGPT 相同的方法,即借助于人類回報的強化學習技術,GPT-4 實作了諸如在律考中取得高分成績、以及識别梗圖等功能。

在運用基于人類回報的強化學習技術時,OpenAI 會要求真人評分者對模型的不同反應進行評分,以此來提升 GPT-4 的輸出品質。而且上一代 GPT 也使用了這款技術,是以這并不是一個“秘密武器”。

另外,OpenAI 還使用反向方法來讓 GPT-4 進行自我改進,即讓它産生可能會導緻偏見、不準确的或者攻擊性的回複,然後再借此修複模型,以便讓它以後可以自行拒絕這種輸入。

雖說 GPT-4 的表現可圈可點,但也并非沒有競品,比如 DeepMind 也有一款大模型 Flamingo;法國公司 Hugging Face 也正在開發一種開源的多模态模型,預計将免費提供給使用者。

是以雖說已經遙遙領先,但可以看出 OpenAI 頗有如臨大敵之感。面對這樣的競争環境,OpenAI 并沒有把 GPT-4 當成一項研究成果,而是作為一次新産品的試水。也正是以,在官宣 GPT-4 的部落格文章裡,OpenAI 特意展示了 GPT-4 的幾個應用案例,比如用于多鄰國軟體的語言學習、用于冰島政府的語言保護等。

不過,雖然 GPT-4 和 ChatGPT 的應用場景相當之多,但是當地時間 3 月 16 日,美國版權局釋出新規稱,通過 Midjourney、Stability AI、ChatGPT 等平台自動生成的作品不受版權法保護。對于 OpenAI 來說,版權問題也将是它接下來不得不面對的事情。

支援:Ren

參考資料:

https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/

https://www.technologyreview.com/2022/12/16/1065005/generative-ai-revolution-art/

https://www.technologyreview.com/2023/03/03/1069311/inside-story-oral-history-how-chatgpt-built-openai/

https://www.technologyreview.com/2023/02/21/1068893/how-openai-is-trying-to-make-chatgpt-safer-and-less-biased/

https://abcnews.go.com/Technology/video/openai-ceo-cto-risks-ai-reshape-society-97949497

https://www.technologyreview.com/2022/12/16/1065255/sam-altman-openai-lessons-from-dall-e-2/

繼續閱讀