天天看點

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

作者:量子位

楊淨 蕭箫 發自 凹非寺

量子位 | 公衆号 QbitAI

奧特曼簡單一句話,讓AI創業公司瑟瑟發抖:

“套殼”OpenAI,注定消亡!

這是在最新YC校友分享會上,OpenAI CEO奧特曼發表的演講觀點。為此他還特意補充道:尤其别花太多精力在UI界面上。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

一時間引發共鳴無數。不少業内人士表示:

現實是,我就在目睹很多這樣的事情發生。
奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

除了這句話以外,奧特曼這段演講中可謂金句頻出,個中不少“幹貨細節”,也被大夥兒紛紛摘錄轉發——

包括GPT-5、6的進展,關于AGI未來趨勢的看法,以及親身創業的種種。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

比如,“AI女友”隻是個美麗的陷阱,千萬不要輕易嘗試。

特意取個ChatGPT這樣很像機器的名字,人類就不會對它産生感情。
奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

聽完演講後的網友,甚至将之形容為“金子一般的收獲”。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

是以奧特曼究竟在這場演講中分享了啥?一起來看看。

“簡單學我者死”

在YC Alumni Reunion 2023上,奧特曼是有一些創業建議在身上的。在一些熱心網友的總結中,大緻可以分為三點:

  • 簡單包裝OpenAI的公司活不長久。
  • 看好AI醫學顧問、AI個性化一對一輔導等方向。
  • 盲目籌資是非常不明智的。

第一點對于簡單包裝,奧特曼舉例比如有公司正在解決GPT模型的小缺陷,尤其隻在界面上做文章的。

一來,OpenAI已經在解決大部分工作了;二來,這些僅在成本和速度上與OpenAI一較高下的公司,競争優勢并不會長久且持續。企業必須在提供真正獨特的價值。

有網友聯想到,前段時間紅杉資本提出生成式AI進入到第二階段——

炒作和快速展示正在被真正有價值和完整的産品體驗所取代。

種種觀點,其實不謀而合。

不少業内人士都表示了肯定:

不要把自己放在菜闆上,被OpenAI的下一個版本殺死。
奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

(嗯,有官方逼死同人内味了doge)

但也有人提出了不同的觀點:這種說法已經太多了,對我來說似乎很愚蠢。它透露了幾點資訊:壟斷是好事;先發優勢将會獲勝……但競争會促進進步,ChatGPT也确實有很多缺點可以改進。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

既然如此,那有哪些方向是值得一做的呢?

第二點,奧特曼看好AI在醫學、教育上的賦能——

AI醫學顧問以及AI個性化一對一輔導。這兩者社會價值都十分巨大。

比如在教育場景,OpenAI自己也十分積極。

消息稱,OpenAI正在籌建OpenAI學院,預計2023年底啟動。它有可能是人人可通路的免費線上教學系統,老師能與GPT-5來互動,在課程期間接收回報和指導。

在此之前,OpenAI也在GPT-4客戶案例中展現了兩個教育場景。GPT-4化身AI學習助手,既可以作為學生的虛拟導師,又可以作為教師的課件助手。

第三點,沒有計劃的盲目籌資非常不明智。别以為有錢了就萬事大吉。

總結的網友還順帶說了句:奧特曼能做,不代表你也能做。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

GPT-5究竟長啥樣?

另一個熱度極高的話題,就是OpenAI的下一代大模型——GPT-5和GPT-6了。

對此,奧特曼在演講中也劇透了下一代大模型的長相,但不多:

GPT-5和GPT-6将具備多模态輸出能力,相比現有的GPT可靠性更高、個性化定制體驗更好。

具體的多模态能力,有網友預測是能更好地完成像grounding這種NLP和視覺場景對齊的任務,如圖像标注、視覺問答等。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

結合此前奧特曼還暗示過GPT-5會具備語音識别、合成和情緒檢測等新功能來看,GPT-5應該會具備“圖文聽說”等各種模态對齊的能力。

借着GPT-5和GPT-6的話題,奧特曼還給大模型“布了個道”:

現在,大模型領域的“摩爾定律”(Scaling Laws)已經開始發揮作用。大模型訓練成本正變得更低、調用GPT接口的價格将變得更便宜。

Scaling Laws是OpenAI在2020年提出的一條定律,簡單來說就是随着模型大小、資料集大小和用于訓練的計算浮點數的增加,模型的性能會提高。

奧特曼認為,随着未來能源和計算成本快速下降,更強大的AI能力将會出現,“此前不敢想象的很多東西會被做出來”。

但即便大模型前景如此光明,奧特曼表示“距離AGI之路都還有很遠”——

無論是GPT-5還是GPT-6,都還遠遠不及AGI。

甚至光是“像人”這一标準,現階段就還沒AI Chatbot能做到:

即使背後用上了最前沿的AI技術,也沒讓我感覺到在和一個“人”聊天。

奧特曼認為,真正的AGI将能夠掌握“自行推理”,即随着時間推移發展出新知識。像是能夠根據實體學已有知識,寫論文、做實驗的AI,才能夠得上AGI的門檻。

不過無論如何,都應該謹慎對待AI的輸出結果:

人們會原諒人犯錯誤,但不會原諒計算機,二者的标準是不一樣的。

對于AGI時刻的來臨,奧特曼也給出了一個想象:

到那個時候,人們可能會經曆一定程度的自我認同危機,但不會太糟糕和混亂。我們經曆過很多次這樣的時刻,技術終将變得無處不在。

“一個大學生堅持的結果”

最後,關于ChatGPT本身,奧特曼還cue到了兩個小小的“花絮”。

其一,ChatGPT之是以叫ChatGPT,沒有像人名的昵稱,就是因為奧特曼不想往“AI女友”産品的方向上走。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

其二,ChatGPT并非OpenAI最初就“傾力投入”的一個項目。

由始至終,OpenAI甚至隻有一個大學生堅持做大模型方向的研究,其他人或多或少都轉向過機器人、或是遊戲AI等其他領域“發發論文”。

這個隻搞大模型的大學生,就是Alec Radford,如今在谷歌學術上的論文引用次數已經達到9.6w+。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

2016年,Alec Radford于富蘭克林·歐林工程學院(Franklin W. Olin College of Engineering)取得學士學位,随後加入OpenAI,一幹就是7年。

正是他所堅持的大語言模型路線,改變了OpenAI公司、乃至整個AI領域的發展方向。

對此,奧特曼半調侃半認真地表示:

招聘時,記得關注那些“看起來不會加入公司”的人。

OpenAI一開始并未确定大模型這一研究方向,但我們仍然招了AI研究員,并在取得突破後讓更多人加入其中,最終成就了ChatGPT。

結合OpenAI招聘人才“不限行業”的規定,打破慣例看來已經成為這家公司獲得靈感和活力的新動力了。

奧特曼YC演講:套殼ChatGPT者死,我行不代表你行

參考連結:

[1]https://twitter.com/sama/status/1705751665293554120

[2]https://www.linkedin.com/posts/ibamasood_chatgpt-can-now-hear-see-and-speak-nervous-activity-7112087060068368384-0OXb/

— 完 —

量子位 QbitAI · 頭條号簽約

關注我們,第一時間獲知前沿科技動态

繼續閱讀