天天看點

GPT-3有多強?伯克利小哥拿它寫“雞湯”狂漲粉,還成了Hacker News最火文章?!

GPT-3有多強大?可不止能寫聯考作文。

最近,一位美國小哥用GPT-3寫的部落格,就打敗了一票人類作者,登上了新聞平台技術闆塊熱榜第一??

你沒聽錯。這位小哥名叫Liam Porr,來自加州大學伯克利分校計算機科學系。他參考最熱的網文風格,用GPT-3生成了幾篇文章,用筆名“adolos”開了個部落格,開始連續産出文章。

然而有趣的是,一大部分人愣是沒看出來文章不是人類寫的。接下來,他的部落格瘋狂漲粉,第一篇文章竟然就登上了YC新聞平台Hacker News熱門榜第一名。

Porr表示,他以adolos為筆名釋出的每一個文章都是從GPT-3輸出中複制粘貼過來的,幾乎沒有編輯。

并且,整個項目都異常迅速簡單。

“從我想到這個想法,到找到技術合作者,到我真正建立了這個部落格,再到第一個文章被瘋狂傳播——這大概隻花了幾個小時。”

用GPT-3寫“雞湯文”,登頂技術部落格最熱門首位

項目開始,Porr首先要決定的是,讓AI寫什麼類型的文章呢?

無需大量編輯即可生成内容是GPT-3的優點也是缺點。Porr說:“它擅長于編寫漂亮的語言,而并不擅長邏輯和理性。”

是以,他選擇了一個不需要嚴格邏輯的流行部落格類别——“雞湯”文。這種文章不僅好寫,并且在各種網站上都非常受歡迎。

之後,他按照一個簡單的公式來寫他的标題:在Medium和Hacker News上“翻來翻去”,看看在這些類别中發生了什麼,然後把一些相對相似的東西放在一起。

兩周後,他開始持續發文章營運部落格,Porr表示,第一篇文章在短短幾個小時内就迅速傳播開來,通路量超過了26,000。

Porr第一篇部落格文章,也是登頂Hacker News最受歡迎文章榜首文章标題為《感覺效率不高?也許你應該停止思考(Feeling unproductive? Maybe you should stop overthinking)》。

這個标題,還真的有那味兒了!

咱們再來看其中一個段落:

定義2:過度思考(OT)指試圖提出别人已經考慮過的想法,OT通常會導緻不切實際、不可能實作甚至愚蠢的想法。

似乎也能夠去懷疑這些文字不是由人類寫出來的,但現在網際網路上有很多品質不太好的文章,是以大部分人也沒有質疑這篇文章的作者。

甚至有讀者讀後留言稱,“好文!和Ethan Hawke在Ted的演講一樣深刻”。

文摘菌搜尋了一下,包括medium、YC的新聞平台等多家平台都轉載刊發了這篇部落格,直到現在人氣依然很旺。

感興趣的同學也可以自己去讀一下:

https://adolos.substack.com/p/feeling-unproductive-maybe-you-should

第一篇文章大火之後,Porr又持續釋出了一系列類似的文章,收獲了大批粉絲。

Adolos最後一篇文章的标題意味深長——為“如果我沒有道德,我将如何使用GPT-3”,文章用假設的方式描述了他的整個實驗項目。同一天,他還在自己真正的部落格上發表了一篇更直接的自白,結束了這個項目。

少數人懷疑AI參與了文章編寫,GPT-3将導緻線上内容品質下降?

盡管GPT-3一出,許多人就在猜測這款迄今為止最強大的語言生成模型有多強,能産出多逼真的内容,但此前都是大家在猜測,這次是第一次真實地證明了GPT-3的潛力。

Porr在短短一周時間内搞定了GPT-3,而在此之前他都沒聽說過這個模型。Porr說:“實際上,它超級簡單,這才是令人細思極恐的地方。”

GPT-3是OpenAI迄今為止推出最新、最大的AI語言模型。去年2月,OpenAI的GPT-2(該算法的早期版本)登上了新聞頭條,OpenAI宣布将保留該版本,以防被濫用。這一決定立即引發了強烈反響,研究人員指責該實驗室在搞噱頭。到了11月,該實驗室改變了立場,釋出了這個模型,稱“到目前為止沒有發現濫用的有力證據”。

總部位于舊金山的研究實驗室對GPT-3采用了不同的方法。它既沒有拒絕也沒有允許公衆通路。取而代之的是,它将算法提供給了那些申請私有測試的研究人員,目的是收集他們的回報,并在今年年底将這項技術商業化。

盡管GPT-3還沒有徹底開放,但據Porr表述,他擷取接口的過程也不難。他先是送出了一份申請,填寫了一張表格,裡面有一份關于他打算如何使用的簡單問卷。但他也沒有等待,在聯系了伯克利人工智能社群的幾名成員後,他很快找到了一名已經有此權限的博士生。這個研究所學生同意合作後,Porr就寫了一個小腳本讓他運作。它給了GPT-3一個部落格文章的标題和介紹,并給出了幾個完整的版本。

GPT-3是由總部位于舊金山的OpenAI設計的一系列AI自動完成工具的最新版本,最基本的說法來說的話,GPT-3代表的是“預訓練的生成式變壓器”(generative pre-trained transformer),它會根據人類作家的提示自動完成文本。

James Vincent對此解釋道:

與所有深度學習系統一樣,GPT-3也需要資料模式。為簡化起見,該程式已針對龐大的文本集進行了訓練,根據統計規律進行了挖掘,這些規則對于人類來說是未知的,但是它們被存儲為GPT-3神經網絡中不同節點之間數十億的權重連接配接。

重要的是,此過程中無需人工幹預:程式在沒有任何指導的情況下就能夠查找和發現資料模式,然後将其用于完成文本提示。如果你在GPT-3中輸入“fire”一詞,程式會根據網絡中的權重得出,“truck”和“alarm”等詞會比“lucid”或“elvish”更有可能出現。

Porr編寫了一個腳本,該腳本為GPT-3提供了部落格文章的标題和簡介,随後系統生成了該文章的幾個版本,Porr在這些版本中挑選出了适合部落格風格的版本,幾乎沒怎麼編輯就直接從GPT-3的生成結果中進行了複制粘貼。

Porr表示,該文章在短短幾個小時内迅速傳播開來,通路量超過了26,000。

Porr表示,他想證明GPT-3可以假裝人類作家。确實,盡管該算法的編寫模式有些怪異,并且偶爾會出現錯誤,但是Hacker News上的熱評使用者中,隻有三到四個人懷疑這篇部落格文章可能是由算法生成的,但這些質疑都立即遭到其他社群成員的反對。

長期以來,專家們對于這種語言生成算法都充滿了擔憂。自OpenAI首次釋出GPT-2以來,人們就一直在認為,這項技術容易被濫用,甚至OpenAI在自己的部落格文章中也重點介紹了AI被武器化後生成大量錯誤資訊将會造成怎樣的後果。

Porr說,他的實驗還顯示了一個普遍但仍同樣令人困擾的替代方案:人們可以使用該工具生成大量内容誘導讀者進行點選閱讀。他說:“這樣很有可能導緻大量平庸的部落格出現,線上内容的價值将大大降低。”

“在私人Beta版中釋出GPT-3的目的是,使社群可以利用OpenAI展示它們的新用例。”Porr寫道。值得注意的是,盡管Porr申請了GPT-3的API,但他仍無法進行通路,他向《麻省理工學院技術評論》坦言,“這讓我很沮喪”。

GPT-3被玩兒壞了,不僅可以讓AI寫食譜,還能寫谷歌的廣告詞

為了讓更多人享用到GPT-3的魅力,OpenAI最近也開放了GPT-3的API接口,不用碼代碼也能輕松上手。

這不,除了上文提到的寫部落格,還有很多之前對技術不感冒的大V也紛紛開始試用,并做出了一些很酷的demo,在Twitter引起了熱議,網友紛紛表示,“GPT-3被玩壞了”。

比如舊金山一位開發商和藝術家Arram Sabeti就在推特上說:“玩GPT-3就仿佛可以看到未來。”這幾乎就是自GPT-3釋出以來社交媒體上大部分人對這個強大語料庫的反應。

Sabeti在部落格上展示了他用GPT-3做的許多AI生成文本項目,比如可以用AI寫一篇短篇小說,用AI寫歌、新聞稿等等。他還發了一篇博文稱,“GPT-3幾乎什麼都能寫!”

Sabeti部落格連結:

https://arr.am/2020/07/09/gpt-3-an-ai-thats-eerily-good-at-writing-almost-anything/

除此之外,還有一位名叫elyase的熱心網友整理出了大家用GPT-3做的項目集錦,有趣的Demo項目都在這個合集裡:

https://github.com/elyase/awesome-gpt3

文摘菌看了一下,有用GPT-3做資料分析的,比如根據描述建立圖表;有做邏輯推理的,比如讓GPT-3做數學題;還有一些比較正常的文本生成項目,比如可以讓AI幫你想Google的廣告詞:

可以讓AI幫你做簡報、做創意食譜,還能讓它生成莎士比亞風格的詩歌。

Wired有一篇文章寫道,“GPT-3如此令人着迷,或許更多地證明了語言和人類智能存在的魅力,而非人工智能。人們在Twitter上發表的一般都是正向的誇贊,而不是指出它的缺點,這可能會在無形中誇大GPT-3”。

随着GPT-3在AI界得到廣泛應用,就連它的發明者也在呼籲要謹慎行事。OpenAI的首席執行官Sam Altman周日在twitter上寫道,“GPT-3的炒作太過了,它仍然有嚴重的弱點,有時還會犯非常愚蠢的錯誤。”

就比如adolos這篇騙過了幾乎所有人類的部落格。

Porr的做法證明了GPT-3強大的功能,因為幾乎所有人都誤認為這些部落格文章是由AI編寫的,不過,與此同時,Porr也表示:“實際上,這非常容易做到,這也正是令人恐懼的地方。”

繼續閱讀