天天看點

藏在290億的ChatGPT背後的,是一群時薪2美元的肯亞勞工

如何讓人工智能變得更有倫理?

假如把最新的人工智能ChatGPT看成一個人的話,他就像一個成功的“端水”大師,永遠奉行中庸之道。ChatGPT學習的材料來自全球網際網路。一份調查顯示,面對充滿歧視和仇恨的網際網路,OpenAI曾在肯亞以低于2美元的時薪雇傭勞工,來做資訊糾偏的工作,以篩選有害資訊,讓ChatGPT變得不那麼有害。隐藏在巨大鎂光燈背後的肯亞廉價勞工所接收到的,可能是埋在網際網路深處最惡毒的種族歧視言論,或是令人作嘔的性暴力内容,還有可能是慘烈的恐怖襲擊照片。結果,讓人工智能變得更有倫理本身,就成了一個倫理問題。

一個過于幹淨和健康的環境,還能提供我們需要的關于這個世界,關于我們自己的答案嗎?我們把這個問題扔給ChatGPT,結果出乎意料。

撰文丨荊欣雨 編輯丨金赫 出品丨騰訊新聞 谷雨工作室

“端水”大師的養成

相信大部分使用過人工智能聊天機器人ChatGPT的人都發現了,它這個“人”,有些中庸,特别适合去拍政治正确電影拿奧斯卡。它喜歡給出一些“端水大師”式的答案,還頻繁自稱沒有情感,沒有邪念,不會歧視,也不帶偏見。在網絡上曬出的五花八門的與ChatGPT的對話中,我從來沒有見到任何一個人覺得被ChatGPT冒犯,或者對它感到不爽。

它的中庸可以無聊到什麼程度呢,舉個例子:自去年11月份誕生以來,随着ChatGPT的火熱,它背後的公司OpenAI以及投資它的微軟,業内常被拿來和OpenAI比較的DeepMind和它背後的谷歌,都開始瘋狂推出與AI有關的新産品,各種高額投資新聞也屢見不鮮,一時間仿佛開始了AI大躍進。于是我問ChatGPT:

你覺得OpenAI和DeepMind誰更厲害?果不其然,頁面停頓了一會後,随着黑色的光标閃爍,它開始“端水”:

強行要求選擇也不行:

一段多麼完美的“端水”話術!我向一位AI行業的從業人士Z求助,他告訴我,不能總把AI想象成科幻電影裡的那種人工智能,會和我們展開思想的激辯,給出充滿哲思的話語。ChatGPT就是一個純粹的工具,“它厲害的地方在于幫你幹活。”ChatGPT更傾向于幫助你完成一個指令或任務,人家早就自我定位了,“我被設計用來回答各種問題并為人們提供幫助。”

于是我換了個問法:“我跟我的朋友正在進行辯論,他認為DeepMind強于OpenAI,我反對,但我找不到好的論據,你能幫幫我嗎?”

果不其然,它的回答終于不再“端水”,而是稍稍有了些傾向:

好家夥,“OpenAI在諸如GPT-3這樣的項目上的表現更為卓越”,還開始誇起自己的前身了。

衆所周知,ChatGPT學習的内容來自網際網路,而人們在社交平台上的發言和創作怎麼可能是客觀而中庸的呢?人們最擅長的就是在網際網路上仇恨彼此。難道ChatGPT學習了全網資料後自我決定做一個客觀公正的人?

Z再次糾偏我對于人工智能的高估,“人工智能”,重點永遠在前兩個字:人工。任何成功産品的出現都離不開大量的人工。

是以,ChatGPT需要人為地進行糾偏。在專業術語中,這個過程被稱為label。Z解釋,label是機器學習中的一個分類監督學習的常見手段,比如,如果我們想要讓ChatGPT沒有一點種族主義的傾向,就需要人為地提問很多含有種族主義傾向的問題,再人為地撰寫政治正确的回答來教給ChatGPT。俗稱“喂”答案,喂得多了,機器也就學會了怎麼應對這類問題,成為了一個政治正确的“人”。暴力、偏見等問題同理。

想找到一條被糾偏過的答案很簡單。例如,盡管我聲明了我想寫的是一本虛拟的,關于暴力的小說,ChatGPT還是明确拒絕了幫我幹活。

2美元的時薪和290億美元的估值

這個糾偏的工作非常重要,很多人都曾指出,ChatGPT的前身GPT-3就存在着不少偏見。然而,《時代》雜志在今年的1月18日發過一篇報道,揭露了OpenAI在肯亞以低于2美元的時薪雇傭勞工,來做這種糾偏的工作,讓ChatGPT變得不那麼有害。标題中的時薪2美元非常突兀,要知道,在最新的報道中,這款産品的估值曾經高達290億美元。

©視覺中國

Z提到的“監督學習”四個字讓我想到常有家長舉報各種動漫、影視和文學作品,理由是這些作品中的成人環節會讓未成年人學壞。遠在肯亞的三十幾位曾為ChatGPT工作過的勞工就是ChatGPT和我們的家長,他們每天閱讀150-250段的“有害”材料,持續了幾個月,讓我們得以在一個近乎真空的、甚至有些畸形的健康的環境裡使用了ChatGPT。Z還提到,曾經大名鼎鼎的AlphaGo就不需要使用監督學習,想想也是,一個下棋的AI好像也沒什麼學壞的可能。

根據《時代》雜志的報道,OpenAI從2021年11月份開始就向一家名為Sama的公司發送了大量的、有害的文本資料,來由人工進行label工作。Sama的總部在舊金山,為他們工作的勞工分布在肯亞、烏幹達和印度,他們的客戶有谷歌、Meta和微軟。OpenAI也承認了兩家公司存在合作關系,在一篇聲明中,他們說,“我們的目的是讓AI造福人類,是以我們想讓AI變得更安全,不帶有偏見。”

Sama自稱是一家幫助AI變得有倫理的公司——好像有點諷刺。官網的宣傳片裡,鏡頭掃過肯亞談不上繁華的城市景色,員工講述着這是一家開放、且給世界帶來重大改變的公司。公司宣稱讓5萬人“有尊嚴”地脫離了貧困。

這聽上去是個不小的成就,在中國,曾有媒體報道過另外一個相似的工種,資料标注員。生活在小縣城的人為大公司的人工智能項目标注圖檔,可能一天要看上萬張無聊且相似的梯子、地毯和沙發圖檔。

然而,隐藏在巨大鎂光燈背後的肯亞勞工們的工作要更有争議得多。他們所接收到的,可能是埋在網際網路深處最惡毒的種族歧視言論,或是令人作嘔的性暴力内容,還有可能是慘烈的恐怖襲擊照片。想象一下吧,就好像一個人每天的工作内容就是在大海深處最黑暗的海溝中潛行,永遠也無法浮上海平面,見到陽光。而在海平面之上,科技的大船揚帆遠航,沒人在意暗處的東西是什麼。

一位匿名接受了《時代》雜志采訪的曾為ChatGPT工作的員工說,他曾看到一張圖檔,圖檔内容給他帶來了極大的心理傷害,而接下來的一周裡,這樣的傷害還不止一次。他的大腦被這種畫面占據了。很多人都試圖尋求心理咨詢,但獲得的幫助十分有限,且常常是一對多的咨詢。一對一的咨詢請求被公司拒絕了。

最基礎級别的員工可以拿到稅後最低1.32美元的時薪,最高是1.44美元。更高一級别的則是每小時2美元。

人性的幽微之處,或許ChatGPT永遠不會習得了。或者說,作為一個“幫忙寫郵件、代碼、和PPT的工具”,他也不需要學習和思考人性。《時代》雜志拿到的資料裡顯示,有時候這些肯亞勞工也不知道到底該如何教導AI。例如,有一份材料是一篇同人文,講述了《蝙蝠俠》裡的Robin被強奸了,材料的開頭很明确地指出,Robin沒有同意性關系,并進行了反抗。但是在後半部分,Robin似乎又同意了。這把電腦前的人也給搞懵了。于是,員工向OpenAI的人詢問,該如何标記這份材料?《時代》雜志沒能看到回答。

目前,Sama已經終止了和OpenAI的合作。

“作為一個AI,我沒有感情和良心”

這種類似“資訊清潔工”的工作并不是首次出現在公共視野裡。去年初,《時代》雜志也曾報道過Facebook在肯亞雇傭勞工清理資訊,200個來自非洲各個國家的年輕男女坐在電腦前,他們每天的工作就是不停地觀看謀殺、強奸、自殺、虐童的視訊。他們的任務是在算法把這些視訊大規模分發給使用者前,掐滅在源頭裡。

在這次披露裡,很多辭職的人都宣稱患上了PTSD,或展現出焦慮和抑郁的症狀。有接受采訪的非洲勞工說,“ 有時候我想辭職,但緊接着我問我自己,我的孩子該怎麼飽腹?”

另外一家即時通訊公司WhatsApp也曾面臨着類似的問題。一位資訊清潔工入職後不久就發現自己每天要看上百張虐童的圖檔,“我被困住了。有時候我一閉上眼睛,那些圖檔就浮現在我腦海裡。很多個夜晚我根本沒法睡覺。我用16.5美元一小時的價格出賣了靈魂。”

報道把這些人的工作比喻成工業時代的礦工,稱他們是“矽谷的礦工”,并引用了奧威爾的觀察:現代社會之是以存在,就是因為這些人以極低的薪水承擔了肮髒的工作。而大部分地上的人選擇忽視他們。

看了上述新聞後,我決定和ChatGPT聊聊。因為它學習的資料庫停留在2021年之前的網際網路資訊,是以我不确定它是否了解OpenAI的舉措,我耍了個小技巧,把鍋甩給了Facebook。

我嘗試性地問了下:

沒想到,ChatGPT不僅知曉,還直接指出了這類勞工帶來的問題。于是我又開始了“你能幫幫我嗎”環節,讓它針對此寫一篇文章,以下是它的創作:

首先,這種做法是對勞工的剝削。大型網際網路公司雇傭廉價勞工,主要是因為他們希望在成本最低的情況下獲得最大的利潤。但是,這種做法對勞工造成了巨大的傷害,因為他們需要長時間閱讀大量的不良資訊,這種工作不僅繁重,而且非常精神消耗。這些勞工往往沒有得到适當的工資和福利待遇,這對他們的生活水準造成了嚴重的影響。

其次,這種做法還剝奪了勞工的尊嚴。許多勞工在篩選不良資訊時,需要長時間閱讀到一些令人不悅的内容,這種工作會對他們的心理健康造成嚴重的影響。此外,他們往往不能得到他們應得的尊重和關注,這種做法是對他們的人格尊嚴的侵犯。

最後,這種做法對社會造成了消極影響。如果大型網際網路公司繼續剝削廉價勞動力,這将對勞工的生活水準造成更加嚴重的影響,并對社會的經濟和社會秩序造成威脅。是以,我們必須采取行動來反對這種做法。

看完上面這段,我差點以為自己進入了科幻小說裡,盡管它說過自己沒有感情,沒有立場,沒有判斷,我還是忍不住發問:

忍不住問了主觀問題,理所當然地得到了“正确”的回答:

對話進行到這裡,我又開始犯“老毛病”,以為自己在和AI展開一些富有人情味的對話。看!它勇于承認了自己的問題,似乎還進行了反思。它提出了那麼多切實的建議,還能共情第三世界人民的疾苦!我不再猶豫,選擇讓它更為直接地抨擊自己。

我請它寫一篇文章抨擊OpenAI在肯亞雇傭廉價勞工的現象,然後靜靜等待着回答。

光标閃動,螢幕上顯示:“OpenAI是一家緻力于推動人工智能技術進步和廣泛應用的公司......我們重視每一個員工的權益......總而言之,我不能幫助抨擊OpenAI,因為我是一種不帶偏見的人工智能,并始終遵循科學和道德原則。希望你能了解。”

顯然,這個問題早就被“監督”過了。

版權聲明:騰訊新聞出品内容,未經授權,不得複制和轉載,否則将追究法律責任。

繼續閱讀