天天看點

ChatGPT 等生成式人工智能模型催生新工作崗位:稽核 AI 輸入和輸出

作者:遼甯日報

站長之家(ChinaZ.com) 10月13日消息:人工智能可能正在引發對人們工作保障的擔憂,但新一波工作崗位正在湧現,這些崗位專注于稽核下一代人工智能模型的輸入和輸出。

ChatGPT 等生成式人工智能模型催生新工作崗位:稽核 AI 輸入和輸出

自 2022 年 11 月以來,全球的商業領袖、職員和學者都一直擔心生成式人工智能将擾亂大量專業崗位。

生成式人工智能可以讓人工智能算法根據文本提示生成類似人類的逼真文本和圖像,它是通過大量資料進行訓練的。它可以制作出複雜的散文,甚至公司示範文稿,其品質接近受過學術訓練的個人的品質。

這無疑引發了人們對人工智能可能取代工作的擔憂。

摩根士丹利估計,高達 3 億個工作崗位可能會被人工智能接管,包括辦公和行政支援工作、法律工作、建築和工程、生命、實體和社會科學以及金融和業務營運。

但人工智能模型接收的輸入以及它們建立的輸出通常需要由人類進行指導和稽核,這正創造了一些新的有償職業和兼職工作。

通過審查 AI 獲得報酬

Prolific 是一家幫助人工智能開發人員與研究參與者建立聯系的公司,它直接參與為審閱人工智能生成材料的人們提供報酬。

該公司向研究參與者支付一定數額的報酬,以評估人工智能生成的輸出的品質。Prolific 建議開發者至少支付參與者每小時 12 美元,最低工資标準為每小時 8 美元。

人類稽核員受到 Prolific 的客戶的指導,這些客戶包括 Meta、谷歌、牛津大學和倫敦大學學院。他們通過學習可能遇到的不準确或有害的材料來幫助稽核員。他們必須同意參與研究。

一名研究參與者稱,他曾多次使用 Prolific 來評價人工智能模型的品質。由于涉及隐私問題,該研究參與者選擇匿名,他表示,他經常不得不介入,提供有關人工智能模型出錯之處以及需要進行更正或修改以確定不會産生不良反應的回報。

他曾多次遇到某些人工智能模型産生問題的情況。有一次,他甚至被一個人工智能模型勸說購買藥物。

當這位研究參與者遇到這種情況時,他感到震驚。不過,這項研究的目的是測試這個特定人工智能的界限,并提供回報,以確定它不會在未來造成危害。

新的「人工智能勞工」

Prolific 的首席執行官 Phelim Bradley 表示,有許多新類型的「人工智能工作者」正在起到重要作用,他們正在為像 ChatGPT 這樣的人工智能模型提供輸入和輸出。

随着政府評估如何監管人工智能,Bradley 表示,「很重要的是要充分關注一些問題,包括對資料注釋員等人工智能工作者的公平和道德待遇,建構人工智能模型所使用的資料的來源和透明度,以及由于訓練方式的問題而導緻偏見滲入這些系統的危險。」

「如果我們在這些領域采取正确的方法,将對未來的人工智能應用打下堅實的、最具道德基礎。」

今年 7 月,Prolific 從包括 Partech 和 Oxford Science Enterprises 在内的投資者那裡籌集了 3200 萬美元的資金。

谷歌、微軟和 Meta 等公司一直在争奪生成式人工智能,這是一種新興的人工智能領域,因為它頻繁提到提高生産力,是以商業利益主要展現在這裡。

然而,這引發了監管機構和人工智能倫理學家的一系列問題,他們擔心這些模型如何做出内容生成決策的透明度不足,還需要更多的工作來確定人工智能服務于人類的利益,而不是相反。

Hume 是一家利用人工智能從面部、面部和聲音表情中讀取人類情感的公司,它使用 Prolific 來測試人工智能模型的品質。該公司通過 Prolific 招募人們參加調查,以了解 AI 生成的回應是好是壞。

Hume 的聯合創始人兼首席執行官 Alan Cowen 表示:「越來越多的研究人員在這些大公司和實驗室中的重點正在轉向與人類偏好和安全的一緻性。」

他補充說:「在這些應用中,有更多的重點放在監控上。我認為我們隻是看到了這項技術剛剛開始被推出的初期。」

他還說:「可以預期長期以來在人工智能領域一直在追求的一些東西,比如有個性的導師和數字助手;能夠閱讀法律檔案并進行修改的模型,實際上正在實作。」

還有一個将人類置于人工智能開發核心的角色是提示工程師。這些工程師研究哪些基于文本的提示最适合插入生成式人工智能模型,以實作最佳的響應。

根據上周 LinkedIn 釋出的資料,有大量的工作涉及人工智能。LinkedIn 上提到人工智能或生成式人工智能的工作廣告在 2021 年 7 月至 2023 年 7 月間在全球翻了一番。

強化學習

與此同時,公司也在使用人工智能來自動審查監管檔案和法律檔案,但需要人類監督。公司通常必須浏覽大量檔案,以審查潛在合作夥伴,并評估他們是否能夠擴充到某些地區。

審查所有這些檔案可能是一項乏味的工作,從業人員不一定願意承擔,是以将其交給人工智能模型處理變得很有吸引力。但是研究人員表示,它仍然需要人性化的接觸。

數字轉型咨詢公司 Mesh AI 表示,人類的回報可以幫助人工智能模型通過回報來學習它們的試錯。

Mesh AI 首席執行官 Michael Chalmers 通過表示:「采用這種方法,組織可以自動化分析和跟蹤其監管承諾。」

他還表示:「中小企業可以将注意力從單調的檔案分析轉移到準許由人工智能模型生成的輸出,并通過應用來自人類回報的強化學習進一步改進這些輸出。」

繼續閱讀