天天看點

西湖大學學者:人類和ChatGPT應該是互補關系,而不是替代關系

作者:DeepTech深科技

人工智能時代已經到來。在過去的想象中,機器人可以快速地計算,也可以在極端環境下工作。但是,其最大的缺點在于,無法體會人類的語言和情感,不能進行創造性的思考。

然而,從戰勝全球頂尖棋手的 AlphaGo 到 OpenAI 創造的大語言模型 ChatGPT,人工智能正在一步一步地解構人類的思考邏輯和語言模式。換句話說,我們正在賦予人工智能更多的人類特征。最重要的是,ChatGPT 所代表的人工智能,具有非常快速的學習能力。

人工智能正在涉足各行各業,從金融到科技,從設計到工業生産。ChatGPT 的到來,作為科技界近兩年來最大的突破之一,蘊藏着巨大的機遇,同時也讓我們擔心,一部分崗位是否會被語言類 AI 取代。如果社會模式因為這些人工智能發生改變,我們能做什麼?

此刻,ChatGPT 是一個視窗,讓我們得以提前窺見充斥着人工智能的世界,以及在這樣的世界中,人類處于何種地位。這種前瞻式的引導,将幫助我們更好地了解 ChatGPT,以及其他各種形式的人工智能。

成生輝是西湖大學工學院和未來産業研究中心研究員、智能可視化實驗室負責人。近日,他出版了新書《ChatGPT——智能對話開創新時代》。基于他在元宇宙、人工智能、可視化、可視分析等領域的豐富經驗,該書将深入 ChatGPT,展示 AI 生成的内容如何徹底改變人們的思考、寫作和交流方式。

西湖大學學者:人類和ChatGPT應該是互補關系,而不是替代關系

圖 | 成生輝(來源: 成生輝)

這本書從解析 ChatGPT 技術模型要點出發,幫助了解 ChatGPT 的内在原理,然後進一步探索智能對話的邊界,即 ChatGPT 可以“進化”到何種程度。在書的後半部分,成生輝總結了 ChatGPT 行業前沿應用,并對未來經濟模式進行了展望。

知名孵化器 Founders Space 主席兼 CEO 史蒂文·霍夫曼(Steven S. Hoffman)推薦說,想了解 ChatGPT 如何颠覆社會,這本書将是一個完美的開始。

西湖大學學者:人類和ChatGPT應該是互補關系,而不是替代關系

(來源:《ChatGPT——智能對話開創新時代》)

接下來,本文将分享書中以及成生輝關于 ChatGPT 前沿觀點和思考,來幫助讀者了解一個嵌入 ChatGPT 的社會将如何運作,未來又将走向何方。

ChatGPT 是由 GPT 模型驅動的,是以,ChatGPT 本質上是一款 AI 産品,其背後的 GPT 模型是由 OpenAI 研發的一種大語言模型(Large Language Model,LLM)。LLM 是一種基于深度學習技術的自然語言處理模型,旨在了解和生成人類語言的文本。

在訓練模型的過程中,通常會使用人類回報強化學習(Reinforcement Learning from Human Feedback, RLHF)來改進模型。專家會對大語言模型輸出的結果進行評估和回報,給出獎勵或懲罰信号,以改進和調整模型。模型根據這些回報信号進行再學習,以提升其性能和效果。

大語言模型能夠通過學習海量的文本資料,掌握語言的文法、語義和上下文資訊,并能夠生成具有連貫性和合理性的文本。

它可以預測給定上下文下的下一個單詞、補全句子、回答問題、生成對話等。目前,指令微調大語言模型是 LLM 研究和實踐的主要方向之一,它能給出更加準确的資訊,同時也能保證輸出無害的資訊。在 OpenAI 等 AI 公司的努力下,指令微調 LLM 更加安全且更符合人類價值觀。

ChatGPT 誕生後,其它網際網路公司也釋出了類似的語言類人工智能産品,例如,百度的“文心一言”、華為的“盤古”模型和阿裡的“通義千問”等。

這些模型背後的技術原理相似,甚至一些應用是直接調用 GPT 模型的接口,其差異性主要展現在模型性能上。目前這些語言類 AI 中,ChatGPT 在響應速度和準确性上的優勢比較明顯。

由于國外對于大語言模型的研究起步較早,并且 OpenAI 投入了極大規模的研發成本,包括研發人員成本、訓練模型使用的裝置成本、訓練用的語料庫資料成本等。中國對于語言類 AI 的模型開發起步略晚,但是研發的速度很快,勢頭也比較猛。

西湖大學學者:人類和ChatGPT應該是互補關系,而不是替代關系

(來源:Pixabay)

在使用者體驗中,常常會碰到 ChatGPT 或者其它語言類 AI 答非所問的情況,而這與使用者提問的精準性是密切相關的。

首先,要保證可以給出清晰而具體的提問,要能夠給出盡量準确的關鍵詞。清晰且具體的表述,可以降低模型給出無關或錯誤響應的機率。對于一個過于複雜的目标來說,适當的拆解目标,然後發出指令是可行的方法之一。例如,如果直接對 ChatGPT 發出“寫一篇關于 AI 的文章”的指令,大機率會得到一篇不知所雲的文章。

一種可行的方法是,把“寫一篇關于 AI 文章”的大目标拆解為小目标,從架構到每一段的中心思想,逐漸的向 ChatGPT 發送指令,以達到完成一篇文章的目标。

其次,要學會引導模型,并适當矯正模型給出的答案,避免 AI 模型自行編造。目前,ChatGPT 已經深入到各個領域,包括創意、教育、技術、服務等各行業。對教育行業來說,ChatGPT 可以作為學生個性化學習輔助的工具。它可以回答學生的問題,提供解釋和示例,幫助學生了解複雜的概念和知識點。通過與 ChatGPT 的對話,學生可以得到即時的回報和指導。

此外,ChatGPT 可以大大提升學生獲得資訊的效率。對服務行業來說,ChatGPT 可以充當客服的角色。其實,AI 客服在服務行業中已經得到了廣泛的應用。但是,之前的 AI 客服隻能回報一些既定的模闆式的答案,而語言表達不夠自然流暢。

ChatGPT 生成的語言更接近人類語言,且能夠根據不同的需求生成更有針對性更具體的回報。可以說,ChatGPT 不再是一個沒有感情的模型,而越來越往富有“人性化”的方向發展。

西湖大學學者:人類和ChatGPT應該是互補關系,而不是替代關系

(來源:Pixabay)

然而,就像核武器一樣,任何技術都是一把雙刃劍。由于 ChatGPT 生成回複的方式是基于模型的訓練資料,它可能無法始終保證提供的資訊是準确、可靠的。

在某些情況下,它可能生成錯誤的回答或誤導性的内容,特别是當模型沒有足夠上下文或相關資訊的時候。例如,對于晦澀的問題,ChatGPT 可能會編造謊言,且 ChatGPT 在數理推理上的表現較差。

其次,使用 ChatGPT 時,使用者輸入的資訊可能會被記錄和存儲。這就會引發隐私和資料安全的問題,尤其是對于涉及敏感個人資訊或商業機密的場景。

更為重要的是,ChatGPT 的應用還有許多法律和道德責任的問題沒有解決。例如,責任歸屬、算法透明度、版權和知識産權等。可以肯定的是,人類将不會容許 ChatGPT 遊走在法律的邊緣。

一個被廣泛讨論的場景是,ChatGPT 應用于學生論文寫作或幫助完成作業。學習本身是一種思維訓練,通過做作業的過程實作思維模式的培養。是以,如果學生依靠 ChatGPT 來完成作業,就會喪失自我思考的能力。

在寫論文場景中,基于相關實驗,ChatGPT 生成的大部分文獻都是虛假文獻。是以,使用 ChatGPT 完成的論文,完全不符合高校論文的标準,并且學生還要花大量時間對其進行修改。是以,在學習中濫用 ChatGPT 并非明智的選擇。然而,ChatGPT 具有非常高效的資訊檢索能力,完全可以作為輔助學習的效率工具之一。

另外,ChatGPT 會讓很多行業消失,這是很多人所擔心的事情。ChatGPT 及其他生成式 AI 的發展确實可能對某些行業和職業帶來一定的影響,但是否會導緻大規模失業現象尚不确定。

對此,成生輝表示:“我認為ChatGPT 及生成式 AI 和人類相比,在創造性思維、情感了解以及較為複雜的決策性事務上并不具備優勢。是以,人類和 ChatGPT 之間應該是互補關系,而不是簡單的替代關系。”

此外,ChatGPT 等産品的發展可能創造出新的就業崗位,例如提示工程師等,可以利用這些技術創造出新的應用場景和商業模式。

那麼,我們應該怎麼面對 ChatGPT 所帶來的巨大改變?

成生輝認為,随着技術的發展,職業環境不斷演變,人們需要适應變化并不斷更新技能。在面對 ChatGPT 等技術工具時,人們可以通過轉型和學習新的技能來适應變化,包括培養專業技能、加強創新思維和解決複雜問題的能力,以及與 AI 工具協同工作的能力。

AI 時代勢不可擋,盡管對于人工智能語言模型還沒有合理合法的管控,但是 ChatGPT 所展現的能力已經足夠讓我們看見人工智能時代的未來場景。

對此,我們已經沒有時間去擔憂和恐懼,應該最大程度地發揮 ChatGPT 等 AI 的功能,進一步拟人化 AI 工具,同時建構一個靠譜的“護欄”,幫助人們颠覆生産的模式。

繼續閱讀