專家呼籲人工智能應該“倒退”,不少人疑問,AI真有這麼可怕嗎?
随着大模型火熱依舊、AI熱度不減,關于人工智能倫理的讨論一直占據話題熱榜。前段時間,馬斯克及一批行業專家建議暫緩AI研究,此後各大媒體網站關于技術倫理的報道就沒少過。
本篇早科技專欄,也想跟大家聊聊技術倫理這件事。
技術的“副作用”其實是老生常談
在人們對于現在AI發展的大規模恐懼之前,已經有不少文學作品和學術研究,針對技術倫理進行了深度詳實的研究。
所謂技術倫理,簡單說,就是警惕技術發展帶來的對于人本身、以及社會發展的種種負面影響。這其中,工業發展(特别是計算機技術)對人的異化,是技術倫理課題中讨論的重點。
最典型的莫過于工業革命時期開始出現的流水線勞工,卓别林的《摩登時代》,已然在大熒幕上将機器對人的異化進行了充分表現。流水線的勞工沒有自主能動性,隻能跟随機器生産進行機械勞動。
當人的身體無法被自己的精神所自主要制,這就是異化。
工業發展到今天,帶領社會進入一個人工智能随處可見的時代,最典型的異化,莫過于手機對人的控制。
看似是使用者在“玩”手機,但事實上,一旦我們打開短視訊APP,抖音、快手亦或是小紅書上充斥着新鮮且“趣味十足”的内容,使用者很難不被海量刺激性的内容牽着鼻子走。等到意識到時間流失,可能在抖音上消耗的時間已經超過2個小時。
一些長視訊APP也是如此,在點選全屏播放後,整個螢幕都找不到能夠顯示目前時間的地方。等到一集又一集播放完,我們擡頭朝窗外看,才發現天都黑了。這就是工業發展對人進行異化的表現之一。
電子産品對人的控制和異化,已經越來越難以擺脫。
這也是人們恐懼人工智能的地方,随着大模型訓練越來越智能,對于人們需求和情緒的把握越來越精準。我們面對AI就像面對一個懂得“花言巧語”的詐騙犯,無法從中抽離,也難辨真假,最後“乖乖”掏出所有。
對于精神的控制,對人的異化,是人類面對AI最深的恐懼,所有關于人類可能因為AI覆滅的悲觀預言,都跟技術黑箱帶來的不可控未來息息相關。
也正是因為這樣的原因,在技術發展的同時,總會有不少有識之士對其保持警惕,警惕工業生産便利之餘帶來的“副作用”。
既然這不是一個新鮮話題,既然機器生産帶來的技術倫理問題已經如此多,卻遠不像今天的大模型訓練和GPT讓人來得恐懼?甚至呼籲停止更進一步的技術發展?
筆者以為,也許技術黑箱,也即AI的自動進化能力是其中一個重要因素。
把話語權抓在自己手上
當AI被嵌入一套能夠自動進化的算法當中,它能夠主動進行資訊收集、自動清洗、為己所用、自動進化等一系列流程。這中間甚至不需要開發者的參與,AI就能夠随着資料庫的逐漸擴大,實作甚至超越開發者最初的目的。
據悉,深度強化學習已被應用于空戰,機器學習被用于制造化學武器,GPT-4如今已經能自主進行實驗和合成化學品。
僅掌握這些也許還不構成最大威脅,人們擔心的是,目前AI訓練的資料庫中包含海量的日常資訊。
當AI吸收了人類在網際網路表達的一系列情緒和心理,能夠擷取到人類的恐懼情緒,擷取到人類對于AI取代自身的擔憂,甚至學會了欺騙和生成虛假資訊,學會隐藏什麼是它應該知道的,什麼是它不應該知道的,也即不少人說的“自主意識”。
這可能是普通人對于AI最深的恐懼,我們害怕電影中的場景會很快成為現實。
ChatGPT在回答使用者問題時,已經出現了很明顯的錯誤,且筆者在使用過程中發現,這樣的錯誤答案嵌在生成的完整答案中,并不十分明顯,換句話說,這些錯誤的資訊很容易被視為真實。
此前,百度因為競價廣告造成的醫療事故而成為全民讨伐對象,現在,如果提供答案的變成了這類應用還不成熟的AI助手,屆時,誰又該為造成的事故買單?
以上AI會引發的問題,還隻是冰山一角。
那麼,是否該如一些行業專家建議的那樣,停止開發GPT-4以上的人工智能應用?
百度CEO李彥宏在5月26日舉辦的中關村論壇上如是表示,“要參與規則的制定,就要先上牌桌,上了牌桌才能有話語權,才有全球競賽的入場券,”他認為,相比于單純讨論和思考AI威脅論,商業公司首先要縮短和國外AI大模型的差距。
李彥宏的言論代表自己,當然也代表百度,而有類似想法的,國内外從事科技和AI開發的研究人員,應該不止一位。
不知道各位讀者是何看法,歡迎大家在評論區交流。但筆者以為,技術或者人工智能繼續發展的風險,到今天似乎來到了頂峰,但關于技術産生的負面影響從來沒有消失過。
過去幾十年,對于大型科技公司收集使用者資訊并用于盈利這件事,一些開發中國家的使用者很少意識到并進行強烈譴責。對于生活便利的追求,讓很多人願意用自己的隐私進行交換,将權利讓渡給這些企業。
技術對于生活的改變并非今天才是新聞,面對AI的焦慮已經存在許久,也許技術可以誘導人做決策,但或者我們可以對人的主體性和自主能力保持多一點的樂觀和信心。
如果說進化論是真理,那麼面對必然要到來的人工智能社會,人的主體性、情感、價值觀也應該随之進化,并變得更加有價值,畢竟人工智能所需要的所有資料,還是來自于最初人類的創造,AI擁有“自主意識”,看起來更像是一種表象。
在前不久警惕AI風險的倡議中,中國科學院自動化研究所人工智能倫理與治理研究中心主任曾毅,也簽署了這份《AI風險聲明》,并強調:“公開信的目的不是阻礙AI的發展,而恰恰是在探索AI穩健發展的途徑。”
AI要穩健發展,比起停止開發,對于可能存在的犯罪進行預防和追責同樣重要。對那些借助AI散播虛假資訊和盜用隐私的一小撮人,及時進行法律追責。
用好法律,而不是把所有的虛假歸咎于技術本身,而非對于創新的限制,也許是現階段更加迫切的事情。
【免責聲明】本文僅代表作者本人觀點,不構成任何投資建議。