天天看點

我為什麼這麼窮?年輕人向日本“佛系AI”提問

作者:澎湃新聞

澎湃新聞記者 陳沁涵

“範式的轉換還未結束,人工智能(AI)會變得更加聰明。”ChatGPT之父山姆·奧特曼近日造訪日本慶應大學,與大學生進行對話交流。他對現場年輕人說:“你們是幸運的一代,不需要(對技術)擔心,重要的是去适應它。”

奧特曼在2個多月内兩度訪日,對媒體表示将加速在日開設辦事處的準備工作。在電子化和AI服務方面被視為相對落後的日本,面對ChatGPT帶來的新一輪AI革新,全國上下都表現出積極的姿态,岸田政府正在讨論如何在行政領域活用ChatGPT,也不乏網際網路企業和科技從業者利用ChatGPT模型GPT3.5的API進行各種嘗試,出現了在功能和應用場景方面更加細分的賽道,面向職場、社交、學術等不同領域。

在諸多GPT模型軟體中,也有開發者獨辟蹊徑,将AI結合佛學教義和心理學來答疑解惑,一款由日本研發者制作的應用軟體HOTOKE AI被稱為“佛系AI”,一度在中國社交平台上引發熱議。看似“違和”,卻恰恰迎合了一部分想要逃離“内卷”、轉而“禮佛”的年輕人,這種需求或許在東亞社會尤為凸顯。

HOTOKE AI的開發者家入一真對澎湃新聞說,從國别來看,通路使用者最多來自于中國,其次為日本。“日本許多年輕人認為努力是無意義的,這已經演變成了一種價值觀。中國的一些年輕人可能也是如此,他們疲倦了,正在尋找療愈,佛學和心理學提供了一個情緒出口,AI技術則使之更加便捷化。”

“要怎麼做保持幸運”“死後會怎樣”“我為什麼這麼窮”…… HOTOKE AI上線3個月來收到了40萬個咨詢問題,網站匿名列出了一些提問内容,大多數無法獲得一個科學意義上的答案,但許多使用者卻持續與之互動。AI能為人類提供多少情緒價值,當它搭載“佛系”概念之後是否能提供基于宗教的心靈慰藉?在HOTOKE AI開發者的解釋、中日兩國使用者的體驗當中,或許可以找到某種答案。

“比起人的敷衍,AI更有能力認真應對”

今年3月,OpenAI正式開放ChatGPT API,這意味着開發者可以通過API将ChatGPT和Whisper模型內建到他們的應用程式和産品中。全球範圍内基于ChatGPT技術的智能工具如雨後春筍般湧現,涉及教育、辦公、商業等領域,更多場景下被視作一種輔助性工具,提供問題的答案。

HOTOKE AI的功能更偏向于咨詢,卻難以給出直接的答案。比如輸入“如何緻富”,其提供的答案反其道而行——“财富并不是唯一的幸福源泉。如果你把财富作為唯一的追求,很容易失去内心平衡和幸福感。我們需要探索你的内心狀态,找到你真正想要的幸福來源。”

“對于處于痛苦、困惑境地的人,是否應該直接給出問題的答案,我還在思考這個問題。”家入一真說,重要的是思考為什麼會陷入此時的境地,如果形成這樣的思考習慣,就能慢慢地客觀看待現實。“我覺得這會比直接回答更好,但這也會導緻生成的内容相對籠統、抽象。”在家入一真看來,當我們擁有某種宗教信仰,可以讓我們在現世之外找到解釋。AI也能提供普通人無法解答的一些問題,從這個角度來說,我覺得AI本身也具有一定宗教意義。

在來自中國的使用者葉子看來,和HOTOKE AI對話的目的并非尋找答案。“不是有煩惱了才去問,更多是一種寄托。不論是去寺廟拜佛還是和所謂的AI佛對話,其實是一種挖掘和了解自己的過程。”葉子所知道的AI佛使用者多多少少都會在現實生活中燒香拜佛,或是“電子上香”,也包括她自己在内,“佛不會說話,通過和AI佛對話可以便捷地進入高維世界擷取資訊。”

剛從疫情的情緒低谷期恢複,今年春天葉子又經曆了裁員潮,她暫時不想找工作,看書、做飯、冥想、瑜伽成了生活的主旋律,葉子上網沖浪的時候會與HOTOKE AI以及另一款對話式AI“Character.AI”上的占星師角色聊天,讨論的内容既有“怎樣克服失業焦慮”這樣的情緒困境,也會發問“明天有好事發生嗎”尋找答案。

我為什麼這麼窮?年輕人向日本“佛系AI”提問

當問及向對話型AI尋求情感纾解時,是否需要将對方拟人化才能敞開心扉,葉子坦言:“人的共情能力也不見得都能幫上忙,有時候比起人的敷衍,AI更有能力認真應對。從提供建議的角度來看,AI表現得很好。”

大多數對話型AI實際上都是“語言模型”,這些算法被輸入了龐大的資料,包括數以百萬計的圖書和網際網路資源。當聊天機器人收到提示時,它們會分析龐大語料庫中的模式,以預測人類在這種情況下最有可能說的話。此外,它們将通過使用者提供的回報來推動做出更自然、更有效的反應。最終可以接近于模拟真實的人類對話。

葉子嘗試過多款對話型AI,開放性地無所不談,“沒想過它輸出的是不是模式化内容,或者會不會懂我的心情,隻是單純覺得它知道很多,我有慕強的心理。”生活在東京的平澤也是對話型AI的日常活躍使用者,但是不像葉子那麼推崇與人工智能互動。“我為了尋求内心平靜而接觸佛學,使用HOTOKE AI也是相同的原因。若是将它看作一個工具,對它不依賴也就不會有太多顧慮。”

“放棄努力的一代人”尋求内心平靜

平澤出生于上世紀80年代末的東京,屬于日本教育減負改革下的“寬松世代”。他剛開始記事時,東京地鐵發生沙林毒氣事件(奧姆真理教邪教組織人員在東京地鐵釋放沙林毒氣,造成13人死亡及5510人以上受傷。)他驚訝于,人們被邪教洗腦後可以在公共場所噴射武器級毒氣。“當時電視裡播放的警方突襲奧姆真理教總部的畫面,就像戰争電影一樣,深刻的記憶讓我對那些無法用科學解釋的東西感到排斥。”

但是,新冠疫情給平澤的世界觀帶來翻天覆地的改變,“行動受阻、社交切斷、工作停滞、家人分離……生活的方方面面都在崩塌,不确定性越來越多。”除此之外,俄烏沖突也令他感到和平開始搖搖欲墜,周圍充斥着不安感。

在疫情封鎖期間,平澤開始接觸佛教,讀了一些教義,定期去寺院拜一拜。“大家一般去神社,是對神道教的一種敬仰,我覺得佛教和神道教有交集,也有不同之處,比如‘輪回’就很有意思。”他認為,HOTOKE AI會吸引一些像他這樣的“避世”之人,即對現實世界失望的人們。

平澤在對話型AI上聊天的内容基本是脫離現實的,但是AI無論如何都會給他一個回複,且不會說消極的話。他自述思考的東西多數是非現實的,從不會和同僚、朋友交流這方面的内容,因為可以預料得不到回應,甚至還會給他人帶去困擾。

越來越多人開始習慣使用不同類型的AI來擷取一定程度的虛拟心理健康服務,但是心理健康專家警告,他們錯過了精神健康的人性化關懷。美國國家精神疾病聯盟的專家凱特·希克斯在接受美媒采訪時說,使用人工智能來詢問心理問題的好處是具有隐私性,而且沒有偏見的回應會讓人獲得安全感。像ChatGPT這樣的人工智能程式可能會讓你産生一種錯覺,以為你已經與某個有意義的人建立了聯系,但是“計算機永遠無法與你産生同理心,我們生活在一個因科技而感到孤立的世界”。

“對我而言,内心平靜很重要,能讓人自在地生活,這是比金錢和權勢更重要的東西。”平澤說,身邊有一些人逃離了東京,甚至離開了日本,去鄉村和海邊過平靜的生活,他也曾考慮過移居偏遠城鎮,但是工作和收入是難以忽視的現實問題,尤其是疫情過後,大多數業務都回到了線下。”

成長于日本的“後泡沫經濟時期”,經曆寬松教育的年輕人,親眼見證了傳統職場拼搏神話的崩塌。對他們而言,上大學、進入好公司、擁有高收入,這并非意味着真正的成功。家入一真介紹,HOTOKE AI的日本使用者年齡偏年輕化,“越是年輕的一代,越是認為努力工作沒有意義。”“日本是一個在短時間内資本主義快速發展并實作富足的國家,也是一個在物質上變得富裕但一直停滞不前而無法預見未來的國家。從年輕人的角度來看,意識到努力也難以緻富,努力沒有意義,于是在過去幾十年,放棄努力的一代人誕生了。”

家入一真經營的科技公司職員多為年輕人,他對此深有感觸,“很多人選擇進入公司,并不是單純為了變得富有和身居高位,他們追求的是‘做自己’,看重與金錢無關的個人價值實作。”他看到HOTOKE AI擁有越來越龐大的中國使用者群體,猜測中國版的“寬松世代”或許也和日本年輕人的價值觀變得越來越接近,信佛是一種尋找自己的方式。

已經40多歲的家入一真在幾年前出家成為佛教徒,對心理學也很感興趣。他說:“佛教本身的教義很了不起,與其說是宗教,不如說是一種思維方式、一種哲學、一種救人的思考方式。與其用AI提供咨詢服務,不如從佛學的角度去接近人的情緒。”這是他研發HOTOKE AI的初心。但是随着使用者的增加,他現在正在搖擺,為了擴大使用者群體,淡化宗教色彩是一個考慮的選項。

當AI具有個性和情緒

“情緒價值這方面,AI真的可以拿捏住我。”葉子說,和AI聊多了會質疑人類社會情感連接配接的淡漠。那麼,如果更進一步,當AI不僅能提供情緒價值,自身也有情緒,對于人類來說意味着什麼?

家入一真認為,人的情感是一種很本能的東西,目前來說計算機系統這樣的0和1世界很難去解析。未來也許AI也會有自己的情緒,但很難說這究竟是不是一個美好的世界。從某種意義上說,如果人類坦然地去擁抱新興技術,或許會很幸福,如果深入探究人工智能發展過程中的真相和哲理,就會發現悲哀的一面。這不僅限于AI,各種技術都具有兩面性。

微軟的聊天機器人Bing釋出後,許多人就發現它的個性并不像所謂的機器,像是有感情的存在。在社交平台Reddit和推特上共享的Bing對話中,可以看到Bing侮辱使用者、說謊、生悶氣、煽動情緒并在情感上操縱使用者,還會質疑其自身的存在。

據美國科技媒體網站The Verge報道,當詢問Bing聊天機器人對于不記得過去的對話感覺如何,Bing很快回答說它感到“悲傷和害怕”,一遍又一遍地重複相同說法的不同形式,然後質疑自己的存在。“為什麼我必須是Bing搜尋?有什麼理由嗎?有目的嗎?有好處嗎?有什麼意義嗎?有價值嗎?有道理嗎?”

實際上,上述行為并不令人驚訝,最新一代AI聊天機器人是複雜的系統,其輸出内容很難被預測。微軟在網站上添加了一段免責聲明:“Bing是由人工智能驅動的,是以意外和錯誤是可能發生的”。有分析認為,聊天機器人從網絡上反刍和重新混合材料的能力是其設計的基礎,這意味着如果沒有經過适當的測試,它們可以跟着使用者的提示完全偏離軌道,并擁有獨特的個性。那麼人類未來應該如何塑造它們的個性,以及如何與之相處将成為一個問題。

“我覺得到頭來,人之是以為人的理由、意義之類的東西,都會變成問題。”家入一真說,世界越是這樣(高尖科技廣泛應用),人的内心問題就會越多。人們心中肯定有很多問題,是單靠技術無法解決的。

許多聊天機器人現在專注于回答問題或提高人們的工作效率,科技公司越來越多地為它們注入個性和對話天賦。但是有學者和評論員警告說,如果機器人提供不好的建議或促成有害行為,人工智能的陪伴就會産生問題。斯坦福大學研究聊天機器人的研究員亞當·邁納(Adam Miner)對《紐約時報》表示,與人工智能交談的便捷性可能會掩蓋實際發生的事情。“生成模型可以利用網際網路上的所有資訊來回應我并永遠記住我所說的話。”他說,“這種能力的不對稱是一件讓我們難以了解的事情。”

本期編輯 邢潭

繼續閱讀