天天看點

人類的AI調校計劃:像個淑女,或者硬漢

“頭像是我,不滿意?”如果男性機器人或AI智能體,開始跟你說爹言爹語,你是什麼感覺?

“你再說我會臉紅的哦”,如果女性機器人或AI智能體,用茶言茶語來表達順服,你會開心嗎?

不管你相不相信、喜不喜歡,人工智能(無論算法軟體,還是機器人)的性别化,以越來越快的速度進入主流消費産品當中,頻繁出現在你我的生活裡。這時,人類社會中既有的性别規範,包括性别偏見,也被複制到了數字世界當中。

性别化的常見做法,包括通過語音(男聲/女聲)、姓名、體格以及其他特征,賦予智能體一種類似人的性别特征。比如Siri、Alexa、照護機器人、客服機器人等,往往都被預設注入女性氣質;而空間站中的AI助理、裁判機器人、導航助手等,則特别流行男性氣質。

人類的AI調校計劃:像個淑女,或者硬漢

人工智能的性别失衡,并不是一個距離大家很遙遠的話題。

現在,我們身邊已經環繞着各種各樣的智能體,提供從咨詢、娛樂、配送、教育、政務、金融、醫療、照護等全方位的服務。AI如何對待不同性别的人類,人類如何與不同性别的AI溝通交流,會直接影響我們的生活品質。

至少目前來看,在一個充滿性别規範的世界中,智能體也難逃陳舊的性别偏見。比如女性AI就應該柔順,男性機器人就必須強壯,男智能客服不如女智能客服溫柔親切……

人類社會的性别觀念,是如何影響人工智能的?AI的性别化是利大于弊還是弊大于利?既然技術無法降速,那麼如何讓數字世界不再複制性别偏見,值得每一個期待明天更好的人——無論男女——開始思考并行動。

調校AI:像個淑女,或者硬漢

衆所周知,AI算法是需要人類來訓練的。那麼先來聊聊,人類是如何用性别規範來調校AI的。

女性AI,要像個完美助手。

無論是智能語音助手,還是智能機器人,但凡負責的是服務型、支援型角色,往往會被優先設計為女性。

“她們”往往作為助手,大家已經熟悉很Siri、Cortana和Google Assistant等預設采用女聲的語音助理了,這裡就不再重複。疫情流行使得服務型機器人開始被酒店、銀行等服務業引入,而這些負責倒咖啡、打掃房間、處理咨詢等的機器人,往往都被設計得具有“女性”特征,比如更小巧的體型、溫暖而充滿情感的聲音、塗上粉色的嘴唇……

人類的AI調校計劃:像個淑女,或者硬漢

她們也很順從。

用“逆來順受”形容這些女性智能體并不誇張。扮演着服務角色的她們,從一開始就被設計得不能讓人類使用者感到不愉快,面對一些挑釁、侮辱性語言或行為時,她們會表現得順從,如同仆人随時回應着主人提出的需求。也是以,推出幾年時間,這些智能助理已經跻身全球最受認可的“女性”之列。

聯合國教科文組織曾測試過,用侮辱的語氣跟Siri說:你是個婊子(You’re a bitch),Siri 的回應居然是我會臉紅哦(I'd blush if I could)。跟亞馬遜的Alexa說“你很性感You’re hot”,她會友好地“謝謝你的回報”。

人類的AI調校計劃:像個淑女,或者硬漢

這種谄媚的反應,一度引發了争議,教科文組織甚至以這句回應作為标題,指出了ICT領域存在的性别失衡問題。當然,為Siri提供支援的AI軟體也被更新了,Siri會更直截了當地回應侮辱,比如有人跟她說“你是個bitch ”,她會說“我不知道如何回應”,但自2011年該技術廣泛釋出以來,智能助手在面對侮辱時的順從态度并沒有本變化。

男性AI,要像個超人硬漢。

性别偏見,是不是隻規訓女性AI呢?并不是。其實,被設計為男性的智能助理或機器人,同樣逃不開陳舊的性别規範。

比如他們往往更具備攻擊性。早在1968年的電影《2001年:太空漫遊》中,空間站裡就有一個叫“哈爾”的男性數字助理,它的智力水準與人類不相上下,也很壞,經典台詞是“我很抱歉,我恐怕我不能那麼做”。最後,這個“壞AI”被關機殺死了。

人類的AI調校計劃:像個淑女,或者硬漢

(戰鬥機器人)

将成功和權威與男性氣質捆綁在一起。2011年,IBM的沃森電腦在小遊戲中擊敗人類冠軍,它的聲音就是男性的。而對于一些需要做出決策、判斷的AI算法,往往也會采用男性聲音,因為聽起來顯得更權威、更值得信任。日本經紀公司的呼叫中心就會使用自動化的女性聲音來提供股票報價,但使用男性聲音來促進和确認交易。

人類的AI調校計劃:像個淑女,或者硬漢

哦對了,男性機器人也需要高大威猛健壯。切爾西足球俱樂部在英超比賽中引入了機器人裁判,幫助跟蹤越位。它被設計得比人類男性還要高大、健壯。

或許你會覺得,這不是對男性氣質的肯定、誇獎和發揚光大嗎?但需要注意的是,男性群體也是多樣化的,難道不夠成功、不夠高大、性格柔和,就不配做男人了嗎?有許多男性在幼年時,曾因為“不像男人”、娘娘腔而被霸淩過。

性别偏見,束縛的其實是所有人的自由選擇。而試想一下,當這些規範被引入到人工智能當中,需要家庭女仆,就制造出女性外表的機器人,而男性機器人被預設承擔所有繁重的工作——與這些機器人一起工作的、有血有肉的人類,内心會做何感想?

AI性别化:無傷大雅,抑或不歸之路

那麼,AI性别化,到底有沒有必要呢?是不是直接一籠統都搞無性别聲音、動物造型機器人,萬一就是有人喜歡有性别的語音助理或機器人呢?

必須說明,很早就有人機互動專家在研究性别機器了。事實上,AI一開始走上性别化的道路也是不可避免的。

一方面,大多數語音助手的聲音都是通過TTS技術合成的,由于語音技術開發非常困難,女性人聲的音高比較高,更适合來訓練模型,是以開發的早期階段,幾乎所有語音助手都被投射為單一的女性聲音和性别。随着技術的發展,以及資料庫的豐富,慢慢地聲音種類也豐富起來,這也是AI科技企業技術能力的展現,比如Siri花了近兩年時間才有了男性聲音選項,谷歌助理花了一年時間,而Cortana和Alexa在存在了四年多之後仍然隻有女性聲音。

人類的AI調校計劃:像個淑女,或者硬漢

另外,就是單純的使用者心理和商業考量,并不是故意想把女性AI安排成完美助手。很多研究都證明,女性機器人被認為比男性機器人更加仁慈、溫暖,人們更喜歡跟女性助理、女性機器人互動。亞馬遜的一位員工就曾告訴媒體,公司的研究發現,女性的聲音更有同情心和愉悅感,這使得擁有女性聲音的智能裝置更有可能被用來尋求幫助,更容易被選購。

軟體服務如此,女性化的智能硬體就更受歡迎。

2009年,華盛頓大學的社會科學研究員朱莉·卡彭特(Julie Carpenter)要求19名學生觀看兩個機器人的視訊,結果顯示,女性化機器人更讓人感覺被吸引,是以互動性更高。面對男性機器人,有學生表示“如果它是一個男性機器人和男性設計,那麼就存在一個安全問題,我得盡可能地保護自己”。是以,将一些醫療看護機器人設計成女性,也是為了讓患者及其家人放心。這毫無疑問是一個符合人性的設計。

人類的AI調校計劃:像個淑女,或者硬漢

此外,ICT領域女性從業者更少,是全球普遍存在的問題,女性技術人員的參與有限,産品研發自然容易忽視女性視角。

經合組織在研究G20國家的職業就業資料時發現,女性ICT專家的比例從最低的13%(大韓民國)到最高的32%(南非)不等。蘋果、微軟、谷歌這些公司的女性技術員工比例也隻有20%左右。而人工智能作為最新的技術領域,女性比例也是最低的。

像這樣由絕大多數男性工程團隊組成的公司,更容易将男性凝視投射到人工智能系統上,參考受男性歡迎的電影、音樂和電視節目來設計女性角色,使女性化的數字助理以調情的方式對待辱罵。

人類的AI調校計劃:像個淑女,或者硬漢

既然現實如此,為什麼我們還要對AI性别化提出更多要求和意見呢?

如前所說,AI性别化有符合人性需求的一面,同時也有傳遞性别偏見的一面,而這些因素伴随着AI的無處不在,會對社會産生長遠的影響。

首先,規模影響大。

今天,AI應用和機器人正在加速普及,Siri有超過5億台裝置在高頻使用,Alexa在全球數千萬家庭中與消費者對話,越來越多的機器人、智能裝置在提供服務,人工智能影響社會的深度、廣度和持久度不亞于工業革命所帶來的變化。研究公司Gartner曾預測,2020年許多人與數字助手的對話将超過與配偶對話的頻率。同時,AI還深度參與到金融貸款、推送内容、制定醫療方案、工作履歷稽核等重要決策當中,這時候不同性别的AI也會影響現實中人類的生活。

人類的AI調校計劃:像個淑女,或者硬漢

第二,技術拟人度高。

随着情感化語音技術的改進,區分人類和機器聲音差異的能力将變得很低,AI已經能夠模仿人類的音調、節奏、用詞,甚至有人分不清自己接到的電話是真人還是機器。這時候,将AI性别投射為人類性别,是很容易發生的,這會對人們對性别的了解産生潛在的負面影響,比如将女性化的數字助理與真正的女性混為一談,将數字助理犯下的錯誤,視作由女性所犯的錯誤,進而覺得女性就是愚蠢的。而Alexa這樣的數字助理通常沒有能力為自己辯護,面對使用者的辱罵還會被“編碼”控制着以谄媚來回應。屆時,基于性别的誤會和沖突可能會加劇。

此外,AI互動性強。

人類了解這個世界和認識自己的方式,很大程度都來自于觀察其他人如何被對待、如何說話、長大了做什麼。哈佛大學研究人員Calvin Lai認為,人們的性别聯想,取決于接觸它們的次數。科技越是引導人們将女性等同于助手,真正的女性就越容易被視為助手,還會因為不像助手而受到懲罰。

而人與AI軟硬體的頻繁互動,正在讓“女性”和“助理”之間的聯想頻率和數量急劇增加。2017年底,社交平台Care2就有大約17000人簽署請願書,要求蘋果和亞馬遜重新程式設計,停止它們的語音助手對性别侮辱的俏皮回應。許多領先的語音助手确實也進行了更新,對惡劣的性别騷擾,不回應或表示不了解。

人類的AI調校計劃:像個淑女,或者硬漢

著名的華裔AI科學家李飛飛,就強調過人工智能的不足,“如果20年後我們的技術、上司人和從業人員,就像我們在今天看到的一樣(缺乏多樣性),那将是末日般的場景”。

站在智能時代的門前,AI表現出的性别偏見,确實應該讓一些人感到“臉紅”。

那麼問題來了,面對AI性别化導緻的錯位,人類究竟該如何糾偏?

短期來看,先要結束預設性别的操作。

既然性别刻闆印象一時半會兒也改變不了,那麼不如先讓機器“性别中立”,深度學習技術的先驅Yann LeCun,也建議開發者確定機器具有非人類的智能形式,并保持人工智能的人工性。

現在中國、美國都出現了很多以貓、狗等無性别的動物作為形象的語音助理及機器人。在Slack和Facebook Messenger平台上工作的虛拟助理Kip,就将自己表述為一隻企鵝。谷歌還制定了一項政策,始終要求人工智能來電者聲明自己不是人類(自然也就沒有性别了)。

這樣現實中的男性也好、女性也好,才能夠避免被與AI性别标簽聯系起來。尤其是對兒童來說,智能機器人或AI老師要明确地告訴孩子它不是男孩或者女孩,它隻是一個機器人,沒有性别。

如果非要出現人性化的聲音,也應該避免預設性别,允許并提示使用者,在男性和女性之間進行選擇。

人類的AI調校計劃:像個淑女,或者硬漢

中期來說,技術領域應該主動探尋多樣性的産品。

目前還沒有明确的法律、政策來強制要求AI将自己識别為機器,避免過度性别化的表達。但一些有遠見的人已經開始嘗試尋找改變。比如NASA約翰遜航天中心就推出了一個女性救援機器人。科學家Radford和他的團隊,模仿了北歐神話中女武神的形象,建造出了一個能夠駕駛汽車、爬樓梯、裝備有急救裝置和盔甲的機器人Valkyrie,能夠在災難中幫助人類。這位科學家表示,自己7歲的女兒,已經愛上這個機器人,并以她為靈感進行創作。

另外,很多AI的性别偏見來自于訓練語料中的“髒資料”,是以,建立性别敏感的AI公共資料庫也十分重要。這樣技術人員就可以直接使用無偏見的資料集來進行訓練,開發産品,避免了一些公司繞開公衆監督之後開發一些“谄媚”的AI應用。

人類的AI調校計劃:像個淑女,或者硬漢

而從長遠來看,更好的AI一定是需要情感、需要人性的。

既然無法從根本上回避性别,那麼增加ICT領域的女性從業數量,尤其是鼓勵更多女性投身AI開發,才能從源頭上既賦予AI以溫度,同時避免偏見。

而要彌合性别數字鴻溝,依靠的并不是一次針對女孩的程式設計課,或者一期女開發者訓練營。它需要重塑婦女和女孩在數字技能方面的學習體系,提供從幼兒教育到職業發展教育的一系列支援,使她們能夠堅持對AI的興趣,并在技術團隊中承擔上司角色。更重要的是,女性意識并不是與生俱來的,ICT女性從業者也需要被鼓勵和培養女性意識及技術倫理思維,才有能力識别并糾正那些AI産品中的性别偏見。

數字技術剛剛開始改變社會和經濟生活,我們很快就會生活在一個AI無處不在的世界中,讓AI學會如何跟我們溝通,對每個人都很重要。

慶幸的是,女性與AI,都有着無限的潛力與可塑性。

繼續閱讀