天天看點

王亞慧丨算法自動化決策背景下的女性就業歧視與規制

作者:上觀新聞

王亞慧

中國社會科學院大學碩士研究所學生

要目

一、弱人工智能時代背景下算法歧視的消解

二、大陸現行法律體系規制的不足及比較法參照

三、女性就業中算法歧視規制的重點面向

四、反女性就業歧視良性算法重構

王亞慧丨算法自動化決策背景下的女性就業歧視與規制

算法自動化決策在就業領域有着廣闊的應用前景,但算法技術并非中立無偏,而是将偏見和歧視内嵌到決策系統當中。以弱人工智能時代存在的算法歧視為背景,通過對大陸就業和算法領域的現行法律體系進行比較法分析後,明确女性就業中算法歧視規制應重點關注的社會底層歧視邏輯、大資料謊言和算法技術批判。以此為基礎,提出修正社會底層邏輯,釋放女性人口紅利;跨越性别資料鴻溝,由大資料向高品質資料轉型;以技術批判理論為指導,全流程深度規制就業領域算法性别歧視的建議。

王亞慧丨算法自動化決策背景下的女性就業歧視與規制

人工智能時代背景下,算法的應用場景日益增多。算法通過對海量的資料進行資訊挖掘,使用自動化的資料驅動方式作出決策,如開展自動推薦、評價和判斷等。算法和代碼,而非規則,日益決定各種決策工作的結果。但算法并非中立無偏,而是将偏見和歧視内嵌到決策系統當中,以悄無聲息的方式侵蝕着社會公平正義。女性在就業市場中受到歧視是亘古存在的,但在算法自動化決策背景下,有着歧視難以察覺、難以證明、難以歸責的困境,是以更有規制的必要。

一、弱人工智能時代背景下算法歧視的消解

規制人工智能時代的算法歧視,首先需要明确規制對象及其發展階段。關于人工智能的興起,應追溯到1950年,艾倫·圖靈在《計算機器與智能》的論文中提出“機器能否思考”的問題,通過用“圖靈測試”回答這一問題來判斷計算機是否具有人類智能。而後在1956年的達特茅斯會議上,麥肯錫等科學家首次提出“人工智能”這一概念,标志着人工智能學科的誕生。人工智能的發展道路充滿曲折,但随着大資料、雲計算、網際網路、物聯網等資訊技術的蓬勃發展,人工智能技術也迎來飛速發展時期,實作了資訊感覺、機器學習等專用人工智能的單點突破,在某些方面甚至可以超越人類智能,但在概念抽象和推理決策等通用人工智能必需的能力方面還很薄弱。是以,可以說,人工智能總體發展水準尚處于起步階段。按照“三層級”說,我們還處于從弱人工智能向強人工智能發展的初級階段,我們對現階段的算法歧視尚可有所作為。有些學者以強人工智能時代的智能意識、難以規制為由逃避對弱人工智能的治理,将在法律和技術上完善現有規則僅作為治标之策是不可取的。相反,研究應以目前及在相當時間段内世界将處于弱人工智能時代為研究背景,着眼于對人工智能的核心要素之一即算法的認識和規範,以人工智能的特殊性及其對現有法律理論造成的沖擊作為研究重點。

人工智能算法的運作邏輯對人的行為形成支配關系,對以強調個人幸福和權力優先性為特點的現代倫理帶來巨大挑戰。算法自動化決策看似處于性别中立的地位,但可能嵌入既有的性别偏見,成為隐藏性别歧視的配置設定手段,并且造成難以察覺的性别歧視後果。一系列被指出存在性别歧視的算法,便給招聘和篩選算法的應用敲響了警鐘:20世紀80年代,倫敦聖喬治醫學院通過算法篩選學生的入學申請,但以之前的招生資料為依據建立的算法規則被證明用于對女性和有色人種進行歧視。2018年,亞馬遜的AI招聘工具通過學習近10年來公司的履歷資料來審查應聘者并給求職者打分,在實際應用中被曝存在性别歧視行為,尤其是歧視女性,會對具有“女性”辨別的應聘者自動降級打分。2019年8月,蘋果公司推出的信用卡背後的算法也被指存在性别歧視,一對夫妻共同送出納稅申報單,但丈夫的額度卻是妻子的20倍。人工智能憑借其科學、客觀的形象得以在各個領域進行廣泛部署與應用,但其發展的不确定性卻為歧視數字化的法律規制帶來新挑戰,歧視的表達形态、傳播效率和影響規模都被深刻改變。是以人工智能的歧視效應是未來監管者在各領域不得不面對的重要問題,以確定人工智能安全、可靠、可控發展。

二、大陸現行法律體系規制的不足及比較法參照

弱人工智能時代背景下,女性就業領域中存在的算法歧視亟待法律規制且法律也應當有所作為。算法自動化決策背景下的女性就業歧視關涉到傳統領域的就業歧視及數字時代的算法歧視,是以本文将分别闡述法律體系規制之不足,但将重點關注算法領域的法律規制。

就業領域女性歧視規制

大陸關于反性别歧視的立法主要包括憲法、婦女權益保障法、勞動法和工會法。反性别歧視以憲法第33條、第42條、第48條的規定為統領,實行男女平等、同工同酬。婦女權益保障法第2條重申婦女享有與男子平等的權利,強調禁止歧視婦女,在第四章專章規定婦女的勞動和社會權益保障。婦女權益保障法(修訂草案)征求意見稿中強調保護婦女的就業平等權,明确列舉了性别歧視的主要情形,增加了實施就業性别歧視的法律責任,并且建立健全職工的生育休假制度。勞動法第3條規定勞動者享有的各項勞動權利,如平等就業權和選擇職業權等。第12條規定勞動者就業不因性别不同而受歧視。第13條規定婦女享有同男子平等的就業權利,錄用職工時不得以性别為由拒絕錄用婦女或者提高對婦女的錄用标準。這些條文涉及女性就業平等保護和禁止基于性别的就業歧視的内容。

上述法律仍未明确“對婦女的歧視”的定義,未明晰直接歧視與間接歧視的差別規制。在算法自動化決策背景下,就業歧視更加難以察覺,傳統的主要針對直接歧視的定義在治理人工智能時代的間接歧視時則顯得捉襟見肘,不利于現實生活中的歧視現象規制。另外,規定過于原則化,不利于受害者獲得救濟以及實踐中的操作和執行。

反之,平等原則和禁止歧視原則在聯合國九個核心人權條約中均有規定,其中消除對婦女一切形式歧視公約重點關注歧視婦女的現象,在公約第1條即明确“對婦女的歧視”的定義,涵蓋直接歧視和間接歧視,并敦促締約國為加速實作男女事實上的平等采取暫行特别措施。第11條要求締約國采取一切适當措施消除在就業方面對婦女的歧視。國際勞工組織的就業和職業歧視公約(第111号公約),第1條也明确規定了歧視的定義,即具有取消或損害就業或職業機會均等或待遇平等作用的任何差別、排斥或優惠,第2條要求會員國承諾宣布并奉行一項國家政策,旨在以适合本國條件和慣例的方法,促進就業和職業方面的機會和待遇平等。中國分别于1980年11月和2005年8月準許加入上述兩公約。

從其他國家或區域立法來看,我們可以知悉國外在反性别歧視的問題上,均将直接歧視和間接歧視明确加以規定,不僅在“形式”上予以規範,更注重“結果”意義上的平等。美國有關禁止就業中的性别歧視最重要的法律屬1964年民權法案,這部法案奠定了女性就業權平等保護的國家政策,第七章明确規定了包括性别歧視在内的就業歧視的相關問題,設定了就業歧視的基本标準。法案要求“采取積極行動保障不同性别的申請者都能夠得到平等對待”,廢止專門針對女性的所謂“保護性”立法,該法案的實施對女性就業權的實作産生重要影響。英國最重要的反性别歧視法律為1975年通過的性别歧視法,該法案的出台标志着就業領域的反性别歧視原則正式得到國家法律确認。法律明确規定就業領域的性别歧視行為,禁止基于性别和婚姻狀況的理由實施歧視。對性别工資待遇歧視、性别就業待遇歧視以及舉證責任、救濟方式都有相應規定。歐盟涉及反就業歧視的指令包括《75/ 117》《76/207》《2000/43》《2000/78》《2002/73》,其中最重要的是1976年男女平等待遇指令,但其僅作了原則性的規定。是以在2002年對該指令進行細化修改,對性别歧視中的直接歧視與間接歧視明确界定,并且規定了相應的司法救濟程式,有力地保障了平等就業權在歐盟的實作。

算法領域女性歧視規制

關于算法領域的性别歧視規制,大陸于2021年通過實施的資料安全法、個人資訊保護法形成了算法自動化決策規制的基本架構,如根據個人資訊保護法的相關規定,處理個人資訊應具有明确、合理的目的,遵循最小必要原則,且須征得個人同意。利用個人資訊進行自動化決策的,應當保證決策透明和結果公平公正。個人有拒絕自動化決策作出決定的權利。但其規定較為原則籠統,且人力資源管理所必需的個人資訊無須經過個人同意即可進行處理,是以對算法自動化決策中存在的性别歧視有諸多難以規制之處。大陸于2022年3月施行的《網際網路資訊服務算法推薦管理規定》主要規制利用算法推薦技術提供網際網路資訊服務的行為,第三章使用者權益保護規定算法推薦服務提供者應當告知使用者算法推薦服務情況,公示其基本原理、目的意圖和主要運作機制等,并且要求算法提供不針對個人特征的選項或者允許使用者關閉算法推薦服務。但該規定的适用領域和規制的算法類型較為局限,且沒有展現對女性的傾斜保護。

從國外的立法情況來看,美國一向重視隐私權的保護,強調以倫理教育和隐私法規防範人工智能風險。2017年12月美國紐約州通過算法問責法案,旨在通過透明度和問責解決算法歧視問題。2022年,聯邦層面提出2022算法問責法案,要求應用自動化決策的公司測試算法是否存在錯誤資料、偏見、安全風險、性能差距和其他問題,每年送出影響評估報告并留檔,以此來促進算法的公平性、問責性和透明度。歐盟則積極推進以人為本的人工智能倫理與治理。一方面,依據通用資料保護條例充分保障個人的資訊安全,要求自動化決策提供關于邏輯運作的有意義的資訊,解釋自動化決策的重要性和預想的後果;另一方面,依托算法責任與透明治理架構提出将算法透明和責任治理作為解決算法公平問題的工具,分層次建立監管機制。歐盟委員會還公布了關于制定人工智能統一規則的提案,旨在通過治理與監管實作可信賴的人工智能。該法案對人工智能實行分類分義務管理,明确企業在人工智能開發、營運過程中的強制性義務,制定了包容審慎的技術監管措施,對規制人工智能的潛在風險和不良影響具有深遠意義。此外,電氣和電子工程師協會(IEEE)釋出旨在推進人工智能和自治系統倫理設計的IEEE全球倡議書,提出通過教育、教育訓練和授權,確定人工智能系統設計開發的利益相關方優先考慮倫理問題。人工智能的全球治理趨勢已十分顯著,“算法霸權”是各國監管者亟須面對的問題,但算法自動化決策中存在的女性歧視問題并未得到重視,尚需各國法律調整完善,以适應人工智能時代算法歧視規制的需要。

三、女性就業中算法歧視規制的重點面向

規制算法歧視,尤其是尚未被關注或者說關注度不足的女性就業中的算法歧視,需要對嵌入算法的女性歧視尋本溯源。人工智能的三大核心要素是資料、算法、算力。算法是資料驅動型算法,資料是算法的“飼料”,隻有經過對标注好的資料進行大量訓練,覆寫盡可能多的場景才能得到一個良好的算法模型。大資料是社會的一種鏡像,目前社會的既有格局與特征、偏見與結構性不平等會映射到資料當中。根據上述路徑,社會中的性别歧視與偏見會借由資料和代碼嵌入算法當中,是以本文将以社會、資料、技術的三維視角剖析女性就業中的算法歧視,換言之,即規制算法自動化決策中存在的女性就業歧視時應重點關注的領域。

從社會底層邏輯出發,算法歧視并非源自技術本身或技術創新,而是前沿科學技術賦能傳統社會沖突的結果。第一,社會性别歧視和偏見的廣泛存在。第二,用人機關的男性化的理想勞工規範。從用人機關的角度來說,理想工作者是從成年早期開始工作沒有任何中斷并獲得完整職業生涯的員工,這樣才能滿足其追求利潤最大化的目标。第三,職業性别隔離現象。職業的性别隔離一詞最早由格羅斯提出,即由于社會系統性因素,不同的性别集中在不同的行業和職位上,主要表現為大部分女性勞動力集中于一些“女性化”職業,傳統上由男性占主導地位的職業保持為“男性化”職業,這類職業具有高技能、高收入、高地位的特征,“女性化”職業則技術含量低、工資待遇低、社會地位低。從谷歌算法為女性提供相對男性更少的與高薪工作相關的廣告即可見一斑。

從資料謊言剖析出發,大資料反映着主體的多元行為和人類現實社會,卻也存在着歪曲和異化的風險。一方面,“大資料”的資料相對于萬物在同一時刻所釋放的所有資料來說,其能夠捕捉到的隻是微不足道的“微資料”和淺層次的“表資料”,大多數大資料資源是不完整的。目前應用于算法的神經網絡隻具備相關性學習能力,沒有因果邏輯推理能力,就導緻算法極易受到複雜大資料中異質性、虛假相關性、偶然内生性的影響。是以,由傳統社會結構沖突導緻的“數字性别鴻溝”,在人工智能時代便會加重女性歧視和資料偏見,科技程序排擠女性發展的現象更為嚴重。另一方面,資料是客觀的,但應用資料的人卻有主觀意圖。現階段人工智能算法應用的資料須通過資料清洗、資料标注方能使用,而資料清洗、标注工作主要由人工完成。人工對文本、圖像、語音、視訊等原資料進行歸類、整理、編輯、糾錯、标注和批注等操作,為機器學習訓練提供可讀資料。若标注人員存在單邊的技術性思維,受到忽視價值觀預設、樣本選擇性偏差和認知局限等主觀因素的影響,則會加劇資料瓶頸和陷阱的障礙作用,算法及人工智能的發展也會偏離初衷和正常軌道。

從技術範式糾偏出發,算法技術已成為數字時代不可忽視的力量,算法的歧視化風險也引緻社會憂慮。從上層技術理論來說,技術中立論對科學技術的現狀和發展前途充滿樂觀主義和自信,崇尚技術統治;技術實體論對技術的發展則持悲觀态度,認為技術排斥民主與自由,是一種極權性的社會力量,會赢下昂人的存在與人類文化;技術批判理論對科學技術進行目的批判、過程批判和設計批判,認為技術的發展能夠走向一條技術民主化的道路。我們應當摒棄技術崇拜和技術恐慌,理性客觀看待技術發展與進步,以技術批判理論作為人工智能時代的技術哲學指導。從算法開發來說,算法要經過提出問題、資料處理、資料集建構、模型設計、模型訓練、模型測試等流程才算開發完成,而這一過程的局限是需要大量人工幹預,如人工設定神經網絡模型、人工設定應用場景、人工采集和标注大量訓練資料。是以,算法開發過程是算法歧視入侵的主要陣地。從算法應用來說,算法披着“技術性”和“客觀性”的外衣,卻因其高度專業性、不可解釋性和不透明性導緻“算法黑箱”的存在。人工智能的深度學習更加凸顯了“算法黑箱”帶來的技術屏障,程式錯誤和算法歧視在人工智能的深度學習中變得難以識别,法律主體制度、透明度原則和問責機制難以運用。

四、反女性就業歧視良性算法重構

通過分析女性就業算法歧視規制的重點面向,可以知悉算法歧視的治理若隻關注算法内部結構則收效甚微,根植在其内部的社會底層邏輯和資料謊言也是應予規制的重點。比較參考國外相關立法,對大陸法律制定和修改具有借鑒意義,本文關注到就業中存在的算法性别歧視問題,也希望對此提出有效的政策建議。

修正社會底層邏輯,釋放女性人口紅利

首先,借修訂婦女權益保障法之契機,明确“對婦女的歧視”的定義,深化人們對性别歧視的認識,為精準識别某項措施或某個行為是否具有歧視性提供準繩和規範依據,以期糾正社會性别偏見和性别刻闆印象。隻有明确将“對婦女的歧視”的定義涵蓋直接歧視和間接歧視,不僅關注“性别”,還要關注其造成的“結果”或負面影響,以此才能在治理人工智能時代的隐性歧視時發揮應有作用。否則,僅靠現有法律規定,恐難以規制人工智能帶來的波及面廣、隐蔽性強的歧視問題。如何了解與界定對婦女的歧視是反性别歧視的核心問題,歧視定義的明确界定可以統領就業領域的性别歧視治理,有助于法律層面的可操作性和可執行性的提升。

其次,糾偏男性化理想勞工規範,肯定和分擔女性承擔的生産責任。馬克思在《德意志意識形态》中提出了兩種“生活的生産”的概念,包括通過勞動進行的自己生活的生産和通過生育進行的他人生活的生産。恩格斯則進一步将兩種生産解釋為“物質資料的生産”和“人自身的生産”,充分肯定了婦女的作用和貢獻。在社會性别和發展的視角下,緩解女性的工作—家庭沖突不僅是女性的責任,更需要包括政府、社會、企業界和男女兩性在内的多元主體參與和分擔。政府機關應通過立法和政策指引推動建構良性的勞工規範,不以無間斷的職業生涯為标準;用人機關不能僅将利潤奉為“真理”,也須承擔相應的社會責任。

跨越性别資料鴻溝,向高品質資料轉型

一方面,為避免大資料時代女性就業資料的缺失,既要從根源上提升女性地位以增加女性就業資料,消除“性别資料鴻溝”;也要認識到大資料固有的異質性、噪聲累積性、虛假相關性和偶然的内生性。是以,要将重點從大資料轉移到高品質資料,更新資料觀念和處理方法,從根本上改變單向單邊思維,強化對資料的性别平等性檢驗和定位範圍的縮小,才能確定“性别平等觀”在資料中得以展現,由此資料訓練的算法才能保證其具有平等完善的性别倫理觀。具體來說,在進行資料分組時,不簡單的以男性和女性為分類标準,以排除資料異質性對分析結果的影響,而是盡可能多的分組,在資料層面挖掘女性個體職業特征和需求;在選擇變量時,應注重獨立性篩選,以防過去職業資料中的虛假相關性和偶然同質性影響人工智能深度學習,避免其做出職業與性别間錯誤相關性的判斷分析。

另一方面,加強資料質檢,規避人工清洗和資料辨別過程中可能嵌入的性别歧視。由于現階段人工智能算法應用的資料更多由人工進行清洗和标注,人類内隐偏見驅動的無意識歧視可能嵌入其中。是以,在資料清洗和标注工作完成時,資料的質檢流程就更顯重要。現在的資料品質檢測主要注重在資料完整性、一緻性和準确性三方面評估是否達到預期的品質要求。從注重性别平等觀念的視角來說,企業在進行就業資料檢測時還應當注重性别平等性檢測,通過女性就業資料分析判斷女性是否受到不應有的差別、排斥或限制,或者産生妨礙、否認女性依法享有和行使權利的後果。

以技術批判為指導,深度規制算法歧視

通過上述分析,我們确立以技術批判理論作為對弱人工智能時代算法歧視規制的技術哲學指導,理性看待算法并通過制定修改法律全面規制算法歧視。從比較視野來看,國外規制算法歧視均從算法倫理教育、透明度和解釋權、算法問責等方面展開。本文也将基于上述方面,并以算法設計、應用、監管、責任承擔全流程為規制對象,探讨如何有效有針對性地規制就業領域中的算法性别歧視。

倫理規範是人工智能發展的糾偏機制,現階段預防人工智能的倫理風險應從對研發者的拘束出發,必要時可以采取教育教育訓練等手段向研發者強調性别平等、尊重隐私等倫理觀念,使研發者意識到他們的工作存在用于惡意目的和性别歧視的風險,作為人類未來世界設計工程師的一份子,應當承擔設計性别無偏、人類普遍受益的算法的責任。性别平等的算法倫理規範的養成對強人工智能時代甚至超人工智能時代的算法都是十分有益的,隻有這樣才能確定人工智能健康可持續發展。

為避免“算法黑箱”中滋生的算法歧視,增加算法透明度和賦予個人“解釋權”成為一種可信且具有吸引力的規範措施。是以,在通過算法自動化決策作出勞動人事決策時,算法設計目的、應用過程是否考慮到性别因素以及可能暗含性别的因素及其所占的比重應予公示,以確定此時性别資訊的使用和處理符合合法、合理、最小必要原則的要求。另外,當個人認為在決策過程中受到算法性别歧視時,應確定其擁有要求決策者對其進行個案解釋說明的權利。通過上述事前和事後規制,避免女性在勞動人事決策過程中受到歧視。

即便為算法設定性别平等的倫理規範,謹慎運作性别平等的算法邏輯,有時也未能有效阻止性别歧視的結果發生。此時,應注重算法運作的審計,對人工智能進行性别歧視的運作測試,對用人機關提出謹慎性義務。此外,還可以大力提倡算法性别平等的外部審計,通過審計的用人機關可以獲得認證标志,為其吸引人才提供競争優勢。

最後,關于算法性别歧視的歸責問題。算法侵害具有主體多元、因果追溯困難、主觀過錯認定困難、自主性引緻決策失控的規則難題。本文認為,無論如何,現有法律主體如人工智能的設計者、銷售者和使用者都應該承擔相應的歧視責任。由于算法的專業性和不透明性,受害者舉證困難,是以應參照過錯推定責任原則,由算法設計方或應用方證明其沒有進行性别歧視或盡力規避算法性别歧視但仍未能達到預想效果才能免責。

關于女性的性别歧視問題,本文所談及之處還遠遠不夠,在更深層次的社會結構中有着難以根除的女性歧視問題。随着大資料算法對我們的生活産生愈加深刻的影響,借由數字經濟和智能社會的深入發展,人權發展格局邁向數字人權時代。但人工智能發展的不确定性也帶來了歧視數字化的法律風險,不斷呈現出算法權力對人的規訓,算法“治理赤字”也愈加嚴重。消除對婦女一切形式歧視公約第11條第一款規定:“締約各國應采取一切适當措施,消除在就業方面對婦女的歧視,以保證她們在男女平等的基礎上享有相同的權利”。是以,大陸作為公約締約國應當注重人工智能歧視治理,加快反歧視法律數字化轉型,建構以人為本、公正包容的反歧視法律制度。本文希冀借助人工智能時代的到來,引導算法向善發展,促進性别平等而不是加劇性别歧視,釋放女性人口紅利而不是限制女性進步發展,尊重保障女性人權而不是加劇數字性别暴力。

王亞慧丨算法自動化決策背景下的女性就業歧視與規制