天天看點

陳玲:将算法治理的“可接受公平”架構落到實處

中新經緯12月21日電 (張燕征)近日,清華大學社會科學學院社會學系、中國科學院學部-清華大學科學與社會協同發展研究中心主辦了“倫理立場、算法設計與企業社會責任”研讨會。清華大學公共管理學院副教授陳玲在研讨會上指出,可從資料、算法、人類行為三個層面入手,建立一個“可接受公平”的整體架構,關注算法治理的起點、過程和結果公平,促進AI的創新發展和善治。

陳玲:将算法治理的“可接受公平”架構落到實處

清華大學公共管理學院副教授陳玲。來源:主辦方供圖

“不管哪個國家、經濟體或産業部門,各方都把公平作為算法治理的一個起點性要求,但實際上關于什麼是算法公平,大家卻沒有共同可接受的内容。”陳玲認為,公平有不同的定義,至少應先建立一個基礎架構,從共識的角度去了解“可接受公平”。

公平可分為起點公平、過程公平、結果公平,陳玲建議針對不同階段的公平來制定相應的公平準則。“例如,我們将資料作為起點公平的對象,首先我們希望用于訓練算法模型的資料集本身是完整的,資料集不偏向于男性或女性、白人或黑人等。其次,資料集應當是開放的、使用者可以自己選擇進入或退出資料集。若資料集完整且開放,至少可以在最低限度上保證算法的起點公平。”陳玲稱。

在陳玲看來,算法程式的透明、可追溯、可問責,有利于促進算法的過程公平。例如通過企業内設的算法倫理委員會或外部監管機構,可以核查、追溯到算法任意子產品或環節的問題,進而确定每一個子產品或環節的可問責對象,這可以在最低限度上確定算法的過程公平。

“結果公平是人們最直覺、最樸素的公平訴求。人們看到的算法推薦或AI決策,希望這些是可計算、可預期和可解釋的。”陳玲舉例稱,很多時候人們可以接受一些歧視定價或者專門推薦,比如保險的差别定價,本質上是因為它符合人們的預期,而不是結果均等。“是以,算法推薦結果的可計算、可預期、可解釋,而不是決策結果的均等化,是結果公平的最低起點。”

那麼如何建立一個可接受公平的整體架構?在陳玲看來,可從資料、算法、人類行為三個層面入手。“資料的完整性、準确性、開放性,算法的透明、可追溯和可問責,結果的可計算、可預期、可解釋,這是大家可接受的公平底線;那些尚存争議或技術上有待解決的部分,可以作為算法公平的調适區間,随着調适水準提高,算法公平的共識底線也可以逐漸提高。”

那麼,算法公平的規則體系具體該如何落地?陳玲表示,法律提供了一個最低限度的公平底線,算法倫理的要求往往高于法律。可以從私法、公法、全球秩序三個層面來研究現有法律體系的規制現狀,找到可接受公平的共識起點。

“全球立法或治理規定,對我們有兩點啟示:一是在中國國内現有的法律和行政法規體系下,建議推出不同層面的政策,包括算法公平政策、虛假資訊準則、可信的透明度準則等;二是兼顧創新和數字經濟的發展,尊重客觀的現實條件,吸引更多的工程師和不同領域的專家參與到規則制定過程中。”陳玲稱。(中新經緯APP)

中新經緯版權所有,未經書面授權,任何機關及個人不得轉載、摘編或以其它方式使用。

繼續閱讀