天天看點

各國制定人工智能标準進入“井噴期”,倫理問題都解決了嗎?

作者:南方都市報

當下,人工智能被深度應用在各個領域,從電商到物流,從智慧醫學到智慧城市,人工智能無處不在。然而,人工智能在帶來高效生産和便利生活的同時,也不可避免地對現有倫理關系和社會結構造成沖擊,引發諸多倫理争議和法律問題。

6月1日上午,北京智源大會召開“人工智能倫理、治理與可持續發展論壇”。論壇由清華大學人工智能國際治理研究院、人工智能治理研究中心共同主辦。

會上,多位專家指出,目前人工智能技術已經在應用中引發了侵犯隐私、歧視等倫理問題,亟需建立全新的治理模式,進一步健全相關治理體系,推動法律法規标準規範的出台和落地,同時還應加強倫理教育、提高全民倫理意識。

法律規制:各國家、組織制定人工智能标準進入“井噴期”

目前,人工智能在全球範圍内被廣泛應用的同時,也帶來了倫理層面的挑戰。清華大學公共管理學院教授、人工智能國際治理研究院副院長梁正指出,形成人工智能倫理和治理共識是當下的首要問題,否則将阻礙其發展。

他介紹,目前全球已經有160多個國家出台了人工智能的倫理原則或指南,這裡面既包括各國政府,也包括G20、歐盟這種國際組織釋出的指引、倡議等等。

國家新一代人工智能治理專業委員會委員、上海交通大學人工智能研究院首席顧問教授李仁涵對上述檔案歸類發現,國際有關組織制定的人工智能标準進入“井噴期”,而且從檔案内容看,國際人工智能治理工作正在加速可操作化,尤其表現在資料治理、算法治理、網絡治理、監管政策等方面。

“目前建立相應規則對于我們是比較迫切的……現在人工智能産品進國門或者出國門都要讓它有規可依,這樣才能赢得對方的尊重,更容易找到合作、發展的共同點。”他說。

事實上,中國人工智能倫理治理正在加快步伐。科技部中國科學技術資訊研究所黨委書記、所長趙志耘介紹,在建立組織推進機制方面,中國成立了新一代人工智能發展規劃推進辦公室、國家新一代人工智能治理專業委員會等;在治理實施檔案方面,接連釋出《新一代人工智能治理原則》《新一代人工智能倫理規範》等政策檔案,國家科技倫理委員會人工智能分委會還在研究起草人工智能倫理高風險清單。

此外,中國還在新一代人工智能重大項目中專門部署了人工智能倫理治理相關的問題研究,針對重大領域倫理風險進行評估,并積極參與聯合國教科文組織人工智能倫理問題建議書相關檔案起草和全球人工智能峰會等國際會議研讨。

放眼國外,歐美也都在積極地對人工智能倫理立法。卡内基理事會資深研究員Wendell Wallach認為,不僅要由政府出台“硬法”去判定哪些行為符合規定、對高風險行為進行引導,還要讓企業擔起責任、推動行業共識形成“軟法”。

他觀察到,現在美國在執行“硬法”上越來越緩慢,“甚至處于落後狀态”;歐盟則“做得很不錯,處于領先的地位”。這導緻美國湧現的一些高風險人工智能應用對社會治理和信用造成破壞,生産效率及社會成本遭到質疑;歐盟也因為其嚴苛的規定被诟病影響創新。

是以,在Wallach看來,人工智能的倫理治理需要一個穩健的機制,而這個機制“需要軟法和硬法的結合”。對于企業來說,既要執行“硬法”,避免違法違規,也會彼此合作,推動“軟法”的出台。

引發争議:倫理、隐私、歧視

随着人工智能滲透到人類經濟社會的方方面面,引發了哪些争議?

清華大學文科資深教授、人工智能國際治理研究院院長薛瀾提到,去年美國三所大學用人工智能體系設計了一個生物機器人,引發倫理争議;2019年亞馬遜開發的員工監控系統、人臉識别技術也引發了關于隐私和個人資訊保護的争議。

種族歧視、性别歧視也是人工智能技術應用中常見的問題。東京大學教授佐倉統團隊所做的一項最新研究發現:以人臉識别技術作為觀察對象,日本受訪者在性别歧視上傾向特别明顯;在人為歧視和機器歧視上的差異也十分明顯。

是以,他認為,在評判人臉識别技術的歧視性時,應該把人類行為作為參考标準,看機器是否比人類做得更差。

“有些時候你會發現全部以人的态度為标準是不夠的。因為人在判斷的時候不能作為一個标準答案,特别是評判公平、透明性等等。我們要明白這一點。”佐倉統強調。

中科大機器人實驗室主任陳小平将人工智能倫理治理挑戰歸為三類:合理性問題、可控性問題和重大相關問題。

如果一項人工智能技術應用在倫理上産生負效應或超過可容忍範圍,就存在合理性問題,比如說使用者隐私、資料安全、公平透明等當下大家最關心的問題。可控性問題是指人類無法控制一種人工智能的持續存在和未來的發展方向。而重大相關問題是人類面臨的與人工智能相關的重大社會問題,比如無用階層、資料鴻溝、人的發展等。

陳小平認為,合理性問題可以用傳統的技術标準和市場監管的治理模式解決,但治理後兩個問題需要創新。針對可控性問題,可以設立一個新的研究分支,回答不可控人工智能可不可靠、如何防範風險等;針對重大相關問題,事後治理模式無效,需要提前引導,建立全新的治理模式。

如何治理:建構評測平台,提升倫理意識

談到如何治理,薛瀾表示,首先要做好利弊權衡,分析人工智能治理給整個經濟社會帶來的收益和成本;其次要看技術的應用是否會對社會各種行為準則和規範産生影響;第三要預見和評估對經濟社會的長遠影響。

針對第三點,李仁涵提出可以建構人工智能評測平台體系。他進一步指出,如果智能時代到來,評測平台将成為未來社會發展的重要基礎設施,也将成為技術與治理深度融合的平台——“技術在研發過程中要考慮治理,治理要給技術提供相應的‘子彈’。”

此外,評測平台将對相關人才的培養、成長發揮重要作用,對人工智能産業賦能。在于國外合作和交流方面,則可以展現中國的“硬實力”,成為參與國際規則制定的重要基礎。

至于具體的倫理治理實踐路徑,薛瀾提出,要健全相關治理體系,推動法律法規标準規範的出台和落地,在落地過程當中建立多主體參與對話機制、評估預警管理機制,還要加強倫理教育、提高倫理意識。

趙志耘則系統性地對人工智能全生命周期管理、研發、供應、使用四類活動提出建議。

她提到,管理主體應鼓勵引導和審查監督雙管齊下。一方面支援相關部門群組織繼續做好人工智能前瞻性重大問題研究,提升各參與方倫理治理的積極性,另一方面通過科學立法、行政監管,設立倫理審查機制等方式,防範化解倫理風險。

研發主體則應加快制定資料、算法、系統開發等方面的自律規範和技術指南,通過改造研發流程,開發安全可信可控的技術工具,建立實時監測響應機制。供應主體應在把關産品及服務品質、保障使用者基本權益的同時,積極提升品牌聲譽和信譽度。使用主體應做到善用不濫用、惡用人工智能,提高倫理意識,支援開展形式多樣的人工智能科普活動,全面提升全社會對于人工智能倫理的認知水準。

采寫:實習生韓豔燕 南都記者蔣琳