天天看點

為人工智能治理提供中國方案

作者:美食家的小眼睛
為人工智能治理提供中國方案

觀衆在2023雲栖大會“人工智能+”展館參觀人工智能産品及應用。新華社記者 黃宗治攝

近年來,全球人工智能技術快速發展,應用日益廣泛。特别是以ChatGPT為代表的生成式人工智能,在諸多領域催生創新應用,為各行各業帶來更多機遇。

在賦能人類社會經濟發展的同時,人工智能的“狂飙突進”也伴随着安全隐患和風險挑戰。特别是人工智能技術對法律、倫理和人道主義層面的沖擊及其對國際政治、經濟、軍事、社會等領域帶來的複雜影響,已引發國際社會的關注和讨論。人工智能的跨國界合作與規範性治理顯得尤為迫切。

本月初,包括中國、美國、英國和歐盟在内的28個國家和地區,在首屆人工智能安全峰會上簽署《布萊奇利宣言》,同意協力打造一個“具有國際包容性”的前沿人工智能安全科學研究網絡,以對尚未被完全了解的人工智能風險和能力加深了解。

而在今年10月,中國在第三屆“一帶一路”國際合作高峰論壇期間提出《全球人工智能治理倡議》(下稱“倡議”),圍繞人工智能發展、安全、治理三方面系統闡述了人工智能治理的中國方案,為全球人工智能治理提供了建設性解決思路。

以人為本 智能向善

中國在倡議中提出,發展人工智能應堅持“以人為本”理念,以增進人類共同福祉為目标,以保障社會安全、尊重人類權益為前提,確定人工智能始終朝着有利于人類文明進步的方向發展。積極支援以人工智能助力可持續發展,應對氣候變化、生物多樣性保護等全球性挑戰。

中國科學院自動化研究所人工智能倫理與治理中心主任曾毅認為,人工智能作為社會發展的“賦能性”技術,首要服務于提升人類福祉,是以要確定人工智能技術的穩健與安全。中國在倡議中明确提出“以人為本”,展現出這是一個面向全球和全人類的治理方案。

人工智能的發展,是否會打開令人意想不到的“潘多拉魔盒”?在對外經濟貿易大學數字經濟與法律創新研究中心主任張欣看來,人工智能特别是生成式人工智能的發展,既導緻傳統技術風險加劇,又帶來了一系列新興風險,影響社會倫理秩序,帶來了一系列安全和倫理挑戰。

“人工智能技術風險具有隐蔽性、跨域性、全球性、長期性。盡管目前有一系列法律法規、倫理規範和技術标準對人工智能進行治理,但資本逐利的傾向可能導緻技術異化,這就需要從國際層面展開持續性、系統性和協同性的治理努力。”張欣說。

在倡議中,中國明确提出,發展人工智能應堅持“智能向善”的宗旨,遵守适用的國際法,符合和平、發展、公平、正義、民主、自由的全人類共同價值,共同防範和打擊恐怖主義、極端勢力和跨國有組織犯罪集團對人工智能技術的惡用濫用。

事實上,今年以來,包括美國、英國、歐盟在内的多個國家和地區已着手開展人工智能的治理工作,并提出各自的治理方案。清華大學戰略與安全研究中心特約專家朱榮生分析指出,這些方案有的聚焦于治理原則,有的則是抛出行動準則,但國際社會目前最需要的是能夠突出反映國際共識、提綱挈領的文本,而中國的倡議恰恰為人工智能治理的共識性文本提供了重要基礎。

健全法制 倫理先行

中國是人工智能大國。資料顯示,中國人工智能核心産業規模達到5000億元,企業數量超過4300家,創新成果不斷湧現。世界知識産權組織的資料顯示,2022年中國企業和機構申請了近3萬項人工智能相關專利,占全球人工智能專利申請的40%以上。

在技術和相關産業發展的同時,中國一直緻力于提升人工智能技術的安全性、可靠性、可控性、公平性。

今年4月,中國國家網際網路資訊辦公室釋出《生成式人工智能服務管理辦法(征求意見稿)》,支援人工智能算法、架構等基礎技術的自主創新、推廣應用、國際合作,同時明确提供生成式人工智能産品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,禁止非法擷取、披露、利用個人資訊和隐私、商業秘密。

在倡議中,中國同樣提出逐漸建立健全法律和規章制度,保障個人隐私與資料安全;堅持倫理先行,建立并完善人工智能倫理準則、規範及問責機制,形成人工智能倫理指南,建立科技倫理審查和監管制度;堅持公平性和非歧視性原則,避免産生針對不同或特定民族、信仰、國别、性别等偏見和歧視等。

張欣表示,目前全球人工智能治理法治化特征日益凸顯,逐漸轉向“軟法與硬法雙軌并行、剛柔并濟”的新型治理模式。“中國提出建立并完善人工智能倫理準則、規範及問責機制等倡議,既符合國際治理趨勢,又能有效應對人工智能技術帶來的新挑戰,展現了中國在全球人工智能治理秩序建構程序中的建設性貢獻”。

北京師範大學法學院博士生導師、中國網際網路協會研究中心副主任吳沈括指出,目前部分國家和地區面對人工智能的快速發展,在認知和治理能力上存在不足,還有部分國家利用技術優勢,推行技術霸權,損害了其他國家和人民的發展利益。“各方應攜手落實中國倡議,妥善應對科技發展帶來的規則沖突、社會風險和倫理挑戰”。

平等發展 彌合差距

國際貨币基金組織的一項研究發現,人工智能等新技術可能使更多投資轉向已經實作自動化的發達經濟體,進而拉大富裕與貧困國家之間的差距。專家指出,在人工智能領域,開發中國家與發達國家之間存在“智能鴻溝”與治理落差,面臨着與發達國家在科技和産業發展方面的“代差”風險。

對此,中國在倡議中提出,各國無論大小、強弱,無論社會制度如何,都有平等發展和利用人工智能的權利。增強開發中國家在人工智能全球治理中的代表性和發言權,確定各國人工智能發展與治理的權利平等、機會平等、規則平等,開展面向開發中國家的國際合作與援助,不斷彌合智能鴻溝和治理能力差距。

朱榮生表示,目前人工智能發展與治理存在着“強者先行、強者定法”的短期特征,一些技術基礎較為薄弱的開發中國家可能會落入“弱者落後、遵從強者”的困境。“中國支援開發中國家參與人工智能全球治理規則制定,并呼籲通過基礎設施、人才教育訓練、聯合研發、市場交流等方式與開發中國家展開國際合作和援助,這對于人工智能的全球治理具有重要意義。”

在首屆人工智能安全峰會上,中國提出,作為開發中國家的一員,中方願與各方就人工智能安全議題加強交流和溝通,反映“全球南方”對新興技術的普遍關切,為推動形成普遍參與的國際機制和具有廣泛共識的治理架構貢獻智慧,促進人工智能技術更好造福于人類,促進全球可持續發展,共同建構人類命運共同體。

中國現代國際關系研究院研究員張力認為,倡議回應了國際社會尤其是廣大開發中國家對人工智能發展的普遍擔心和關注,充分考慮到廣大開發中國家擔憂人工智能技術發展會對其國家安全和主權造成威脅的訴求。中國在人工智能治理這一國際社會重大議題上為廣大開發中國家代言發聲,展現了中國推動完善全球治理的大國擔當。

多個國家和地區關注人工智能治理

歐 盟

今年6月,歐洲議會全體會議表決通過《人工智能法案》提案的談判授權草案,這一法案進入歐盟立法嚴格監管人工智能技術應用的最終談判階段。這是全球首部有關人工智能的法規。該法案草案的一個突出特點是注重基于風險來制定監管制度,以平衡人工智能的創新發展與安全規範。

美 國

今年10月30日,美國總統拜登簽署一項行政指令,為人工智能安全制定新标準。這一行政令要求,美國最強人工智能系統的研發人員需與政府分享其安全測試結果及其他關鍵資訊;完善相關标準和測試工具,確定人工智能系統安全、可靠;制定嚴密的合成生物檢查新标準,防範使用人工智能設計危險生物材料的風險;建立檢測人工智能生成内容和驗證官方内容的标準和最佳實踐,以幫助群眾防範人工智能驅動的欺詐;建立先進的網絡安全計劃,開發人工智能工具查找和修補關鍵軟體漏洞;研發制定“國家安全備忘錄”,指導人工智能和安全方面的進一步行動。

其他國家

日本、新加坡、加拿大和德國等根據各國科技基礎能力與戰略發展需求形成了各有側重的立法方向。日本面臨人工智能安全帶來的法律問題,選擇從個人資訊和資料保護入手,通過明确資料主體的權責劃分,推動政府和企業形成協同研發網絡,建構有利于人工智能安全發展的生态系統。德國的人工智能安全相關立法關注技術對經濟和生活的影響,重點關注自動駕駛、智能醫療等緊扣改善人類經濟和生活的主題。新加坡和加拿大則重點關注人工智能這一戰略性技術為經濟、社會賦能的價值,從資料、安全監管入手開展相關立法。

資料來源:新華社、國務院發展研究中心國際技術經濟研究所等

來源:人民日報海外版

繼續閱讀