天天看點

【觀察】人工智能法草案來了,但防範風險的猜想多于現實

作者:酒死了

界面新聞記者 | 張旭

界面新聞編輯 | 劉海川

人工智能法草案進入國務院2023年度立法工作計劃,預備年内提請全國人大常委會審議。

“人工智能領域立法可以確定人工智能技術的安全和可信使用。”西南政法大學人工智能法學院教授朱福勇向界面新聞表示,立法可以明确責任歸屬方法或原則,保護人權,防止人工智能的濫用,確定智能決策過程更加公開透明,防止不公平和歧視的現象,保護公共利益,預防未來風險。

"我們認為,風險類型主要包括資料安全、網絡輿情威脅、算法歧視、個人資訊洩露、知識産權侵權、誘發網絡犯罪、技術壟斷以及侵蝕教育體系等。"他說。不過,這些風險大多還是停留于猜想和假設層面,尚未實際發生,這些風險的發生機率同樣未有定論。

為何立法?

放觀國外,全球範圍内關于人工智能安全的治理逐漸深入和具化。朱福勇介紹,2017年以來,美國、歐盟、德國、加拿大、日本、新加坡等國家或地區已陸續釋出人工智能發展和治理的規範,各國和地區開展的立法探索呈現出從宏觀性準則和戰略,逐漸細化至諸如自動駕駛治理、資料安全等具體層面的趨勢。

然而“目前來看,大陸無論從國家部委、還是地方層面,還沒有人工智能相關立法。我們了解到的,更多的是各級政府出台的指導意見和促進政策,或是人工智能基礎共性、關鍵技術、安全倫理等各層次的标準制定。”北京市京師(深圳)律師事務所知識産權中心主任管巧麗說。

界面新聞注意到,2017年7月20日,國務院印發《新一代人工智能發展規劃》明确提出人工智能立法“三步走”戰略目标:到2020年,實作部分領域的人工智能倫理規範和政策法規初步建立;2025年,初步建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力;2030年,建成更加完善的人工智能法律法規、倫理規範和政策體系。

2023年4月,國家網際網路資訊辦公室釋出關于《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱“《管理辦法》”)公開征求意見的通知,就生成式人工智能服務内容進行針對性規範。

地方層面上也曾對人工智能發展進行合規性限制。2022年9月上海釋出《上海市促進人工智能産業發展條例》;2022年11月,《深圳經濟特區人工智能産業促進條例》正式施行,針對不法分子利用人工智能盜取資料或者“殺熟”,《條例》要求政府設立專門的人工智能倫理委員會,推進人工智能倫理安全規範的制訂和實施。

“不過,目前為止,對人工智能的限制大多依靠自主性的道德準則,全國僅在少數地方探索性地出台了人工智能相關限制條例,但并未系統性地對人工智能的行為規範、處罰準則進行規定。”南昌大學元宇宙研究院院長、南昌大學數學與計算機學院教授闵衛東在2023年兩會上談到,現有的立法程序對于《新一代人工智能發展規劃》中“第二步”的要求,還相差甚遠。并且,地方關于人工智能領域的法律法規存在其天然的局限性,無法站在國家層面的高度進行立法,不能覆寫和應對全國、全社會對立法的需求。

對此,他建議國家層面加大力度進一步推進人工智能領域立法,從國家法律層面支撐國家人工智能發展戰略,促進人工智能産業健康發展,保障數字經濟高品質發展安全。

立法難點何在?

“如果想要制定一部促進法,可能較為簡單,但若想制定一部綜合性法律或者以治理為主要特色的法律,則較為困難。”上海同濟大學教授陳吉棟認為,此次立法面臨諸多難點。“任何一部法律,需有明确的調整對象。而在此次立法當中,我們對所要調整對象的認知并不清晰。”陳吉棟向界面新聞介紹,明确調整對象才能進行核心制度設計。但是,“我們無法科學評估人工智能系統在研發、生成、應用環節中會造成怎樣的風險。”是以,“從這個意義上來講,制定一部人工智能法案的最大難處在于如何對法律本身進行定位。”

朱福勇也談到,就人工智能風險的評估與預測文獻梳理而言,"我們認為,風險類型主要包括資料安全、網絡輿情威脅、算法歧視、個人資訊洩露、知識産權侵權、誘發網絡犯罪、技術壟斷以及侵蝕教育體系等。"不過,這些風險大多還是停留于猜想和假設層面,尚未實際發生,這些風險的發生機率同樣未有定論。

他解釋,“基于前瞻性和預測性的立場,不少學者着手探讨人工智能應用的治理理論和監管模式。其中,最為典型的一種觀點是鑒于ChatGPT、GPT-4所展現出的強大功能及其潛在的巨大安全風險,主張通過專門立法解決現階段以及未來可能發生的技術風險,但卻始終未能言明專門立法所需要解決的調整對象、基本原則以及責任體系等問題。”

除了難以言明調整對象之外,人工智能立法還存在其他難題。朱福勇談到,人工智能技術更新疊代速度極快,立法難以與技術更新速度保持同步,這可能導緻法律規制難以适應新技術的應用和影響。除此之外,違法追責難題也需化解,如果人工智能系統做出有害的決策或行為,由誰負責較為合洽?算法的可解釋性也是立法要面臨的難題。

技術創新與法律監管需适度平衡。“人工智能需要大量的資料進行訓練和學習,但這涉及到個人隐私和資料保護的問題。如何平衡促進科技創新和保護個人隐私之間的關系極具有挑戰性。”朱福勇表示。

重在平衡,不宜嚴苛

如何展開立法思路,在現有法律體系架構内針對市場準入和具體應用制定可操作性條款?朱福勇建議,要本着創新導向、合法必要、安全可信、風險防範和多主體全領域監管等原則展開立法相關工作。

他指出,要明确界定人工智能的内涵和外延,明确立法适用的範圍,包括公共部門和私營部門,以及國内和跨境應用等。其次,明确人工智能法律監管主體、模式、内容和監管責任。此外,也需明确資料隐私和保護規則、透明與可解釋規則。包括要求解釋決策過程的基本原理、輸入和輸出,確定決策過程的可追溯性和可解釋性。

"立法也要規定開發者和使用者對AI系統的行為負有責任,建立追溯機制和責任追究;也要禁止基于種族、性别、宗教、性取向等因素的歧視性使用AI技術,確定算法決策不帶有偏見和不公正性。"朱福勇說,還要明确安全和防範規則、國際合作與标準規則。促進國際合作與協調,積極參與國際組織和倡議,推動AI治理和政策制定的國際對話。

管巧麗一直從事知識産權領域工作。權利客體的保護問題方面,她建議在交叉領域開展法律層面研究,明确人工智能技術創作的作品是否屬于知識産權保護客體。

對于如何平衡監管規制與技術創新?陳吉棟介紹,“這部法律是面向未來的,應具有法律3.0的特色。”他解釋,應該認識到規制力量的提供并不在于法律本身,而是在于被規制主體、規制能力、規制資源,以及規制作用的發揮。“若盲目設定一些很空泛的制度,去試圖守住安全底線,忽視被規制主體的利益,不會是成功的立法。”陳吉棟說。 他建議,要建立規制空間,使得不同的規制主體能夠進行有效的商談。

朱福勇也認為,通常在人工智能技術發展初期,不宜采取過于嚴苛的監管措施;當技術成熟、市場需求增長、風險和問題日益突出的時候,則應加大監管強度。目前情勢下,堅守價值引領與技術“糾錯”并行、秩序保障與創新提升協同、權益維護與義務承擔對稱,無疑是最恰當的平衡之道。

繼續閱讀