天天看點

紅星觀察|人工智能法納入立法計劃背後:專家建議劃定紅線,設定負面清單

作者:紅星新聞

日前,國務院辦公廳印發《國務院2023年度立法工作計劃》。其中值得注意的是,人工智能法草案等預備提請全國人大常委會審議,可見大陸人工智能領域立法将邁上新台階。

紅星觀察|人工智能法納入立法計劃背後:專家建議劃定紅線,設定負面清單

↑資料圖檔 圖據IC photo

其實,2017年國務院印發的《新一代人工智能發展規劃》就提出“三步走”的戰略目标,2020年,部分領域的人工智能倫理規範和政策法規初步建立。2025年,初步建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力。2030年,建成更加完善的人工智能法律法規、倫理規範和政策體系。

中國社科院法學所研究員、科技與法研究中心主任、博士生導師楊延超在接受紅星新聞采訪時表示,需要既考慮人工智能風險,又要考慮産業發展。人工智能還屬于技術發展的初期,不宜将很多問題規定得過細甚至過嚴。法律還應當以鼓勵産業發展為主,要确定大的紅線和負面清單的立法思想。所謂大的紅線和負面清單,就是考慮到人工智能可能給社會發展帶來的幾大危害,劃定紅線。比如人工智能不能用于詐騙、不能用于資料攻擊等。

為什麼說人工智能立法條件已經成熟?

過去幾年,大陸人工智能領域建章立制已經起步。2022年3月1日開始實施的《網際網路資訊服務算法推薦管理規定》(以下簡稱“算法推薦管理規定”)中,生成合成類算法被列為五大類算法推薦技術之一(生成合成類、個性化推送類、排序精選類、檢索過濾類、排程決策類),受到監管。

2023年1月1日開始實施的《網際網路資訊服務深度合成管理規定》(以下簡稱“深度合成管理規定“)中,将深度合成作為算法服務種類中高風險的算法率先立法監管,進一步加強了對該領域的監管力度。

為了進一步推動人工智能領域的規範和發展,國家網際網路資訊辦公室于2023年4月11日釋出了《生成式人工智能服務管理辦法(征求意見稿)》。

綜合以上三份檔案,随着算法和人工智能技術的發展,大陸對其治理也形成了“算法治理——深度合成治理——生成式人工智能治理”的疊代路徑。

紅星觀察|人工智能法納入立法計劃背後:專家建議劃定紅線,設定負面清單

↑資料圖檔 圖據圖蟲創意

中國社科院法學所研究員、科技與法研究中心主任、博士生導師楊延超教授長期研究人工智能立法問題。在楊延超看來,以上幾部管理辦法的出台,展現的是随着人工智能技術的進步,立法工作也進步。

楊延超解釋,最開始出台的推薦算法相關規則是因為很多平台通過算法來提升服務,使用使用者畫像來計算使用者偏好,使用者不需要檢索,平台就會自動推薦相關内容。推薦算法得到廣泛應用以後,最先出台的便是關于推薦算法的管理規則。後來又出現了深度合成技術,包括“換臉”技術等,可以生成語音、圖像。這個過程也引發了人們對于權利的思考,包括是否會侵犯人身權等問題,是以出台了深度合成的管理規則。今年年初,ChatGPT這種生成式人工智能引發了一系列挑戰,而且目前各個領域都在用大模型來完成生成式人工智能,生成文字、圖像,甚至代碼、視訊,可以看到人工智能已經具備了一定的資料整合、推理、邏輯分析的能力,這是過去人才具備的能力,是以會産生個人隐私、資料安全、知識産權保護等一系列問題。出于對這些問題的擔憂,又開始制定生成式人工智能的管理規則。這是一個技術與法律進化的脈絡。

之是以在今年提出要把人工智能法草案納入立法計劃,楊延超表示,是因為人工智能技術經過了多年的積累,今年得到了爆發式的增長。在整個技術産業中,大模型成為了一種突破,在此之前,某些局部領域,小模型解決了一定問題,但處在技術瓶頸中。這一次大模型的發展,帶來了全新的可以實作的能力。OpenAI的試驗讓人們看到,大模型時代AI産生了類人的能力。在這麼一個特殊的時期,立法者、管理者在思考産業發展的同時,也會考慮到相應的風險,通過把規則制定出來,保證行業健康發展。

楊延超表示,過去大陸已經制定的法律包括《個人資訊保護法》《資料安全法》,以及上述關于推薦算法、深度合成的部門規章,還有智能駕駛相關規定,都成為人工智能立法的前期積累。

對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣在接受紅星新聞采訪時表示,上述幾部法律規範雖然時間上有先後,但不是一個線性發展的過程,人工智能法草案其實早有籌備,并且一直在推動,在部門規章層面這種小切口的立法有較快推進。

張欣也提出,目前對于人工智能的立法,各方面的條件已經成熟,已經在次一層級有了一些低位階的立法,這對上位階的立法已經有了一定規範基礎。另一方面,公衆的數字素養和對立法需求的認知,包括科技企業的合規意識,還有相關的技術标準和倫理等有了一定完善。在整個制度基礎層面,人工智能法立法的基礎已經比較成熟。

立法困難何在?

人工智能技術還處于發展初期,挑戰重重

楊延超認為,目前立法的困難在于,人們對于人工智能技術的規律還不能說有很好的掌握,仍然處于探索期。對于人工智能技術可能産生什麼樣的風險,還需要總結和摸索,甚至出現了一些破壞性案例以後才能逐漸完善。是以目前的立法隻能是相對原則性的立法。

“各個法律法規之間配套是一個比較大的挑戰。”張欣說,比如在法律層面,資料平台和算法與人工智能密不可分。之前已經有了個人資訊保護法、電子商務法、網絡安全法、資料安全法等,這些法律和即将制定的人工智能法之間的關系是怎麼樣的,它的比對是怎麼樣的,需要進一步考慮。第二個挑戰是,目前大陸已經在次一級的立法,比如部門規章、行政法規等層面已經有了一些立法的基礎,在做更高位階的基礎性法律時,如何和下面的這些已有的法律規範進行比對。

紅星觀察|人工智能法納入立法計劃背後:專家建議劃定紅線,設定負面清單

↑資料圖檔 圖據IC photo

張欣說,第三個挑戰在于人工智能領域變化非常快,尤其是技術發展,生成式人工智能的出現。比如,歐盟的《人工智能法案》,制定的時候如果沒有ChatGPT出現,它可能不會是今天的這麼一個迅速改動的面貌,可能基本上已經通過了。但因為ChatGPT的出現,打亂了它制定的節奏。從歐盟《人工智能法案》的制定就能看出,人工智能領域立法的滞後性越來越明顯。是以,不管對于大陸還是其他國家,人工智能立法既做到包容審慎,又給科技創新留下比較充足的彈性空間,能夠具有一定前瞻性難度非常大。這可能需要立法技術上,包括立法制度上有一個開放、動态的彈性空間。

立法需要關注什麼?

人工智能涉及方方面面,需關注算力、算法、資料

人工智能會涉及到生産生活的方方面面,比如内容治理、資料保護、知識産權、智能駕駛等,也有人工智能技術開發中的技術倫理,人工智能應用、服務中可能産生的侵權問題等。是否這部法律也會像一個法典一樣龐大?人工智能法草案會有哪些内容是必備的?

紅星觀察|人工智能法納入立法計劃背後:專家建議劃定紅線,設定負面清單

↑資料圖檔 圖據圖蟲創意

楊延超表示,人工智能在各個領域都有表現,比如無人駕駛、知識産權、金融等,在每個領域表現出來的法律關系、權利義務、法律責任都不同。立法的過程大機率會從部門法中産生的問題進行逐漸梳理總結。

楊延超舉例,比如在無人駕駛領域,産生的法律規則已經非常複雜,但是它的特點與生成式人工智能不同,需要做的是對傳統交通法規的變更,過去駕駛員變成了機器,這裡面對于交通事故過錯責任、侵權責任的了解都會産生根本性變化。其他領域也是如此,立法應該在細分的領域有深耕細作,然後抽象出來做法典化更新。

張欣也認為,參照個人資訊保護法、網絡安全法。人工智能法作為一個基礎性的法律,可能不會像歐盟的《人工智能法案》一樣那麼長;可能就人工智能的使用者,服務的提供者、開發者、部署者,這些主體的權利義務責任理清楚,而不會像一個法典那麼龐大。

那麼人工智能立法應該有哪些必備内容?楊延超表示,不論什麼領域的人工智能立法,都離不開人工智能三個要素的規定和三個原則的考量。所謂三要素就是:算力、算法、資料,因為不管解決什麼樣的人工智能問題都離不開這三個要素。所謂三個原則就是:産業發展、權利保護、倫理考量,制定的法律要保護人的權利要經得起現代人倫理的考慮,還要能夠促進産業的發展。

如何處理好風險與發展的關系?

專家建議劃定紅線:人工智能不能用于詐騙、資料攻擊

制定法律如何既規避亂象,又不限制技術發展,實作良法善治?楊延超表示,這就要既考慮人工智能風險,又要考慮産業發展。因為目前還屬于技術發展的初期,不宜将很多問題規定得過細甚至過嚴。整部法律還應當以鼓勵産業發展為主,要确定大的紅線和負面清單的立法思想。所謂大的紅線和負面清單就是考慮到人工智能可能給社會發展帶來的幾大危害,劃定紅線。比如人工智能不能用于詐騙、資料攻擊等。劃好紅線,任何産業發展不能逾越。這樣既給了産業發展極大空間,又保障了人類社會基本安全不會受到侵犯。

張欣表示,人工智能治理一方面要進行靈活治理,同時又要保證治理具有韌性。在提出這個治理架構和目标之後,要依靠一系列的治理工具将它落地,比如在人工智能領域中,算法影響評估、算法認證、算法審計等都是非常好的治理工具。有了這些工具之後就可以保證它跟這些技術的發展是不斷同态調整的,這是一個持續動态調整和調優的過程。在人工智能領域當中,不管是進行立法,還是在整個治理過程中,需要依賴一系列治理工具把它落地。

紅星新聞首席記者 吳陽 實習生 李晨笑 北京報道

編輯 張莉 責編 馮玲玲

(下載下傳紅星新聞,報料有獎!)

紅星觀察|人工智能法納入立法計劃背後:專家建議劃定紅線,設定負面清單

繼續閱讀