天天看點

深度合成、算法、AIGC監管與人格權保護(29):人工智能治理

作者:YunfangW

“去廣告利器”與“青少年模式”

昨天第一個案例中提到平台為保護未成年人權益采取了專門技術措施,鄰近兒童節,我們再看一個案例。

被告通過其開發、營運的“去廣告利器”App,為使用者提供自動跳過/屏蔽騰訊産品“青少年模式”入口彈窗的功能。法院判定被告構成不正當競争,酌定賠償原告騰訊公司經濟損失及合理支出300萬元,全額支援了原告的索賠請求。

被告答辯時曾辯稱“去廣告利器”軟體是通過手機系統無障礙輔助功能來實作幫助使用者解決重複繁瑣的點選操作,屬于合法使用、合法營運,其開發目的是為了提升自己的專業能力而非為了入侵破解他人産品、謀取不正當利益。法院沒有采信該抗辯意見,法院認為:

  • 安卓系統自帶的無障礙服務(也叫輔助服務)功能的設計初衷是讓殘疾使用者,特别是視覺障礙使用者順利使用,随着該服務的普遍應用,現已演化為幫助普通使用者簡化操作的功能;
  • 涉案app的無障礙服務及“青少年模式彈窗自動關閉”功能确實需要使用者授權開啟,但被告将此作為“會員尊享特權”,并使用“限時免費”的噱頭吸引使用者購買會員,足見其行為是商業行為,該等行為與便利使用者、友善操作的無障礙服務設計的初衷背道而馳,主觀上存在明顯的故意;
  • “青少年模式”既是原告産品踐行青少年網絡安全保護的主打功能,也是國家要求網絡平台必須設定的功能,被告軟體的運作對該功能進行了幹擾,超出了軟體開發和營運的合理範圍和需要,具有不正當性。

法院對被告被訴行為進行分析時,從社會責任承擔角度作出以下評價:

  • 被訴行為實質上是以技術中立為由,為擷取經濟利益,妨礙、破壞原告的網絡産品及服務的正常運作的不正當行為;
  • 既阻礙了網絡音視訊、網絡、直播等行業的長期健康發展,亦違反了未成年人保護的相關法律規定以及相關監管部門的指導意見,損害了未成年人合法權益和公共利益,對原告公司、消費者、其他網際網路經營者及競争秩序都造成了損害,且缺乏合理理由,具有不正當性。

被告在答辯時提出了非常具有代表性的觀點——此類軟體并非其獨創,而是參考了市場上普遍存在的“去廣告”類軟體,已經存在的軟體“應該”就是合法的。我們都知道這種法不責衆式抗辯在個案中沒有意義,但現有法律規則體系沒有要求所有産品/服務上線前都應經審查與安全評估;司法裁判有示範意義和警示作用但作用有限——畢竟無法指望市場活動主體因他人敗訴教訓而停止逐利;除非監管部門認為有對同類軟體進行治理的必要,市場上還是會有同類産品出現。

AIGC治理

回到AIGC話題,以這兩天出現的科大訊飛股價下跌事件為例:使用AIGC編造虛假資訊屬于違法行為,應受法律制裁,涉刑的還要承擔刑事責任,受害者也有權對惡意抹黑、捏造虛假資訊,侵害其名譽權的行為人發起訴訟,要求其承擔民事責任。

也就是說,現有法律規則體系可以支撐個案中的權利人合法權益保護和對侵權主體的追責,但生成式人工智能技術突破式發展的同時也帶來侵權效率提升、侵權影響擴大、侵權行為識别難度加大、可能會造成無法彌補的後果等問題,為網絡人格權保護、知識産權侵權、虛假資訊治理等帶來前所未有的挑戰。現有法律規則體系為應用層監管與事後處理提供依據,但并不能完全消除解決新技術應用對社會秩序、公共利益帶來的沖擊。

從深度合成、算法與AIGC相關監管規則以及資料權益、科技倫理審查等相關的規則釋出情況來看,趨勢是一方面需要将目前尚處探索期的科技倫理審查、算法備案審查、資料模型備案審查等從應用層監管前伸至研發層監管的措施從指引/原則性規定上升為具有強制性的法律規範,一方面需要結合多元監管、動态治理、加強普法教育等綜合手段實作有效治理。也就是說,監管前伸至“産品/服務上線之前”是必然趨勢,但在适用範圍、具體措施方面有很多争論:

  • 以人工智能技術應用為例,前段時間一女子地鐵照被人使用AI軟體“一鍵脫衣”,并在網絡釋出傳播。有觀點提出這類應用有違倫理道德,一開始就不該存在;如果某類功能在研發階段就可以預見到會産生人格權侵權、知識産權侵權或者可助力虛假資訊傳播,應當限制其上線;也有觀點認為可以用于侵權甚至違法犯罪用途,并不意味着産品/服務本身就是惡意目的或技術濫用。“公序良俗”“倫理道德”相較于“實名身份資訊認證”“深度合成内容應進行标注”等規則,在法律解釋上存在很大的空間,易于因利益平衡、價值判斷标準不同而出現差異判斷。
  • 再比如,模型訓練階段使用大量版權内容是否可視為“合理使用”,有的觀點認為在司法裁判中可以從寬解釋《著作權法》第24條規定的13種情形,為技術應用與行業發展留有空間;有的觀點認為第24條之是以采用封閉式立法,就是考慮到合理使用對著作權的限制極大,司法裁判不應突破法定的13種情形而創設新的合理使用情形。不同觀點反映出對著作權人、使用者、公共利益之間重新取得平衡的不同看法。感興趣的話可以關注一下近期關于“AI孫燕姿”的讨論與論文。

與深度合成服務、算法、AIGC治理問題相關的讨論往往會圍繞加強監管、完善立法、重構侵權責任體系、提升公衆自我保護意識等方面展開并提出一些具體建議,比如:

  • 建議對深度合成服務提供者和技術支援者嚴格執行注冊備案、安全評估、顯著辨別等要求;
  • 建議監管部門加強對AIGC類應用程式或軟體的上架審查和抽檢,對違法違規應用及時采取下架等措施;
  • 建議明确研發階段可預見侵權、算法執行過程中自動侵權、接受使用者指令後侵權等多種形式下的侵權責任認定與規則原則。

今天先看一下大陸人工智能治理的思路,明天再回過頭來看思路指導下的深度合成服務、算法、AIGC等相關的科技倫理審查問題。

關于人工智能治理

在人工智能治理方面,可以看一下外交部就制定“全球數字契約”向聯合國送出的《中國關于全球數字治理有關問題的立場》。其中,具體建議部分的第六點詳細闡述了關于加強人工智能治理的建議,包括:

  • 各國應堅持倫理先行,建立并完善人工智能倫理準則、規範及問責機制,明确人工智能相關主體的職責和權力邊界,充分尊重并保障各群體合法權益。
  • 各國應要求研發主體加強對人工智能研發活動的自我限制,避免使用可能産生嚴重消極後果的不成熟技術,確定人工智能始終處于人類控制之下。
  • 各國應要求研發主體努力確定人工智能研發過程的算法安全可控,不斷提升透明性、可解釋性、可靠性,逐漸實作可稽核、可監督、可追溯、可預測、可信賴;努力提升人工智能研發過程的資料品質,提升資料的完整性、及時性、一緻性、規範性和準确性等。
  • 各國應要求研發主體充分考慮差異化訴求,避免可能存在的資料采集與算法偏見,努力實作人工智能系統的普惠性、公平性和非歧視性。
  • 各國應禁止使用違背法律法規、倫理道德和标準規範的人工智能技術及相關應用,強化對已使用的人工智能産品與服務的品質監測和使用評估,研究制定應急機制和損失補償措施。
  • 各國應加強人工智能産品與服務使用前的論證和評估,推動人工智能教育訓練機制化,確定相關人員具備必要的專業素質與技能。
  • 各國應保障人工智能産品與服務使用中的個人隐私與資料安全,嚴格遵循國際或區域性規範處理個人資訊,反對非法收集利用個人資訊。

大陸的做法是立足自身人工智能發展階段和社會文化特點:

  • 探索建立符合自身國情的科技倫理審查制度和監管制度,加強人工智能安全評估和管控能力;
  • 建立有效的風險預警機制,采取靈活治理,分類分級管理,不斷提升風險管控和處置能力。

參考:

2023年4月11日,天津自由貿易試驗區人民法院民事判決書(2022)津0319民初23977号(判決書全文見知産寶公衆号于2023年5月24日發表的《競争案例丨全額判賠300萬元!利用技術手段屏蔽“青少年模式”彈窗的行為構成不正當競争》)

界面新聞公衆号于2023年5月24日發表的《虛假AI“小作文”緻科大訊飛股價閃崩》

http://newyork.fmprc.gov.cn/web/wjb_673085/zzjg_673183/jks_674633/zclc_674645/qt_674659/202305/t20230525_11083602.shtml

繼續閱讀