天天看點

深度合成、算法、AIGC監管與人格權保護(33):AIGC倫理問題

作者:YunfangW

AIGC倫理風險與治理

前天看了人工智能倫理與倫理風險審查,昨天看了算法規定、深度合成規定及具體應用領域監管規則中與算法倫理與風險治理相關的問題,今天看一下AIGC相關的倫理準則與風險治理問題。

《生成式人工智能服務管理辦法(征求意見稿)》第4條在深度合成規定第4條基礎上要求“提供生成式人工智能産品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗”,其中:

  • “尊重社會公德、公序良俗”和深度合成規定中要求提供深度合成服務時尊重的“社會公德和倫理道德”有一定差異,公序良俗、倫理道德、商業道德在具體法律規範層面需要做區分。
  • 然後以列舉方式提出具體要求,其中包括與算法、模型、生成内容等相關的倫理道德方面的要求:

第四條 提供生成式人工智能産品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,符合以下要求:

(一)利用生成式人工智能生成的内容應當展現社會主義核心價值觀,不得含有颠覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情資訊,虛假資訊,以及可能擾亂經濟秩序和社會秩序的内容。

(二)在算法設計、訓練資料選擇、模型生成和優化、提供服務等過程中,采取措施防止出現種族、民族、信仰、國别、地域、性别、年齡、職業等歧視。

(三)尊重知識産權、商業道德,不得利用算法、資料、平台等優勢實施不公平競争。

(四)利用生成式人工智能生成的内容應當真實準确,采取措施防止生成虛假資訊。

(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隐私,侵犯知識産權。禁止非法擷取、披露、利用個人資訊和隐私、商業秘密。

  • 其中第(一)項對生成内容提出引導性要求,即要求生成内容展現社會主義核心價值觀;第(二)項要求主體采取措施以防止在算法設計、訓練資料選擇、模型生成和優化、提供服務等過程中出現歧視問題;第(三)項要求主體尊重商業道德,不得利用算法、資料、平台等優勢實施不正當競争;第(四)項要求主體采取措施,預防利用AIGC技術生成虛假資訊;第(五)項涉及人格權、商業秘密、知識産權方面的保護。
  • 第(一)、(四)項的要求在《網絡資訊内容生态治理規定》以及網際網路新聞服務等專門法律規範中有更為詳細明确的要求;第(二)項“不歧視”落入人工智能倫理規則範圍;第(三)項涉及商業道德方面的要求,商業道德在法律規範層面一般是指營利性主體應當遵守的規範,與“倫理道德”有差異。

除了第4條,《辦法》征求意見稿在第10條提出普遍适用的防沉迷要求,在第12條提出反歧視要求:

  • 第十條 提供者應當明确并公開其服務的适用人群、場合、用途,采取适當措施防範使用者過分依賴或沉迷生成内容。
  • 第十二條 提供者不得根據使用者的種族、國别、性别等進行帶有歧視性的内容生成。

如果說前述規定主要是針對AIGC産品/服務提供者自身在科技活動、服務提供過程中提出合法合規、尊重倫理道德方面的要求,第18-19條就進一步從網絡空間生态治理等考慮出發,要求提供者引導使用者科學認識和理性使用新技術新應用,不僅在使用者出現違法違規行為時及時采取措施,使用者出現有違倫理道德準則的情況時,也需要采取措施:

  • 第18條第1款規定“提供者應當指導使用者科學認識和理性使用生成式人工智能生成的内容,不利用生成内容損害他人形象、名譽以及其他合法權益,不進行商業炒作、不正當營銷”;
  • 第19條規定“提供者發現使用者利用生成式人工智能産品過程中違反法律法規,違背商業道德、社會公德行為時,包括從事網絡炒作、惡意發帖跟評、制造垃圾郵件、編寫惡意軟體,實施不正當的商業營銷等,應當暫停或者終止服務”;
  • 除了對使用者采取暫停或終止服務的措施,提供者自身也要依據第15條要求采取内容過濾、模型優化訓練等措施,以防止再次生成。即“對于運作中發現、使用者舉報的不符合本辦法要求的生成内容,除采取内容過濾等措施外,應在3個月内通過模型優化訓練等方式防止再次生成”。

這個系列開始時,我們對《辦法》征求意見稿存在的問題,尤其是與已有監管規則體系銜接的問題做過分析,提出對于AIGC相關經營者來說,比較穩妥的做法是1)結合具體業務領域以及風險事項,識别應适用的法律法規以及部門規章,用于指導業務實施;2)在此基礎上引入算法規定、深度合成規定、《辦法》征求意見稿中有關程式性的指引,完善内部合規準則。AIGC倫理風險評估與審查也不例外,前述列明的倫理道德類規則并未超出具體業務領域已有規則範圍。

科技倫理審查辦法的指引

結合《科技倫理審查辦法(試行)》征求意見稿來看,和前兩天分析的人工智能倫理與風險治理、算法倫理與風險治理問題一樣,AIGC領域的倫理準則、倫理風險等級劃分及相應措施都有待立法進一步明确,但可以明确的是,AIGC相關科技活動應當嚴格遵循包括資料安全法、網絡安全法、個人資訊保護法、未成年人保護法等已有法律法規及部門規章的要求;同時要考慮立法在預防性措施方面的要求:

  • 算法規定、深度合成服務規定本身就已經對具有輿論社會動員能力和社會意識引導能力的算法模型、應用程式及系統,以及面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統提出安全評估、備案方面的要求。
  • AIGC監管辦法正式生效文本如果未對征求意見稿第6條進行修改,利用生成式AI産品向公衆提供服務前就應當進行安全評估和算法備案:

1)按照《具有輿論屬性或社會動員能力的網際網路資訊服務安全評估規定》向國家網信部門申報安全評估(涉及網際網路資訊資訊服務的,按《網際網路新聞資訊服務新技術新應用安全評估管理規定》執行);

2)按照《網際網路資訊服務算法推薦管理規定》履行算法備案和變更、登出備案手續。

  • 前述評估主要涉及安全評估,《科技倫理審查辦法(試行)》落地實施時如果沒有對現有附件清單進行調整,具有輿論社會動員能力和社會意識引導能力的算法模型、應用程式及系統的研發活動,以及面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發活動,作為倫理高風險事項就要經過研發主體内部評估和外部專家複核雙重校驗。

目前監管部門已經調整優化了涉及人的生命科學和醫學研究相關的科技倫理審查辦法(參考2023年2月18日釋出的《涉及人的生命科學和醫學研究倫理審查辦法》),人工智能領域科技倫理審查辦法還有待明确。雖然各地具體做法可能會有所差異,但預計對于新技術的應用發展總體上還是會采取包容審慎的監管态度。

比如北京昨天釋出的《北京市加快建設具有全球影響力的人工智能創新策源地實施方案(2023-2025年)》要求持續加強科技倫理治理,并提出建設科技倫理治理公共服務平台、開展科技倫理審查及相關業務教育訓練等具體措施,在加強網絡安全、資料安全防護和個人資料保護的基礎上,探索營造包容審慎的監管環境。

從現有科技倫理治理相關的規則來看,監管希望積極引導研發主體、服務提供者:

  • 加強對人工智能研發活動的自我限制,避免使用可能産生嚴重消極後果的不成熟技術;
  • 確定人工智能研發過程的算法安全可控,不斷提升透明性、可解釋性、可靠性,逐漸實作可稽核、可監督、可追溯、可預測、可信賴;
  • 提升人工智能研發過程的資料品質,提升資料的完整性、及時性、一緻性、規範性和準确性;
  • 充分考慮差異化訴求,避免可能存在的資料采集與算法偏見,努力實作人工智能系統的普惠性、公平性和非歧視性。

對于企業來說,法律法規規章的要求相對是明确的,如何将監管指引性規則,尤其是倫理道德準則轉化為企業技術研發和商業經營中的規則,就是一個比較複雜的問題:

  • 從早期關于頭條、短視訊平台推薦算法應用的争議,大資料殺熟,到近期AI一鍵脫衣、AI換臉等引發的讨論,研發主體以及服務提供者在深度合成、人工智能等技術研發以及應用、服務上線前進行科技倫理審查的必要性并不難了解。
  • 難點在于倫理、倫理風險的定義及等級劃分、相應措施相關的監管規則不明确本身就是風險。比較穩妥的做法是避免使用“明顯”違背法律法規、倫理道德和标準規範的人工智能技術及相關應用,避免使用“明顯”可以預見會導緻人格權侵權、知識産權侵權的技術及相關應用,避免使用“明顯”可能會導緻網絡資訊内容釋出與傳播失控的技術及相關應用。
  • 強調“明顯”是因為涉及倫理道德方面的判斷相對複雜,雖然這類要求散見于已有法律法規,即了資料安全法、網絡安全法、個人資訊保護法以及專門領域相關的法律法規,但法律法規中倫理道德類要求本身就存在法律适用與法律解釋問題,隻能通過程式性保障+一般理性人判斷标準降低風險。

技術法規

此外,由于立法與監管規則相比技術開發與應用有其滞後性,行業自律準則和技術法規對倫理風險治理就尤為重要,尤其是技術法規。技術法規是将法律規範轉化為技術語言必不可少的一環,企業可以考慮在已有資料、個人資訊與隐私等風險管理體系基礎上,參考已有技術法規的指引,建立本企業适用的倫理風險等級劃分與風控機制。

感興趣的話可以參考閱讀以下标準與報告:

  • ISO/IEC AWI TS 6254 《資訊技術-人工智能-機器學習模型和人工智能系統可解釋性的目标和方法》 (Information technology — Artificial intelligence — Objectives and approaches for explainability of ML models and AI systems)
該标準闡述了機器學習模型和人工智能系統可解釋性的内涵及不同利益相關方對于可解釋性的目标,列舉了實作可解釋的途徑及人工智能系統生命周期中需要考量的有關可解釋性的因素。
  • ISO/IEC 23894:2023 《資訊技術-人工智能風險管理指南》 (Information technology — Artificial intelligence — Guidance on risk management)
在人工智能倫理的風險管理方面,該标準涉及以下内容:不同主體應考慮的針對人工智能産品設計和應用等過程中的有關倫理問題;進行個人隐私資訊的收集、儲存和使用時需要充分考慮尊重人類價值和人類尊嚴方面的倫理原則;在技術細節方面需要關注可能導緻産品存在倫理問題的風險,例如在訓練模型中如果使用了錯誤的資料或者帶有偏見的資料。
  • 國家人工智能标準化總體組下設的人工智能與社會倫理道德标準化研究組釋出的《人工智能倫理風險分析報告》,在對人工智能倫理準則進行梳理的同時,提出了相應的評估方法;《人工智能倫理與社會關注國際标準研究》。
  • 工信部、國家标準委、中央網信辦、發展改革委、科技部于2020年8月5日聯合釋出的《國家新一代人工智能标準體系建設指南》,其中涉及“安全/倫理”相關的人工智能标準體系建設規劃與目标。
  • 全國信标委人工智能分委會釋出的《人工智能可信賴标準化白皮書》,對人工智能倫理符合性原則進行介紹并提出評價名額。
  • T/CESA 1193—2022 《資訊技術 人工智能風險管理能力評估》規定了人工智能産品的風險管理能力評估體系及評估流程,提出多項關于人工智能倫理的規範,包括要求組織成立倫理委員會對倫理風險進行專門管理。
  • 全國資訊安全标準化委員會2021年1月釋出的《網絡安全标準實踐指南—人工智能倫理安全風險防範指引》。
  • ……