天天看點

生成式人工智能來了,如何保護未成年人? | 社會科學報

作者:社會科學報
生成式人工智能來了,如何保護未成年人? | 社會科學報

人工智能與未成年人保護發展

為了應對強大的生成式人工智能的迅猛發展,聯合國教科文組織于今年5月25日首次就此議題舉行了全球教育部長會議。全面客觀地分析生成式人工智能前所未有的發展機遇和風險挑戰,是保障未成年人健康成長亟待解決的時代命題,也是落實未成年人保護和發展的關鍵一環。

生成式人工智能來了,如何保護未成年人? | 社會科學報

原文:《生成式人工智能來了,如何保護未成年人》

作者 | 北京師範大學新聞傳播學院 方增泉/研究員 元英/講師 祁雪晶/助理研究員

圖檔 | 網絡

在《科學》釋出的2022年度科學十大突破中,生成式人工智能(AIGC)赫然在列。生成式人工智能表現出了極強的邏輯推理和再學習能力,能夠更好地了解人類需求,突破了自然語言處理的瓶頸,重塑了社會知識生産體系、人才培養體系、商業模式、社會分工體系等,為社會各領域帶來了巨大的發展機遇,同時也面臨着嚴峻的風險。目前,未成年人已經以多種方式與人工智能技術進行互動,這些技術往往被嵌入到玩具、應用程式和視訊遊戲中,不知不覺影響着未成年人的健康成長。未成年人由于心智、認知能力等尚未發展成熟,極易受到智能化環境的影響。是以,全面客觀地分析生成式人工智能前所未有的發展機遇和風險挑戰,是保障未成年人健康成長亟待解決的時代命題,也是落實未成年人保護和發展的關鍵一環。

生成式人工智能帶來的機遇和挑戰

生成式人工智能來了,如何保護未成年人? | 社會科學報

在發展機遇方面,人工智能技術是引導未成年人學習教育的工具,依托生成式人工智能技術将使教育更有針對性、更具成效。生成式人工智能可以彌合教育中的個體差異和區域差距,推動教育資源的普惠公平,一定程度上縮小個體和區域間的數字鴻溝。生成式人工智能還将促進未成年人創新創意的能力提升。例如,大模型進一步降低使用低代碼和無代碼開發工具的門檻,并可能誕生一類全新的智能開發技術。

生成式人工智能也會為未成年人帶來認知、思維、行為能力等方面的挑戰。一是虛假資訊泛濫問題。如何不斷提高事實的準确性,亟待技術上的突破。二是資料洩漏問題。目前,資料洩漏已導緻一些使用者的對話資料和相關資訊丢失。尤其需要注意的是,生成式人工智能應用目前缺失系統驗證使用者年齡的設計,有可能使未成年人暴露于“與其年齡和意識完全不相稱”的内容下,對其身心健康産生不良影響。三是内嵌的算法歧視問題。生成式人工智能給予的一些答複存在性别歧視和種族歧視現象,可能會誤導使用者,将具有歧視性的回答視為“正确答案”而作出錯誤決斷,進而對社會認知和倫理産生負面影響。特别是在處理算法包容性的問題上,由于中西文化的根源及演進路徑不同,還會涉及對傳統文化和現實觀照之間的解讀、評價及傳播的問題,這些都可能會在生成式人工智能技術中被忽視或被特意放大。四是知識産權侵犯問題。無論是圖像還是文字大模型,其實都有不少版權相關的風險隐患,訓練資料可能侵犯他人的版權,比如新聞機構、圖庫商的權益。對于作品被用于人工智能生成的歌曲、文章或其他作品的内容創作者如何得到補償,目前還沒有特别合适的破解之道。如果原創者的版權難以保證,将不利于人工智能内容生态的可持續和健康發展。五是數字鴻溝問題。大模型的語言性能在英文和中文上存在較大差異,明顯對于英文語境下的寫作、表達和了解普遍更好。中英文語系的差異加上資料馬太效應,可能會使得差距越來越大。六是網絡安全風險問題。如對自殘行為的建議或鼓勵,色情或暴力内容等圖形材料,騷擾、貶低和仇恨的内容等。

生成式人工智能來了,如何保護未成年人? | 社會科學報

應對生成式人工智能的CI-STEP體系

生成式人工智能來了,如何保護未成年人? | 社會科學報

2020年9月,聯合國兒基會釋出了《人工智能為兒童——政策指南》的征求意見稿,提出了兒童友好的人工智能應當遵循的三大原則:保護,即“不傷害”;賦能,即“為善”;參與,即“全納”。2021年11月,聯合國兒基會釋出了《關于建立維護兒童權利的AI政策和系統的建議2.0》,提出了AI維護兒童權利的三個基礎:人工智能政策和系統應旨在保護兒童;應公平地滿足兒童的需求和權利;應授權兒童為人工智能的開發和使用做出貢獻。AI技術如何為未成年人的目前和未來發展創造有利環境成為全球讨論的熱點話題。随即,中國、美國、歐盟、英國也陸續出台相關法律法規,進一步規範和完善面向未成年人的人工智能技術管理辦法。

依據皮亞傑兒童智力發展的階段性理論和科爾伯格的道德發展階段論,結合大陸的相關法規政策依據——《中華人民共和國個人資訊保護法》《中華人民共和國網絡安全法》《中華人民共和國資料安全法》等,以及美國、歐盟、英國等國家和地區的相關政策檔案,北京師範大學新聞傳播學院未成年人網絡素養研究中心釋出全國首個生成式人工智能未成年人保護和發展評估(CI-STEP)名額體系,為生成式人工智能的未成年人保護工作提供重要的參考與評估名額(見下圖)。

生成式人工智能來了,如何保護未成年人? | 社會科學報

生成式人工智能未成年人保護和發展評估(CI-STEP)名額體系

該名額模型具體包括綜合管理(Comprehensive management)、資訊提示(Information cue)、科學普及和宣傳教育(Scientific popularization and publicity education)、技術保護(Technical protection)、應急投訴和舉報機制(Emergency complaint and reporting mechanism)、隐私和個人資訊保護制度(Privacy and personal information protection system)六大次元,每個次元下包含2~3項具體名額,共計15項評估名額,以期為維護未成年人權益提供科學、全面的評估理念和實踐指導。

一是在綜合管理方面,包括時間管理、權限管理和消費管理。時間管理是根據未成年人社交、場景、用途等确定合理和适度的上網時間,落實防沉迷要求。權限管理是設立檢查年齡的驗證機制,根據系統設定的安全規則或者安全政策,未成年人可以通路而且隻能通路自己被授權的資源。消費管理是生成式人工智能産品或服務應禁止不公平和欺騙性的商業行為,采取必要的保障措施來限制偏見和欺騙,避免對企業、消費者和公共安全帶來嚴重風險。

二是資訊提示,包括私密資訊提示、适齡提示和風險提示。私密資訊提示是對未成年人通過網絡釋出私密資訊的,應當及時提示,并采取必要的保護措施。适齡提示是生成式人工智能産品或服務提供者應當按照國家有關規定和标準,對人工智能産品進行分類,作出适齡提示,并采取技術措施,不得讓未成年人接觸不适宜的産品或者服務。有的生成式人工智能提供者要求使用者必須年滿18周歲,或年滿13周歲并在父母同意的情況下才能使用AI工具,但目前驗證選項和落實機制亟待完善。風險提示是生成式人工智能産品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,對可能存在的詐騙、暴恐、欺淩、暴力、色情等不法内容,偏見歧視及誘導資訊等進行提示。

三是科學普及和宣傳教育。生成式人工智能産品或服務提供者在技術上處于領先位置,應為未成年人相關的主題教育、社會實踐、職業體驗、實習考察等提供支援,并結合行業特點,組織開展未成年人科學普及教育和創新實踐活動。

四是技術保護,包括真實身份資訊注冊、不良資訊過濾、網絡安全等級保護。按照《中華人民共和國網絡安全法》等規定,要求使用者提供真實身份資訊。生成式人工智能産品或服務提供者發現使用者釋出、傳播含有危害未成年人身心健康内容資訊的,應當立即停止傳播相關資訊,采取删除、屏蔽、斷開連結等處置措施。生成式人工智能産品或服務提供者應當按照網絡安全等級保護制度的要求,履行安全保護義務,保障網絡免受幹擾、破壞或者未經授權的訪回,防止網絡資料洩露或者被竊取、篡改。

五是應急投訴和舉報機制。生成式人工智能産品或服務提供者應建立使用者投訴接收處理機制,公開投訴、舉報方式等資訊,及時處置個人關于更正、删除、屏蔽其個人資訊的請求,并制定網絡安全事件應急預案,及時處置系統漏洞、計算機病毒、網絡攻擊、網絡侵入、資料投毒、提示詞注入攻擊等安全風險;在發生危害網絡安全的事件時,立即啟動應急預案,采取相應的補救措施。

六是隐私和個人資訊保護制度。生成式人工智能産品或服務提供者應明确個人資訊收集使用規則、如何保護個人資訊與個人權利、如何處理未成年人的個人資訊、個人資訊如何在全球範圍轉移、隐私政策如何更新等制度規則。生成式人工智能産品或服務提供者不得使用資料來銷售服務、做廣告或建立使用者檔案,在可行的情況下從訓練資料集中删除個人資訊,微調模型以拒絕對私人資訊的請求,防止損害肖像權、名譽權和個人隐私,禁止非法擷取、披露、利用個人資訊和隐私。

生成式人工智能來了,如何保護未成年人? | 社會科學報

未來要堅持保護和發展并重

生成式人工智能來了,如何保護未成年人? | 社會科學報

在生成式人工智能與未成年人保護這一重要議題上,我們要堅持保護和發展并重,在“兒童為中心”“保護兒童權利”“承擔責任”和“多方治理”理念的指導下,促使生成式人工智能成為促進未成年人發展的新動能,助力實作人工智能時代未成年人的全面健康成長。在技術向善理念的指導下,生成式人工智能技術發展應當堅持最有利于未成年人的原則,兼顧未成年人網絡安全和數字發展,注重AI技術應用符合科技倫理,鼓勵網際網路企業積極參與行業共治。

未來生成式人工智能的應用需要重點關注四大問題。第一,落實技術标準。生成式人工智能未成年人保護和發展在未來需要重點監管企業研發活動,對生成式人工智能進行監管和幹預,對人工智能模型的開發和釋出提出準許和測試要求。第二,明确評估義務。要明确研發機構和網絡平台經營者對于生成式人工智能産品應用的安全風險評估義務,保證研發機構與網絡平台經營者在将此類産品投入市場前必須進行安全風險評估,確定風險可控。第三,重點關注内容風險。監管機構與網絡平台經營者要進一步提升監管技術,并鼓勵多方參與相關生成式人工智能産品的研發和推廣,進而規範生成式人工智能技術的生成内容。第四,建構AI素養培育生态系統。根據未成年認知、情感和行為能力的發展階段性特點,加強義務教育階段“資訊科技”等課程内容、教學方式方法的創新,以中國小基礎教育為主陣地,形成政府主導,學界和企業共同建設的人工智能公共服務平台,推進人工智能素養教育及創新實踐活動,推動優質教育資源均衡共享,避免數字鴻溝和不平等現象加劇,創造更加包容、公平、開放的教育環境。

文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1857期第2版,未經允許禁止轉載,文中内容僅代表作者觀點,不代表本報立場。

本期責編:王立堯

拓展閱讀

人才強國 | 人工智能時代:“以學習者為中心的精準教育”

建立可信賴的人工智能發展機制 | 社會科學報

繼續閱讀