天天看點

七部門聯手!首個生成式AI監管檔案将實施,釋放了哪些信号?

七部門聯手!首個生成式AI監管檔案将實施,釋放了哪些信号?

爆火的生成式AI産業正式迎來首個監管檔案。

繼今年4月網信辦就《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見後,7月13日,網信辦等七部門正式釋出了《生成式人工智能服務管理暫行辦法》(下文簡稱“《辦法》”),該辦法自2023年8月15日起施行。

國家網際網路資訊辦公室有關負責人表示,出台《辦法》,旨在促進生成式人工智能健康發展和規範應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。

生成式人工智能是指基于算法、模型、規則生成文本、圖檔、聲音、視訊、代碼等内容的技術。以OpenAI釋出的ChatGPT為代表的生成式人工智能,正在激發包括微軟、谷歌、Meta、百度、阿裡巴巴等國内外科技巨頭以及創業者的新一輪“AI軍備競賽”。

最新出台的《辦法》共24條,從生成式人工智能服務提供者的算法設計與備案、訓練資料、模型,到使用者隐私、商業秘密的保護,監督檢查和法律責任等方面提出了相關要求。同時《辦法》中明确了對生成式AI産業的支援和鼓勵态度。

北京師範大學法學院博士生導師、中國網際網路協會研究中心副主任吳沈括對第一财經記者表示,對于生成式人工智能相關監管檔案出台速度快,展現了與技術發展和應用态勢的同步推動,反映了中國網絡監管、數字監管日益成熟和靈活高效的演進态勢。

多位從業者對第一财經表示,《辦法》強調了落地的可執行性,展現了風險防範、風險應對和風險管理的基本思路,它的實施對推動産業發展有重要的意義,為生成式人工智能的發展創造了良好的創新生态。

七部門聯手!首個生成式AI監管檔案将實施,釋放了哪些信号?

釋放哪些監管信号?

今年4月11日,中國國家網際網路資訊辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(下稱《征求意見稿》)公開征求意見。

第一财經梳理對比發現,在今日釋出的《辦法》中,新增多處對于生成式人工智能服務的相關鼓勵。

例如,在第二章技術發展與治理的第五條與第六條,都提到了要鼓勵生成式人工智能技術在各行業、各領域的創新應用,生成積極健康、向上向善的優質内容,探索優化應用場景,建構應用生态體系。此外,還鼓勵生成式人工智能算法、架構、晶片及配套軟體平台等基礎技術的自主創新,平等互利開展國際交流與合作,參與生成式人工智能相關國際規則制定。

《辦法》還提到,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。

在業界尤為關注的算力方面,《辦法》也提及,推動生成式人工智能基礎設施和公共訓練資料資源平台建設。促進算力資源協同共享,提升算力資源利用效能。推動公共資料分類分級有序開放,擴充高品質的公共訓練資料資源。鼓勵采用安全可信的晶片、軟體、工具、算力和資料資源。

在服務商準入方面,《辦法》還提到,對于外商投資生成式人工智能服務的,應當符合外商投資相關法律、行政法規的規定。

對于生成内容的真實可靠性問題,相比《征求意見稿》,《辦法》的說法有了一定調整。

“一本正經胡說八道”是業界對于生成式人工智能诟病較多的問題。《征求意見稿》中提到,利用生成式人工智能生成的内容應當真實準确,采取措施防止生成虛假資訊;此次《辦法》則更新為,為了基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成内容的準确性和可靠性。

此外,《辦法》還提到對于網信、發展改革、教育、科技、工業和資訊化、公安、廣播電視、新聞出版等部門,要依據各自職責依法加強對生成式人工智能服務的管理。

業界人士對記者指出,《辦法》展現了一定的容錯機制,更符合實際,提升了執行的可行性。

“很多應用領域是可以容忍不完美的大模型,比如遊戲裡某個英雄胡子長一點、短一點,說錯一句話,偶爾犯錯可能無傷大雅;但有些領域非常關鍵,是不能容忍犯錯的,比如新聞搜尋、政府網站或者是醫療教育相關,這些領域未來需要解決大模型犯錯的問題。”有大模型從業者這樣表示。

對于未成年人的保護,《辦法》的内容也進行了着重強調。

此前《征求意見稿》提到,采取适當措施防範使用者過分依賴或沉迷生成内容;此次《辦法》則更新為,采取有效措施防範未成年人使用者過度依賴或者沉迷生成式人工智能服務。

在圍繞對于生成式人工智能的監督方面,《辦法》還提到,有關主管部門依據職責對生成式人工智能服務開展監督檢查,提供者應當依法予以配合,按要求對訓練資料來源、規模、類型、标注規則、算法機制機理等予以說明,并提供必要的技術、資料等支援和協助。

對于個人隐私、商業秘密等保護,《辦法》中有多條涉及相關内容,例如參與生成式人工智能服務安全評估和監督檢查的相關機構和人員對在履行職責中知悉的國家秘密、商業秘密、個人隐私和個人資訊應當依法予以保密,不得洩露或者非法向他人提供等等。

七部門聯手!首個生成式AI監管檔案将實施,釋放了哪些信号?

産業影響幾何?

中國電子雲副總裁李樹翀看到《辦法》的第一反應是:“正當時!”。他對第六條中提到的“鼓勵生成式人工智能算法、架構、晶片及配套軟體平台等基礎技術的自主創新”頗有感觸。“如今英偉達已經一卡難求,再不能讓大模型卡住正被重塑的計算體系。” 他告訴第一财經。

此外他還表示,《辦法》将規範“大模型”行業應用與場景落地,讓AI技術更好的服務經濟和産業高品質發展。

商湯科技智能産業研究院院長田豐對第一财經記者評價,《辦法》有着全球AI2.0治理引領性、落地可執行性,并對推動産業發展有重要的意義。

達觀資料CEO陳運文對第一财經記者表示:“行業發展接下來會逐漸規範。這個《辦法》的出台對生成式大模型服務起了引導作用,生成式AI技術很新也很熱,接下來落地發展要靠這個制度來引導。”

還有一位從業者表示,這一《辦法》重視防範風險的同時,也展現了一定的容錯和糾錯機制,努力實作規範與發展的動态平衡。

對于《辦法》中提到的安全、可信、監管等話題,此前也引起了不少大模型從業者的重視與讨論。

百度董事長李彥宏不久前表示,隻有建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德,才能營造良好的創新生态。

360創始人周鴻祎則提到,要打造“安全可信、可控易用”的專有大模型。他提出,模型實作“安全可控”的關鍵在于要堅持“輔助模式”,将大模型定位為企業和員工的助手,作為“副駕駛”角色提供幫助,讓人的意志在整個決策回路中起到關鍵作用。

阿裡雲智能集團董事長兼首席執行官張勇也表示,“建構安全可信的人工智能”逐漸成為行業共識,相關法律法規正在完善,為技術和産業的可持續發展培育了良好的土壤與環境。“創新中有很多不确定性,有些可以預判在前,防患于未然;有的問題在發展中出現,需要邊發展邊解決,用發展去解決。”

七部門聯手!首個生成式AI監管檔案将實施,釋放了哪些信号?

全球醞釀監管措施

不隻在中國,類ChatGPT的生成式人工智能(AIGC)大模型引發資本競逐,各國對于AIGC合規性的重視正在推動相應的監管措施出台。

歐洲一直走在人工智能監管的前沿。今年5月,歐盟議會已經準許了首個全面的人工智能法案。“我們希望人工智能系統準确、可靠、安全且無歧視,無論其來源如何。”歐盟委員會主席烏爾蘇拉·馮德萊恩5月19日表示。

同樣是在今年5月日本召開的七國集團(G7)上司人峰會上,成員國上司人承認需要對人工智能和沉浸式技術進行治理,并提出在今年年底之前建立一個專門讨論人工智能進展的部長級論壇,讨論圍繞生成式人工智能的問題,例如版權和打擊虛假資訊。

英國競争監管機構今年5月也表示,将開始審查人工智能對消費者、企業和經濟的影響,以及是否需要新的監管措施。

愛爾蘭資料保護負責機構今年4月表示,生成式人工智能需要受到監管,但管理機構必須在倉促實施“确實站不住腳”的禁令之前弄清楚如何正确監管。

美國商務部下屬的國家标準與技術研究院6月表示,将成立一個由生成式人工智能專家志願者組成的公共工作組,以幫助抓住人工智能帶來的行業機遇并制定應對其風險的指導。美國聯邦貿易委員會5月表示,該機構緻力于利用現有法律來控制人工智能的風險。

日本隐私監管機構6月表示,已警告OpenAI不得在未經公衆許可的情況下收集敏感資料。日本預計将在2023年底之前出台監管措施,這些監管措施可能更接近美國的态度,而不是歐盟計劃的嚴格監管措施,因為日本希望這項技術能夠促進經濟增長,并使其成為先進晶片的上司者。

聯合國秘書長安東尼奧·古特雷斯6月12日支援一些人工智能高管提出的建立像國際原子能機構這樣的人工智能監管機構的提議。古特雷斯還宣布計劃在今年年底前啟動進階别人工智能咨詢機構的工作,定期審查人工智能治理安排并提出建議。

面對生成式人工智能的全球監管趨勢,吳沈括對第一财經記者表示,面對新技術新應用,需要持續地探索一套靈活高效的監管機制和監管方式,最大限度地及時應對和處置伴生的各種風險類型。此外也需要持續地建構和完善一套經濟、便利、可行的合規指引,使各方主體有清晰的合規标準和指向。

“良好的生态治理也需要各方最大限度地凝聚共識,在更大範圍内形成有關新技術、新應用的治理的價值共同點以及共同認可的行為準則。”他說。

可以說,每一次技術革命都伴随着帶來巨大的機遇和風險。對于生成式人工智能而言,隻有建立起真實的使用者調用和模型疊代之間的飛輪,AI模型才能變得越來越聰明,而如何在政策監管和技術發展之間找到平衡也考驗着全球的監管機構。(記者樊雪寒對本文亦有貢獻)

繼續閱讀