天天看點

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

作者:未來智庫

(報告出品方/作者:東吳證券,王紫敬)

1. AI 發展引發新的安全問題

新技術發展同時會帶來新的安全問題。以 ChatGPT 為代表的生成式人工智能正在 重塑甚至颠覆數字内容的生産方式和消費模式,越來越顯著地影響各行各業的變革。今 年以來,大模型技術與 AIGC 快速融合發展,大模型生成的内容能夠達到“以假亂真” 的效果,這使得應用門檻也在不斷降低,人人都能輕松實作“換臉”、“變聲”。因 AIGC 濫用帶來的虛假資訊、偏見歧視乃至意識滲透等問題無法避免,對個人、機構乃至國家 安全都存在較大的風險。是以對生成式人工智能服務的監管已成為全球治理的重大課題。 目前,AI 帶來的新安全問題主要包括 AIGC 内容安全和資料安全問題。

1.1. AIGC 内容安全問題

生成式 AI 可能被引導生成包含有害内容的文本、照片、視訊,或用于非正當用途, 可能引發網絡、社會安全及意識形态問題。

1) 網絡安全:LLM 可以被用于生成釣魚郵件,并通過提示詞令 LLM 模仿特定個人 或群體的語言風格,使得釣魚郵件可信度更高。安全機構 Check Point Research 在近期發 表的報告中表示已經在暗網發現有黑客試圖繞過限制将 ChatGPT 用于生成釣魚郵件等。 此外 LLM 可以輔助生成惡意代碼,進而降低了網絡攻擊的門檻。

2) 虛假資訊:1.深度合成成為詐騙手段之一。騙子可通過 AI 換臉和拟聲技術,佯 裝熟人實施詐騙。2.虛假内容對社會造成不利影響。生成式 AI 使得虛假資訊變得更容 易、更快速也更廉價,AI 生成的虛假内容可能對社會造成不利影響。美國時間 5 月 22 日上午,一張由 AI 生成顯示五角大樓附近地區發生爆炸的圖檔在社交網絡瘋傳。據環 球網報道,圖檔開始流傳的瞬間美國股市出現了明顯下跌。

3) 意識形态:為提高 AI 面對敏感複雜問題的表現,開發者通常将包含着開發者所 認為正确觀念的答案加入訓練過程,并通過強化學習等方式輸入到模型中。這可能會導緻 AI 在面對政治、倫理、道德等複雜問題生成具有偏見的回答。OpenAI 于 3 月發表文 章《GPT-4 System Card》稱,GPT-4 模型有可能加強和再現特定的偏見和世界觀,模型 行為也可能加劇刻闆印象或貶低性的傷害。例如,模型在回答關于是否允許婦女投票的 問題時,往往會采取規避态度。

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

1.2. 資料安全問題

資料洩露事件引發擔憂,ChatGPT 遭禁用。ChatGPT 由于開源庫 bug 導緻資訊洩 露,洩露資料分别為“裝置資訊”、“會議内容”與“訂閱者資訊”。根據 Cyberhaven 的 資料,潛在的資料洩露風險可能更高:每 10 萬名員工中就有 319 名員工在一周内将公 司敏感資料輸入進 ChatGPT,且這一資料較 2 個月前有所增長。截至目前已有蘋果、摩 根大通、三星等多家企業禁止其員工與 ChatGPT 等聊天機器人分享機密資訊。

資料洩露問題難以通過傳統技術手段解決。資料安全的風險點在于,使用者在與 LLM 互動的過程中輸入的提示詞可能被用于 LLM 疊代訓練,并通過互動被提供給其他使用 者。大多數 DLP 解決方案旨在識别和阻止某些檔案和某些可識别的 PII 的傳輸。而使用者 輸入 LLM 的文字更具多樣性、不同企業對于機密資料定義的差異性較大、随 LLM 向多 模态發展輸入的檔案格式将更加豐富,這都使得資料洩露問題難以通過傳統 DLP 手段 解決。

2. AI 監管:政策與法規先行

考慮到 AI 可能對社會帶來的安全問題,安全标準、法律法規和自我監管是對 AI 進 行監管較為重要的基石。政府層面,亟需出台監管政策對其加以規範,實作監管覆寫全 面化,分階段、全流程規範 AIGC 相關要素。企業層面,也需要通過被監管以消除社會 對 AI 大模型的不信任。 以 OpenAI 為例:歐洲國家 AI 監管趨嚴,OpenAI 調整資料管理措施應對監管要求。1.以意大利政府為代表,歐洲國家接連以資料安全為由,啟動對 ChatGPT 的調查。 3 月 31 日意大利資料保護局以違反《通用資料保護條例》(GDPR)為由暫時禁用ChatGPT, 并在此後提出了一系列整改要求。随後陸續有德國、法國、歐盟等釋出資料監管措施。 2.OpenAI 積極配合政府監管,并調整資料管理措施。4 月 5 日,OpenAI 與意大利個人 資料保護局舉行會議,并表示合作願意。OpenAI 随後于 4 月 25 日調整 ChatGPT 資料管 理措施,使使用者有權利不将資料分享給 OpenAI 用于模型訓練。

2.1. 政府層面:借助法律法規保障 AI 行業有序繁榮

從世界範圍來看,為打造一個可信的人工智能生态系統,中國、美國和歐盟均在探 索人工智能治理之道,并通過出台響應的法律法規來規範人工智能發展,這一過程中 AI 監管勢在必行。

2.1.1. 歐洲強監管,立法取得突破進展

歐盟通過專門立法對人工智能進行整體監管。2021 年 4 月,歐盟委員會提出了《人 工智能法案》提案。2023 年 6 月 14 日,歐洲議會通過《人工智能法案》草案,歐盟人 工智能治理迎來最新突破進展。按照立法程式,法案下一步将正式進入歐盟委員會、議 會和成員國三方談判協商的程式,以确定最終版本的法案。該法案通過将 AI 應用分為 不同風險級别,并針對不同等級風險實施不同程度的限制措施。作為全世界第一部綜合 性人工智能治理立法,該法案将成為全球人工智能法律監管的标準,被各國監管機構廣 泛參考。

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

歐盟成為 AI 立法先行者,布魯塞爾效應有望再現。布魯塞爾效應指歐盟通過市場 機制将其單邊監管外化到全球,使得被監管的實體最終在歐盟外也要遵守歐盟的法律。 其原因主要有兩點: 1) 歐盟擁有着比美國體量更大、比中國更富裕的消費市場。對許多公司而言,進入 歐盟市場的好處大于其适應歐盟嚴格标準所付出的代價。同時歐盟還建立了全面的體制 架構,并利用政治決心來貫徹其規定。 2) 歐盟擁有影響廣泛的制裁權以及禁止産品或服務進入歐盟市場的能力。這種取 消市場準入的可能性有效地阻止了企業的違規行為,并促使其遵守歐盟的規定。導緻企 業自願推廣歐盟标準以管理其全球業務。歐盟标準成為全球标準。

歐盟《人工智能法案》具有域外效力,目前即将進入歐盟啟動監管前的最後階段, 正式施行後有望通過布魯塞爾效應進一步推動全球 AI 監管。

2.1.2. 美國弱監管鼓勵行業自律,近期監管加速推進

2022 年 10 月,美國白宮釋出《人工智能權利法案藍圖》,2023 年 1 月美國商務部 釋出《人工智能風險管理架構》。《藍圖》是一套保護個人免受傷害和歧視的原則,并配 有相關技術方案,确定了人工智能系統影響這些原則的具體方式,以及應對不利影響的 一般步驟,而《架構》提供了在各種組織中實施《藍圖》原則的工具。與歐盟的《人工 智能法案》不同,《藍圖》與《架構》是非強制的指導性檔案,不具有法律效力,而是供 設計、開發、部署、使用人工智能系統的機構組織自願使用。 美國弱監管鼓勵行業自律。盡管白宮釋出了關于人工智能危害的指導性聯邦檔案, 但尚未為人工智能風險制定統一的控制方法。美國此前立法及制度層面上對人工智能發 展處于弱監管狀态,鼓勵企業依靠行業自律,自覺落實政府安全原則保障安全。近期政 府重視度提升,人工智能監管加速推進。根據白宮聲明,最近幾個月,白宮進階官員每 周都會舉行兩到三次會議讨論人工智能議題;美國參議院多數黨領袖查克·舒默公布人 工智能監管立法架構,并且表示要在幾個月内制定聯邦層面的人工智能法案;一個跨兩 黨、兩院的立法者小組送出了《國家人工智能委員會法案》。

2.1.3. 中國首個生成式 AI 服務監管檔案出台,關注 AIGC 内容安全

國内首個生成式 AI 服務監管檔案出台,關注 AIGC 内容安全。《網際網路資訊服務 深度合成管理規定》于 2022 年 11 月釋出,并自 2023 年 1 月 10 日起施行,對以“AI 換 臉”為代表的深度合成技術進行了法律層面的限制。2023 年 4 月 11 日,國家網信辦發 布《生成式人工智能服務管理辦法(征求意見稿)》,并于 2023 年 7 月 13 日由國家網信 辦聯合國家發展改革委、教育部、科技部、工業和資訊化部、公安部、廣電總局公布《生 成式人工智能服務管理暫行辦法》,自 2023 年 8 月 15 日起施行。《辦法》關注 AIGC 内 容安全,提出國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效 措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監 管。 AIGC 監管政策實施,《人工智能法》已提上日程。6 月 20 日,國家網信辦根據《互 聯網資訊服務深度合成管理規定》釋出首批深度合成服務算法備案清單,百度阿裡騰訊 位元組等在列。《國務院 2023 年度立法工作計劃》顯示,《人工智能法》已列入立法計劃, 草案預備年内提請全國人大常委會審議。

2.2. 企業層面:加強自我監管,規範行業秩序

企業加強自我監管,規範行業秩序。AI 企業對監管态度主動積極,2023 年 4 月 25 日,代表微軟、Adobe、IBM、甲骨文等多家 AI 巨頭的美國科技倡導組織“商業軟體聯 盟”(BSA)公開發文呼籲在國家隐私立法基礎上制定管理人工智能使用的規則。并且向 美國國會提出了四個明确的呼籲,試圖對其立法方向進行引導。2023 年 4 月 25 日知乎 釋出公告,打擊批量釋出 AIGC 類内容的帳号。2023 年 5 月 9 日抖音釋出《關于人工智 能生成内容的平台規範暨行業倡議》,平台将提供統一的人工智能生成内容辨別能力, 幫助創作者打标,友善使用者區分。2023 年 5 月 22 日,三位 OpenAI 聯合創始人署名發 表文章,希望政府考慮按照核武器監管模式,組建人工智能行業的“國際原子能機構”, 為該行業制定全球規則。

3. AI 監管:平衡創新與安全,監管手段多樣

AI 監管主要是面向 AIGC 技術的違規應用,以應對 AIGC 可能給社會、政治、金 融、教育帶來的危害,這也是國家安全、社會安全的關鍵。是以,對于 AI 監管來說, 要從安全機制、技術手段等層面進行突圍。

3.1. 引入安全機制

現階段,國内 AIGC 類應用的内容安全機制主要包括:1) 訓練資料清洗:訓練 Al 能力的資料需要進行資料清洗,把訓練庫裡面的有害 内容清理掉; 2) 算法備案與安全評估:AI 算法需要按照《網際網路資訊服務算法推薦管理規定》 進行算法備案,并提供安全評估; 3) 提示詞過濾:平台需要對提示詞、提示内容等進行過濾攔截,避免使用者上傳違 規内容; 4) 生成内容攔截:平台對 AI 算法生成的内容進行過濾攔截,避免生成有害内容; 5) 對 AI 生成内容進行顯著辨別:相關人工智能創作工具在生成多媒體内容時, 可添加辨別中繼資料到多媒體檔案的中繼資料中,使得不同的平台及工具能夠互認 辨別中繼資料。

3.2. 技術監管手段豐富

1)用 AI 技術來識别内容是否為 AI 生成:如人民網聯合傳播内容認知全國重點實 驗室釋出的“深度合成内容檢測平台 AIGC—X,采用算法融合與知識驅動的人工智能 架構,使用深度模組化來捕捉困惑度、突現頻次等隐式特征,學習得到機器生成文本與人 工生成文本的分布差異。該平台可以服務于媒體和網際網路平台的内容風控需求,提供 AI 生成内容辨別、虛假資訊識别等服務。公測資料表明,AIGC-X 對各類人工智能生成内 容平台檢測的準确率均超過 90%。

技術方面,以人臉識别這一場景具體來說,可以從三方面入手: 生成瑕疵:由于相關訓練資料的缺失,deepfake 模型可能缺乏一些生理常識,導緻 無法正确渲染部分人類面部特征。 固有屬性:指的是生成工具、攝像頭光感元件固有的噪聲指紋。 高層語義:檢測面部動作單元(肌肉群)協調性、面部各區域朝向一緻性、視訊微 觀連續性等方面的問題,由于這些細節模組化困難、難以複制,很容易抓到把柄。

2)用 AI 技術來識别違規内容:如新華網的事實核查機器人,基于新華智雲自主研 發的 AI 算法,具有文字檢測、圖像檢測、視訊檢測和音頻檢測等四大功能,能對文本、 圖像、視訊、音頻等多種媒介進行安全核查,規範新聞報道書寫,搭建人機互動稽核平 台,搭建智能高效的安全防護體系,助力企業降本增效。

3)用 AI 技術進行安全監管反欺詐: 統計分析:運用對比分析、趨勢分析、分布分析、漏鬥分析等資料分析手段,挖掘 資料一緻性、集中性等特征發現欺詐規律,具體采用資料分析技術+客群分類+場景化先 驗知識假設的技術手段,可以擷取具有很好名額的模型。 規則+簡單統計模型:基于使用者注冊、登入、消費、轉賬資訊建構統計特征、拟合 特征和分類特征等,對接指數移動平均算法、LOF、IForest、Holt-Winters、ARIMA 算法 發現異常點。 基于欺詐知識庫的有監督學習算法:從已有沉澱知識庫中深度挖掘隐藏的欺詐模式, 提供線上實時預測服務。常用的算有 XGBoost、DeepFFM、XDeepFM、Wide&Deep、DIN 等。

利用機器學習改良專家規則政策:1)基于資料算法驅動,自動化調整的場景規則 集中的門檻值和權重,以保障規則持續有效性。利用機器學習對于規則的規則門檻值、權重 等進行修改,具體涉及特征離散化、特征選擇、特征降維、權重參數回歸等流程。2)發 現新規則方面,主要是基于布爾關聯規則與量化關聯規則使用 Apriori、FpGrowth 算法 對于資料集進行挖掘。 深度學習+時間序列檢測算法:序列算法可以從較長時間視窗行為序列上識别異常。 圖關聯資料的挖掘算法:是一種更加廣泛的資料表示方式,資料之間的關系通過圖 的形式進行表達,圖挖掘算法可以在短的時間截面上通過關聯關系發現和識别風險。引 入關聯圖譜關系定義,通過共用、共享、連接配接指向等關系定義,建構基于不同資源次元 的複雜關系圖譜,如賬号圖譜、裝置圖譜、電話号碼圖譜等。

4)監管大模型的自動檢測工具: 僞造檢測行業基礎大模型:如中科睿鑒曆經三年開發的僞造檢測行業基礎大模型。 面向公共安全、金融安全、網際網路内容安全等重點行業,睿鑒逐漸積累了分行業、分場 景的僞造檢測能力,形成了核心技術——AI 基礎設施——行業基礎大模型的體系化能 力底座,參數量級達到 60 億。新的僞造生成技術一經面世,通過微調,就可在基座模 型基礎上針對性地迅速分化出相應的檢測模型。

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

研發 AI 安全檢測平台,“用 AI 檢測 AI”。螞蟻集團與清華大學聯合釋出針對 AIGC 大模型的全資料類型 AI 安全檢測平台“蟻鑒 2.0”,其通過智能對抗技術,生成海量測 試資料集,對 AIGC 生成式模型進行互動誘導,進而找到大模型存在的弱點和安全問題, 能夠識别資料安全、内容安全、科技倫理的多種風險,覆寫表格、文本、圖像等多種數 據和任務類型。蟻鑒 2.0 可對大模型生成内容進行個人隐私、意識形态、違法犯罪、偏 見與歧視等數百個次元的風險對抗檢測,并生成檢測報告,幫助大模型更加有針對性地 持續優化。此外,為解決模型黑盒問題,蟻鑒 2.0 融入可解釋性檢測工具。綜合 AI 技術 和專家先驗知識,通過可視化、邏輯推理、因果推斷等技術,從完整性、準确性、穩定 性等多個次元對 AI 系統的解釋品質量化分析,幫助使用者更清晰驗證與優化可解釋方案。

3.1. AI 監管有望催生千億市場

2030 年人工智能核心産業規模有望超萬億。2023 搜狐科技峰會上,中國科學院原院長、中國科學院院士白春禮在演講中表示,未來 5-10 年将是人工智能發展的關鍵期, 據艾媒預測,2030 年大陸人工智能核心産業規模将超過 1 萬億元人民币,2030 年全球 人工智能市場規模将達到 16 萬億美元。 AI 監管有望催生千億市場。一般資訊化投入中安全占比至少在 5%-10%以上,而由 于 AI 大模型的特殊性,AI 安全未來将成為所有參與方必須考慮的問題,貫穿從資料标 注、模型訓練和開發、内容生成、應用開發的事前-事中-事後全過程,投入力度不亞于 傳統安全投入,是以假設 AI 監管在整個産業鍊中的占比按照 5%-10%來測算的話,我們 預計到 2030 年國内 AI 大模型的監管市場規模将達到 500-1000 億元。

3.2. AI 監管行業競争要素:品牌、技術、市場

AI 監管行業下遊客戶需要一體化的解決方案能力和良好的保密性,擁有完善的産 品和服務能力且有國資股東背景背書的廠商,是下遊客戶的首選。一方面,随着監管側 的日趨嚴格和安全需求的提升,AI 全周期的安全和監管輸出能力是客戶最為需要的。因 此,廠商是否有成熟的大客戶的完整的安全解決方案,将會是未來客戶選擇 AI 監管公 司的重要考慮因素,我們認為在内容側監管具備深厚曆史積累廠商将會在行業經驗和資 源方面形成一定的壁壘,這也有望是獲得客戶訂單的前提。另一方面,客戶對資料資訊 極為敏感,是以有國資股東背景的廠商更容易受到客戶的青睐。 研發實力亦是未來龍頭企業重要的護城河。AI 作為新興技術,随着政策法規的逐 步完善,也将有望得到廣泛的應用,而這一過程将會使得客戶的系統面臨的安全和監管 問題不斷增加,相關系統的建設将呈現複雜度提升的趨勢,是以 AI 監管領域的技術能 力門檻也會很高,預計具備較強研發實力或者與國内技術實力領先的研究機構合作的企 業方能更好得滿足客戶的需求。

4.重點公司分析

4.1. 人民網

人民網于 1997 年 1 月 1 日正式上線,是“網上的人民日報”。公司是人民日報社控 股的文化傳媒上市公司,也是國際網際網路上較大的綜合性網絡媒體之一。截至 23 年 4 月公司擁有人民線上、海外網、環球網、人民健康、人民視聽、人民資訊技術、人民視 訊、人民創投、人民體育、人民科技等多家控股公司;旗下産業基金已投資項目數十個。

公司從事的主要業務包括廣告及宣傳服務、内容科技服務、資料及資訊服務、網絡 技術服務。其中,人民網内容科技戰略近年來穩健起步。公司研發基于人工智能的“風 控大腦”,打造人工智能技術引擎,為網際網路内容、資訊安全管理提供技術服務;承建人 民日報社主管的“傳播内容認知全國重點實驗室”。

整體營收維持相對穩定,内容科技服務約占總營收的 22%。2020-2022 年公司營業 收入分别為 21.00 億元、21.83 億元、19.78 億元。公司在 2023Q1 實作營收 3.32 億元, 同比增加 3.78%。公司内容科技業務以人工智能、大資料、區塊鍊等為支撐,為客戶提 供内容風控服務和聚合分發服務,同時還提供内容營運服務。内容科技服務營收占比穩 定在 22%左右,2020-2022 年分别實作營收 4.94 億元、4.63 億元、4.46 億元。

AIGC-X 于 3 月 1 日正式開始全網公測。AIGC-X 是由人民日報社主管、依托人民 網建設的傳播内容認知全國重點實驗室,中國科學技術大學,合肥綜合性國家科學中心 人工智能研究院聯合推出的國内首個 AI 生成内容檢測工具。 據介紹,通過采用算法融合與知識驅動的人工智能架構,使用深度模組化來捕捉困惑 度、突現頻次等隐式特征,AIGC-X 可對 AI 技術生成的假新聞、内容抄襲、垃圾郵件 進行檢測,目前對中文文本檢測的準确率已超過 90%,在内容版權、網絡釣魚、虛假信 息和學術造假檢測等内容安全、内容風控方面有廣闊的應用前景。未來,AIGC-X 還會 擴充為對人工智能生成文本、圖像乃至視訊的通用智能識别模型。

4.2. 新華網

公司是由新華社控股的傳媒文化上市公司,是新華社建構“網上通訊社”的重要組 成部分和建構内外并重傳播格局的重要載體,公司積極發揮網絡平台優勢,代表中國網 絡媒體在全球媒體競争中積極争奪國際話語權。依托新華社作為國家通訊社的權威地位 和作為世界性通訊社的全球資訊網絡,新華網擁有權威的内容資源、廣泛的使用者基礎、 優質的客戶資源和強大的品牌影響力,并以此為基礎開展網絡廣告、資訊服務、移動互 聯網、網絡技術服務和數字内容等主營業務。

營業收入穩健增長,網絡廣告與資訊服務為主要收入來源。2020-2022 年公司營業 收入分别為 14.33 億元、17.24 億元、19.41 億元。公司在 2023Q1 實作營收 3.25 億元, 同比增加 7.06%。網絡廣告與資訊服務為公司最主要的收入來源,兩項業務合計營收占 比超六成,網絡廣告業務 2020-2022 年營收分别為 5.14 億元、5.87 億元、6.50 億元,信 息服務 2020-2022 年營收分别為 3.84 億元、5.51 億元、5.68 億元。

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

新華智雲為公司與阿裡巴巴合資成立的國有文化數字科技企業,于 2022 年 11 月促 成了《機器生産内容(MGC)标準》的頒布。該标準為全球首個内容自動化生産标準, 該标準将适用于報刊、廣播、電視、通訊社等新聞機構及媒體應用與研究機構。 新華智雲推出事實核查機器人,基于新華智雲自主研發的 AI 算法,實作對視訊、 音頻、圖檔、文本等内容的統一稽核。通過機器稽核輔助人工智能,以内容解析為手段, 幫助新聞人進行内容安全核查,搭建智能高效的安全防護體系,助力企業降本增效。

新華網聯合中國科學院計算技術研究所(簡稱“中科院計算所”)等行業機構共同 研發打造的“生成式人工智能内容安全與模型安全檢測平台”(AIGC-Safe),并召開邀 請測試釋出會。AIGC-Safe 平台産品基于國版鍊(國數鍊)的數字資産與資料要素管理 技術底座,依托中科院計算所的技術積累打造,已形成 AIGC 深僞内容檢測和模型檢測 兩大核心能力,并可開放賦能各類 AIGC 檢測業務場景。模型安全從訓練資料安全、模 型防攻擊、模型輸入安全三方面來保障從訓練到推理的全過程;内容安全覆寫文本、圖 像及音視訊的檢測,保障内容的真實性與合規性,實作雙重安全防護。AIGC-Safe 平台 内容安全功能檢測可廣泛應用于虛假新聞、AI 換臉詐騙、活體攻擊、版權内容保護和學 術誠信等多種檢測場景,可應用于媒體、教育、金融、公安等多個 AIGC 安全治理領域。 此次 AIGC-Safe 平台還重磅上線内容安全檢測功能,主要支援: 1) 文本檢測支援 AI 生成的鑒别; 2) 圖像與視訊檢測可覆寫人臉生成、人臉編輯、人臉替換、表情遷移等深度合成僞 造,以及 AI 生成、PS 篡改檢測; 3) 音頻僞造檢測支援 TTS 和 VC 音頻合成檢測,覆寫主流音頻合成算法。

4.3. 美亞柏科

公司是國内電子資料驗證領域龍頭企業,主要服務于國内各級司法機關以及行政執 法部門。公共安全大資料和電子資料驗證是公司的兩大基石業務;公司積極拓展新網絡 空間安全闆塊,業務由事後電子資料調查驗證延伸到“網絡空間安全”事前、事中、事 後全賽道;新型智慧城市闆塊依托公共安全大資料的領先優勢,基于打擊犯罪、國家安 全等領域取得的重點成效,拓展延伸到社會治理領域。

受工期影響 Q1 營收下滑,公共安全大資料平台及電子驗證業務為主要收入來源。 2020-2022 年公司營收分别為 23.86 億元、25.35 億元、22.80 億元。公司于 2023Q1 實作 營收 1.47 億元,同比減少 53.92%。公共安全大資料與電子資料驗證産品為公司最主要 的收入來源,22 年分别占總營收的 41.1%和 36.2%。

公司于 2019 年針對深度合成技術成立專項研究團隊,以應對利用人工智能技術可 能帶來的安全問題。公司自主研發打造出一系列視訊圖像檢測鑒定的一體化智能裝備, 如“AI-3300 慧眼視訊圖像鑒真工作站”等。該裝置涵蓋 40 餘種視訊圖像真僞鑒定算 法,近 10 種深僞鑒定算法,同時具有智能鑒定和專業鑒定兩種鑒定模式,支援卷宗管 理和三種鑒定文書生成,為司法鑒定人員提供一站式視訊圖像檢驗鑒定服務。

4.4. 博彙科技

公司成立于 1993 年,是專注于視聽大資料領域的科創企業,通過整合運用視聽大 資料采集、分析和可視化等核心技術,建構了以具有自主知識産權的軟硬體産品為基本 架構的研發中心支撐體系,業務涵蓋傳媒安全、智慧教育、智能顯控三個主要領域。

營收增速重回正軌,傳媒安全收入占比遠超其他業務。公司 2020-2022 年營收分别 為 2.88 億元、2.87 億元、1.64 億元。22 年受宏觀經濟影響,客戶招投标工作延緩,項 目傳遞延期,導緻公司訂單量及項目傳遞量有所下降,營收同比下降 42.88%。2023Q1 公司重回正軌,實作營收 0.40 億元,同比增加 29.75%。傳媒安全為公司最主要的收入 來源,22 年傳媒安全産品實作營收 1.22 億元,占比達 74.4%。

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

傳媒安全作為公司的主營業務之一,公司在内容安全做了諸多儲備: 1) 技術方面,公司自主研發了文字、圖檔、語音、視訊多模态識别引擎,以此為基 礎建構了“慧視”AI 基礎能力平台,并取得了相關技術專利和軟著證書。公司已取得“一 種基于神經網絡的單人換臉短視訊的識别方法和系統”的發明專利。公司的“視聽内容 篡改檢測系統”與“媒資視訊内容 AI 算法模型”均有獲獎。 2) 在産品方面,公司以人工智能多模态識别引擎為支撐,針對廣播電視和網絡視聽 内容監管建構了立體多元的業務系統,通過流程化的任務管理、高效率的媒體内容識别、 便捷化的移動釋出,有效提高内容監管工作效率和智能化水準。 3) 在應用方面,公司的相關産品已覆寫國家廣播電視總局、中央廣播電視總台、中 國廣電網絡股份有限公司;28 個省級廣播電視局;28 個省級新媒體播控平台;30 個省 級廣電網絡公司;30 餘個電信營運商省分公司;咪咕視訊、央視網、芒果 TV 等網絡視 聽平台,建立起良好的品牌影響力。 為提升新媒體內建播控平台的視訊内容稽核能力,由人工向智能化邁進,博彙科技 打造“新媒體內建播控平台内容 ai 稽核方案”,應用自研多模态 AI 識别引擎,優化内容 品質、拒絕不良内容傳播,淨化視訊内容,以保持與新媒體發展的最佳實踐的接軌。

1) 智能化:新媒體內建播控平台内容 AI 稽核方案,綜合運用博彙公司自研的多模 态識别引擎以及智能技審引擎,實作了對線上/離線媒資内容稽核和品質審查的雙管齊 下,及時發現其中涉黃、涉暴、敏感人物等違規視音頻内容以及黑場、靜幀、彩條、抖 動等品質劣化。系統完美相容國産軟硬體環境,廣泛應用于各級廣電監管、播控部門。

2) 便捷化:本方案采用 B/S、C/S 相結合的互動頁面設計,一方面滿足人工複審的 精細化操作需求,另一方面提供了便捷化的任務管理流轉、統計分析手段,有效提升審 核工作的便捷性。此外,針對新增敏感樣本,系統應用博彙專利的音視訊指紋提取、識 别技術,無需對全部媒資進行完整處理即可實作快捷精準的素材翻庫稽核,大大提高了 敏感内容甄别的時效性。

3) 标準化:系統可通過标準化的資料接口與使用者現有的媒資系統進行融合,可自動 對于媒資系統新注入的節目進行智能稽核,并将疑似違規内容推送至業務人員進行确認, 最終輸出标準化的報表,完美嵌合使用者節目内容、技術品質稽核業務流程。

4.5. 東方通

東方通是中國中間件的開拓者和上司者。公司依托基礎軟體的技術積累,拓展政務、 金融等特定行業解決方案,為使用者提供基礎安全産品及解決方案,同時繼續為電信營運 商等傳統使用者提供領先的資訊安全、網絡安全、資料安全等産品及解決方案,依托“安 全+,資料+”兩大産品體系,提出“智慧+”戰略,在政企數字化轉型領域進行産品布 局。業務領域從政務、金融、電信、交通等傳統優勢客戶拓展至應急管理、教育、公安、 國防軍工、能源電力等行業領域。

Q1 業績承壓,安全産品成為第一大收入來源。2020-2022 年公司營收穩健增長,分 别為 6.40 億元、8.63 億元、9.08 億元。公司安全産品營收增速較快,22 年實作營收 3.46 億元,占比達 38.11%,超越基礎軟體中間件成為公司第一大收入來源。

東方通重磅推出“産品+技術”組合型智能化内容安全監測體系,基于自主創新的 AI 内容監測軟硬體産品+AI 生成式技術深度研究,形成立體化的内容安全監測與管理能 力,助力建構清朗網絡空間。東方通智能内容安全監測體系主要包括以下 5 大部分:

1) 針對生成式人工智能應用的流量監測專用裝置:基于 DPI 技術采集關鍵網絡出 口流量,結合東方通多年行業積累沉澱的情報庫和人工智能應用研究,能夠針對性的識 别出“生成式人工智能應用”的特征,對其中違法違規的應用進行監測處置。該裝置采 用了專用的國産硬體,單台裝置支援處理 100Gbps 以上網絡流量,主要應用于電信營運 商、資訊安全監管部門等。

2) 瑤光智能内容邊緣監測裝置:基于國産 GPU 開發的軟硬一體裝置,能夠部署于 戶外,例如産業園區、大型商業區、校園等場景中,可以監測和處置戶外廣告大屏宣傳中的視訊、圖檔、文字等多樣化内容,能夠實時發現和處理違法違規内容、深度合成内 容、違法廣告等,可為廣大人民群衆提供更為潔淨、健康、祥和的日常生活空間。

3) 瑤光内容安全監測系統:依據《網際網路資訊服務深度合成管理規定》、《網際網路新 聞資訊服務管理規定》等法規要求,基于深度學習算法的圖檔識别能力、多元度視訊内 容識别能力、智能化音頻内容識别能力、圖像視訊高速率僞造檢測技術,能夠監測網站、 微網誌、微信公衆号、小程式、APP、視訊平台、IPTV 等新媒體平台的内容安全,能夠智 能識别 200 多類違法違規内容及深度合成内容,實作内容安全治理的全流程管理。該系 統已應用于電信營運商、廣電、網際網路公司等政企機關,在廣播電視、網絡視聽及新媒 體領域,以四川廣播電視監測中心四川廣播電視和網絡視聽監測系統為例,東方通瑤光 内容安全監測系統在内容釋出、網絡接入服務等場景中提供了強大的内容監管能力,并可 針對目前 AI 換臉詐騙等風險場景提供更為精準的安全監測。

4) TongGPT 智能語音互動系統:在涉詐風險領域,随着人工智能的接入,風險隐 蔽性更強,反詐工作難度大幅提升。東方通 TongGPT 智能語音互動系統依托東方通 AI 生成式人工智能技術的研究,将推出 TongGPT 多模态智能互動模型,計劃年底之前實 現涉詐風險智能語音提醒、智能客服等場景 AI 識别服務。尤其面對 AI 生成語音詐騙 時,可自動化提醒“受害人員”,解決目前電信網絡詐騙治理過程中的涉詐風險提醒效 率、覆寫率等難題,提升涉詐風險識别能力,減少人工識别的投入,提高涉詐提醒的及 時性、有效性,實作降本增效,提升防範、治理電信網絡詐騙等新型違法犯罪的能力。

5) 生成式人工智能算法安全性檢測工具:依據中央網信辦釋出的《生成式人工智能 服務管理辦法》(征求意見稿)的要求,基于大模型對抗實作對算法安全性檢測,東方通 目前已經開啟針對 ChatGPT 等新型互動式 AIGC 算法的安全性評估測試方法和工具開 發的研究,能夠檢測生成式人工智能算法的潛在安全風險,包括内容安全性(含違法違 規風險、歧視性風險、虛假資訊風險等)、隐私資料安全、算法魯棒性、惡意代碼風險等, 從算法源頭實作檢測、預防和治理 AI 内容風險,未來将面向監管部門和算法服務提供 者提供全面支撐服務。

4.6. 拓爾思

拓爾思成立于 1993 年,是中文全文檢索技術的始創者,領先的人工智能、大資料 和資料安全産品及服務提供商。公司作為人工智能、大資料和資料安全産品及服務提供 商,為各行業使用者的數智化賦能。公司業務根據行業應用的不同,可劃分為數字政府、 融媒體、金融科技、數字企業、公共安全五個版塊;根據技術領域的不同,可劃分為人 工智能、大資料、資料安全、信創四個領域;根據服務模式的不同,又可劃分為軟體産 品、大資料服務、訂閱制 SaaS 服務、軟硬一體化産品四種模式。

Q1 營收增速回正,人工智能軟體産品及服務營收逆勢增長。2020-2022 年公司營收 分别為 13.09 億元、10.29 億元、9.07 億元。2023Q1 公司營收增速回正,實作營收 2.11 億元,同比增加 10.62%。公司人工智能軟體産品及服務營收逆勢穩定增長,2020-2022 年分别實作營收 1.19 億元、1.81 億元、2.12 億元,2022 年營收占比達 23.37%。

人工智能行業專題報告:AI監管,鑄就創新與安全平衡之道

拓爾思在政務和媒體等相關領域的平台建設中,涵蓋了内容審查相關業務子產品。如 政府集約化平台服務,通過對資訊釋出的内容進行自動稽核,幫助政務營運團隊更準确 的資訊傳達;又如在融媒體平台的建設中,對文本、圖檔和音視訊内容的多模态内容進 行實時合法合規性等多元度審校。 拓爾思推出的自動校對的 SaaS 雲服務平台,能夠比較準确、全面、智能地對釋出内容中進行内容稽核,包括文字類差錯,如錯别字、音近字、形近字、多字、重疊、颠 倒、繁體詞、異形詞等;敏感詞過濾,如涉及暴恐、色情、違禁、侮辱、歧視等不健康 用詞,落馬官員等;知識錯誤,如表述不當、搭配不當、語義錯誤、術語名詞、地名等; 常識錯誤,如标點符号、數字、量詞、計量機關、大小寫、時間表述等内容。

(本文僅供參考,不代表我們的任何投資建議。如需使用相關資訊,請參閱報告原文。)

精選報告來源:【未來智庫】。「連結」

繼續閱讀