天天看點

國家四部門出手 禁止“算法”變“算計”

國家四部門出手 禁止“算法”變“算計”

(請點選“讀報紙”或“服務”打開欣賞電子版)

國家四部門出手 禁止“算法”變“算計”

網際網路算法推薦新規釋出,3月1日起施行

國家四部門出手 禁止“算法”變“算計”

近日,國家網信辦等四部門聯合釋出《網際網路資訊服務算法推薦管理規定》,自2022年3月1日起施行。規定明确,不得利用算法實施影響網絡輿論、規避監督管理以及壟斷和不正當競争行為。

禁止算法歧視、“大資料殺熟”

近年來,算法應用在給政治、經濟、社會發展注入新動能的同時,算法歧視、“大資料殺熟”、誘導沉迷等算法不合理應用導緻的問題也深刻影響着正常的傳播秩序、市場秩序和社會秩序,給維護意識形态安全、社會公平公正和網民合法權益帶來挑戰。在網際網路資訊服務領域出台具有針對性的算法推薦規章制度,是防範化解安全風險的需要,也是促進算法推薦服務健康發展、提升監管能力水準的需要。

《規定》明确,應用算法推薦技術,是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、排程決策類等算法技術向使用者提供資訊。

假消息不能被“個性化推薦”

《規定》明确了算法推薦服務提供者的資訊服務規範,要求算法推薦服務提供者應當堅持主流價值導向,積極傳播正能量,不得利用算法推薦服務從事違法活動或者傳播違法資訊,應當采取措施防範和抵制傳播不良資訊;建立健全使用者注冊、資訊釋出稽核、資料安全和個人資訊保護、安全事件應急處置等管理制度和技術措施,定期稽核、評估、驗證算法機制機理、模型、資料和應用結果等;建立健全用于識别違法和不良資訊的特征庫,發現違法和不良資訊的,應當采取相應的處置措施;加強使用者模型和使用者标簽管理,完善記入使用者模型的興趣點規則和使用者标簽管理規則;加強算法推薦服務版面頁面生态管理,建立完善人工幹預和使用者自主選擇機制,在重點環節積極呈現符合主流價值導向的資訊;規範開展網際網路新聞資訊服務,不得生成合成虛假新聞資訊或者傳播非國家規定範圍内的機關釋出的新聞資訊;不得利用算法實施影響網絡輿論、規避監督管理以及壟斷和不正當競争行為。

使用者可選擇關閉算法推薦服務

針對群衆普遍關心的使用者權益保護問題,《規定》明确了對于算法推薦服務提供者的使用者權益保護要求。

一是算法知情權,要求告知使用者其提供算法推薦服務的情況,并公示服務的基本原理、目的意圖和主要運作機制等。

二是算法選擇權,要求向使用者提供不針對其個人特征的選項,或者便捷的關閉算法推薦服務的選項。使用者選擇關閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關服務。算法推薦服務提供者應當向使用者提供選擇或者删除用于算法推薦服務的針對其個人特征的使用者标簽的功能。

三是針對向未成年人、老年人、勞動者、消費者等主體提供服務的算法推薦服務提供者作出具體規範。如不得利用算法推薦服務誘導未成年人沉迷網絡,應當便利老年人安全使用算法推薦服務,應當建立完善平台訂單配置設定、報酬構成及支付、工作時間、獎懲等相關算法,不得根據消費者的偏好、交易習慣等特征利用算法在交易價格等交易條件上實施不合理的差别待遇等。

本版文綜合新華社、“網信中國”微信公衆号、央視、澎湃新聞等

四問算法推薦

算法,是一種依托海量内容、多元使用者和不同場景等核心資料資訊,進行自主挖掘、自動比對和定點分發的智能網際網路技術。目前與人們生産、生活緊密相關的算法類型多種多樣,既包括長于新聞創作的自動合成型算法、适用線上購物的個性推薦型算法,也包括精于語句識别的檢索過濾類算法和契合網絡約車的治理決策類算法,等等。算法社會的到來勢不可擋,從資訊傳播理論和實踐的角度來看,算法在為公衆提供極大技術便利的同時,對網絡生态的發展亦産生了深刻影響。

消費者苦算法久矣!算法是工具,算計是人心。一款好的程式和算法,應該是善意有溫度的,是以誠信為電源的,它要滿足人的需要,解決使用者痛點,弘揚人的優點,造福使用者和人類。算法不能成了算計消費者、客戶的利器。

1 算法是怎麼讓你上瘾的?

“技術多巴胺”的刺激,讓我們從沉迷發展到上瘾

“這世界上肯定存在讓人上瘾的代碼。”拉姆塞·布朗的公司就是建立在這句信條上的。公司網站的宣傳裡号稱,他們運用神經科學理論,結合人工智能機器學習,“用多巴胺讓你的APP令人上瘾”。

他們提供的“定制服務”能接入客戶APP的背景,幫助客戶追蹤使用者的每一個行為;然後在一些關鍵的地方和時間點設計“獎賞”:悅耳的聲效、虛拟币,或者忽然跳出來的贊,進而提高使用者的留存度、打開率和停留時間。這對客戶來說,就意味着更好看的資料和營收,他們也願意為此付費。

公司反複宣傳的案例包括2016年的一單客戶:一個叫“Brighten”的“正能量社交網絡”APP。為期三周的測試顯示,被他們“打了多巴胺”的使用者,打開應用的動作變得更頻繁,花時間給親朋發送的正能量資訊增加了167%。

多巴胺的這個功能并非産生愉悅,而是調節欲望、滿足和獎賞。當你預計到做一件事情會獲得好的回報時,你的獎賞神經通路裡多巴胺的含量就會增加,如果到來的回報超出了你的預期,那麼多巴胺還會有第二波增加;但反過來,如果回報低于你的預期,多巴胺會回落到比一開始更低的水準。不管你是把手伸向了巧克力,還是接下了遊戲裡的一個新任務,引導你追求獎賞的那個分子,都是多巴胺。

多巴胺的作用機制仿佛給了一些技術産品“操控行為”的能力。

最初,這種“收割時間”的行為僅限于圖文内容,他們初期用刺激的标題和貼合最基本喜好的個性化推送,收割人們上廁所、等車等時候的“碎片時間”;随後他們大舉進攻短視訊領域,收割對象變成了使用者大塊的空餘時間。

當你收看完一個短視訊之後,甚至不需要做出任何反應,系統馬上會自動推送給你一個類似的短視訊,嘗試讓你的視覺快感盡可能長地延續下去。你看得越多,系統就越了解你的喜好,給你的推動也就越“精準”。

在移動網際網路時代,它讓你的注意力始終聚焦在螢幕上,無法挪動分毫。網際網路産品界的“标準答案”的本質便是用資料精細地洞悉人性之弱,并徹底貫徹到産品的結構邏輯和互動設計中。

“技術多巴胺”的刺激,讓我們從沉迷發展到依賴,直到上瘾。

究竟是什麼讓事情變得如此誇張?技術背後的資本和創造力讓我們沉浸于虛拟的美好,但讓人憂心的是,它并不關心每個人真實的生活。

2 算法的“原罪”是如何産生的?

過度資訊收集和過度索權是“算法作惡”常見形式

新聞資訊、社交、購物、餐飲、出行以及短視訊等APP通過各類算法給使用者推薦他們感興趣的話題和内容,深深地将使用者綁定在他們所精心構築的“牢籠”。

這些技術的興起得益于近年來以人工智能、大資料等為代表的新技術新應用的快速發展。

這些新應用在服務人們社會生活的過程中,通過各種算法将大資料進行收集和處理,并為使用者進行畫像,精準的描繪出使用者的各種喜好,最終控制使用者行為或精準推送各類廣告。

可以說算法是許多APP的技術基礎,甚至是數字社會發展的重要基石。雖然這些算法特别是AI算法為社會生活創造了巨大價值,但其對使用者隐私的侵犯、大資料殺熟等弊端也逐漸暴露出來。

隐私問題是算法濫用帶來的嚴重問題之一,盡管在網絡安全領域,資料安全和隐私保護始終是重中之重,但時至今日出現的資料安全問題仍屢見不鮮。

過度資訊收集和過度索權是“算法作惡”的常見形式。《個人資訊保護法》明确規定了“個人資訊處理者利用個人資訊進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差别待遇;通過自動化決策方式向個人進行資訊推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式”等,從法律層面向資訊過度收集和過度索權行為說“不”。

技術是把雙刃劍,算法的“原罪”背後,永遠是人。

3 算法無限擴張後,人們将面臨什麼?

人淪為算法“囚徒”的可能性增加

網絡生态失衡、失真風險不斷加大

毋庸置疑,技術驅動的算法紅利越來越廣泛而深刻地影響着人們的生活:網絡購物離不開“算法比價”、商業營運離不開“算法宣傳”、日常出行離不開“算法導航”,甚至求職姻緣也需要“算法比對”等。但看似理性、中立的算法背後,也存在着一定的技術偏見:大資料“殺熟”“欺生”、算法侵犯隐私乃至引發群體極化等現象時有發生。算法盛行給網絡生态帶來的一系列沖擊,值得警覺與深思。

一方面,算法盛行容易造成“把關人”角色弱化,人淪為算法“囚徒”的可能性急劇增加。算法雖然帶來了個人資訊、服務水準的大幅提升,但在算法技術主導下,個性化分發力度得到空前強化,而資訊、産品與服務編輯審校等“把關角色”卻經常遭到弱化甚至缺位。一旦算法的設計與應用失當,個體在認知判斷、行為決策以及價值取向等多個方面,很可能會受到單一算法的鉗制乃至禁锢,成為算法的“囚徒”。

另一方面,算法盛行容易強化“資訊孤島”效應,網絡生态失衡、失真的風險可能不斷加大。算法在很大程度上影響着人們與某類資訊的快速連接配接和比對,但也自動過濾掉了其他潛在有效資訊。資訊窄化下的公衆容易形成“很多人都是這種想法和價值取向”的錯覺,這種“選擇性”的接觸、過濾與相信,不僅會閉塞與不同意見群體的交流溝通,更會造成在自我重複和自我肯定中的視野受困與故步自封。同時也會為偏見滋生、黏性缺失的網絡輿論場埋下被操控的巨大隐患,甚至陷入惡性循環、誘發線下群體性事件,破壞網絡生态的晴朗穩定。

簡單粗暴、一刀切式的“算法抵制”并不可取,建立更加完善的法律法規監管體系、公開推行更加透明的行業技術準則,已迫在眉睫;同時,必須摒棄“算法崇拜”,進行更加全面專業的算法設計者素質教育訓練,強化對算法使用者的素養教育。

4 反算法,“反”的究竟是什麼?

使用者更多不是反對新技術

而是對新技術應用不足的不滿

全世界都不想錯過大資料帶來的技術變革,大量企業都希望通過大資料攪動市場,占據市場先機。意外的是,反大資料、反算法的企業也開始獲得發展機會,得到資本市場的認可,大資料堪稱“雙刃劍”。

以色列特拉維夫的網絡安全技術公司D-ID,可能是目前第一家反圖檔識别技術的公司,可以生成算法無法辨識的照片和視訊,但同時保持與真實人臉相似,以保障個人隐私及身份資訊不被面部識别技術惡意讀取。其目标是保護已經被用于身份認證的資料,同時確定資料不會在一開始就被“讀取”。依靠這套以算法反擊圖檔識别算法的技術,達到了反擊正常“算法”的效果,此前宣布剛獲得400萬美元種子輪融資。

相比較而言,社交和研究網站Are.na反算法更加徹底。既沒有廣告,也沒有算法追蹤,在該網站上收藏的内容與流行度無關,也沒有點贊的按鈕。這一套與Facebook和Twitter相反的反社交玩法,雖然總用量不高,但月增長率達20%。

雖然國内還沒有類似網站和技術出現,但是最近隻在國内爆紅的“旅行青蛙”,可以看出一些趨勢。這款遊戲不內建其他功能留住使用者時間,反而做到“用完即走,但走了還要回來”的效果,背後使用者心理确實值得關注。

目前,大資料和算法的應用還将是主流,能給普通人生活帶來變革。反大資料、反算法和反社交現象的出現,使用者更多不是反對新技術,而是對新技術應用不足的不滿。

首當其沖的問題是大資料“太蠢”。例如使用者在電商網站搜尋或購買過一款産品後,再打開網頁,發現廣告位都是之前購買過的産品推薦,這是大多數使用者都遇到過的情況。在以個性推薦為特點的應用中,也存在這樣的問題。

大資料應用在個性推薦上的“跑偏”,還展現在新聞用戶端和社交媒體上。在資訊過載的當下,面對大量資訊,使用者的選擇會傾向自己感興趣的内容,或者說是滿足個人欲望的内容,基于此的個性推薦會不斷放大欲望,娛樂八卦占據熱搜就是例子,這并不是一個好的應用。

此外,大資料技術應用還存在邊界問題。如何判斷一些資料互聯是必要,哪一些是過度互聯,是下一步需要考慮的問題。

網絡使人類的連接配接更加緊密、友善,但過度連接配接會加快資訊的傳播速度,使人類社會變得更加脆弱。

依托大資料實作物聯網進一步擴大了連接配接的資料量,安全、隐私等問題變得不可控,一個局部的小問題也容易轉變為大規模的問題。

新聞銳評

算法不是“算計” 也要講倫理

日前,北大網際網路發展研究中心釋出的《中國公衆“大安全”感覺報告》顯示,有七成受調查者感到算法能擷取自己的喜好、興趣,進而“算計”自己。當算法淪為“算計”,使用者不堪其擾、不勝其煩。在這種背景中,對算法推薦服務建章立制、加強規範正當其時,也很有必要。

其實,要治理的不是算法推薦服務,而是掌控算法推薦服務的人和平台。正如網信辦相關負責人所說,制定具有針對性的算法推薦規定,“明确算法推薦服務提供者的主體責任”。在提供算法推薦服務時,應具備什麼樣的資質,應承擔什麼樣的義務,以及應守住什麼樣的邊界等,《規定》都為算法推薦服務提供者确立了嚴格而清晰的規範。

值得一提的是,《規定》還明确了使用者享有的基本權益。比如算法知情權,平台要向使用者告知其提供算法推薦服務的情況,并公示服務的基本原理、目的意圖和主要運作機制等。再比如算法選擇權,使用者選擇關閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關服務。這兩項制度設計,既呵護了廣大使用者的合法權益,也為算法推薦服務提供者标注了紅線。

算法也要講倫理,歸根結底是需要平台講倫理。這種倫理,不隻是展現在“不得利用算法推薦服務從事危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動,不得利用算法推薦服務傳播法律、行政法規禁止的資訊”,還展現在“不得設定誘導使用者沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型”。

《規定》不是對算法推薦的否定,更不是禁絕,而是通過“管得住”實作“用得好”。當各個平台守住倫理,積極用主流價值導向駕馭算法,并遵循公正公平、公開透明、科學合理和誠實信用的原則,算法推薦才會更符合公共利益,更契合公衆期待。

繼續閱讀