天天看点

国家四部门出手 禁止“算法”变“算计”

国家四部门出手 禁止“算法”变“算计”

(请点击“读报纸”或“服务”打开欣赏电子版)

国家四部门出手 禁止“算法”变“算计”

互联网算法推荐新规发布,3月1日起施行

国家四部门出手 禁止“算法”变“算计”

近日,国家网信办等四部门联合发布《互联网信息服务算法推荐管理规定》,自2022年3月1日起施行。规定明确,不得利用算法实施影响网络舆论、规避监督管理以及垄断和不正当竞争行为。

禁止算法歧视、“大数据杀熟”

近年来,算法应用在给政治、经济、社会发展注入新动能的同时,算法歧视、“大数据杀熟”、诱导沉迷等算法不合理应用导致的问题也深刻影响着正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。在互联网信息服务领域出台具有针对性的算法推荐规章制度,是防范化解安全风险的需要,也是促进算法推荐服务健康发展、提升监管能力水平的需要。

《规定》明确,应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。

假消息不能被“个性化推荐”

《规定》明确了算法推荐服务提供者的信息服务规范,要求算法推荐服务提供者应当坚持主流价值导向,积极传播正能量,不得利用算法推荐服务从事违法活动或者传播违法信息,应当采取措施防范和抵制传播不良信息;建立健全用户注册、信息发布审核、数据安全和个人信息保护、安全事件应急处置等管理制度和技术措施,定期审核、评估、验证算法机制机理、模型、数据和应用结果等;建立健全用于识别违法和不良信息的特征库,发现违法和不良信息的,应当采取相应的处置措施;加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则和用户标签管理规则;加强算法推荐服务版面页面生态管理,建立完善人工干预和用户自主选择机制,在重点环节积极呈现符合主流价值导向的信息;规范开展互联网新闻信息服务,不得生成合成虚假新闻信息或者传播非国家规定范围内的单位发布的新闻信息;不得利用算法实施影响网络舆论、规避监督管理以及垄断和不正当竞争行为。

用户可选择关闭算法推荐服务

针对群众普遍关心的用户权益保护问题,《规定》明确了对于算法推荐服务提供者的用户权益保护要求。

一是算法知情权,要求告知用户其提供算法推荐服务的情况,并公示服务的基本原理、目的意图和主要运行机制等。

二是算法选择权,要求向用户提供不针对其个人特征的选项,或者便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。

三是针对向未成年人、老年人、劳动者、消费者等主体提供服务的算法推荐服务提供者作出具体规范。如不得利用算法推荐服务诱导未成年人沉迷网络,应当便利老年人安全使用算法推荐服务,应当建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法,不得根据消费者的偏好、交易习惯等特征利用算法在交易价格等交易条件上实施不合理的差别待遇等。

本版文综合新华社、“网信中国”微信公众号、央视、澎湃新闻等

四问算法推荐

算法,是一种依托海量内容、多元用户和不同场景等核心数据信息,进行自主挖掘、自动匹配和定点分发的智能互联网技术。当前与人们生产、生活紧密相关的算法类型多种多样,既包括长于新闻创作的自动合成型算法、适用线上购物的个性推荐型算法,也包括精于语句识别的检索过滤类算法和契合网络约车的治理决策类算法,等等。算法社会的到来势不可挡,从信息传播理论和实践的角度来看,算法在为公众提供极大技术便利的同时,对网络生态的发展亦产生了深刻影响。

消费者苦算法久矣!算法是工具,算计是人心。一款好的程序和算法,应该是善意有温度的,是以诚信为电源的,它要满足人的需要,解决用户痛点,弘扬人的优点,造福用户和人类。算法不能成了算计消费者、客户的利器。

1 算法是怎么让你上瘾的?

“技术多巴胺”的刺激,让我们从沉迷发展到上瘾

“这世界上肯定存在让人上瘾的代码。”拉姆塞·布朗的公司就是建立在这句信条上的。公司网站的宣传里号称,他们运用神经科学理论,结合人工智能机器学习,“用多巴胺让你的APP令人上瘾”。

他们提供的“定制服务”能接入客户APP的后台,帮助客户追踪用户的每一个行为;然后在一些关键的地方和时间点设计“奖赏”:悦耳的声效、虚拟币,或者忽然跳出来的赞,从而提高用户的留存度、打开率和停留时间。这对客户来说,就意味着更好看的数据和营收,他们也愿意为此付费。

公司反复宣传的案例包括2016年的一单客户:一个叫“Brighten”的“正能量社交网络”APP。为期三周的测试显示,被他们“打了多巴胺”的用户,打开应用的动作变得更频繁,花时间给亲朋发送的正能量信息增加了167%。

多巴胺的这个功能并非产生愉悦,而是调节欲望、满足和奖赏。当你预计到做一件事情会获得好的回报时,你的奖赏神经通路里多巴胺的含量就会增加,如果到来的回报超出了你的预期,那么多巴胺还会有第二波增加;但反过来,如果回报低于你的预期,多巴胺会回落到比一开始更低的水平。不管你是把手伸向了巧克力,还是接下了游戏里的一个新任务,引导你追求奖赏的那个分子,都是多巴胺。

多巴胺的作用机制仿佛给了一些技术产品“操控行为”的能力。

最初,这种“收割时间”的行为仅限于图文内容,他们初期用刺激的标题和贴合最基本喜好的个性化推送,收割人们上厕所、等车等时候的“碎片时间”;随后他们大举进攻短视频领域,收割对象变成了用户大块的空余时间。

当你收看完一个短视频之后,甚至不需要做出任何反应,系统马上会自动推送给你一个类似的短视频,尝试让你的视觉快感尽可能长地延续下去。你看得越多,系统就越了解你的喜好,给你的推动也就越“精准”。

在移动互联网时代,它让你的注意力始终聚焦在屏幕上,无法挪动分毫。互联网产品界的“标准答案”的本质便是用数据精细地洞悉人性之弱,并彻底贯彻到产品的结构逻辑和交互设计中。

“技术多巴胺”的刺激,让我们从沉迷发展到依赖,直到上瘾。

究竟是什么让事情变得如此夸张?技术背后的资本和创造力让我们沉浸于虚拟的美好,但让人忧心的是,它并不关心每个人真实的生活。

2 算法的“原罪”是如何产生的?

过度信息收集和过度索权是“算法作恶”常见形式

新闻资讯、社交、购物、餐饮、出行以及短视频等APP通过各类算法给用户推荐他们感兴趣的话题和内容,深深地将用户绑定在他们所精心构筑的“牢笼”。

这些技术的兴起得益于近年来以人工智能、大数据等为代表的新技术新应用的快速发展。

这些新应用在服务人们社会生活的过程中,通过各种算法将大数据进行收集和处理,并为用户进行画像,精准的描绘出用户的各种喜好,最终控制用户行为或精准推送各类广告。

可以说算法是许多APP的技术基础,甚至是数字社会发展的重要基石。虽然这些算法特别是AI算法为社会生活创造了巨大价值,但其对用户隐私的侵犯、大数据杀熟等弊端也逐渐暴露出来。

隐私问题是算法滥用带来的严重问题之一,尽管在网络安全领域,数据安全和隐私保护始终是重中之重,但时至今日出现的数据安全问题仍屡见不鲜。

过度信息收集和过度索权是“算法作恶”的常见形式。《个人信息保护法》明确规定了“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇;通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式”等,从法律层面向信息过度收集和过度索权行为说“不”。

技术是把双刃剑,算法的“原罪”背后,永远是人。

3 算法无限扩张后,人们将面临什么?

人沦为算法“囚徒”的可能性增加

网络生态失衡、失真风险不断加大

毋庸置疑,技术驱动的算法红利越来越广泛而深刻地影响着人们的生活:网络购物离不开“算法比价”、商业运营离不开“算法宣传”、日常出行离不开“算法导航”,甚至求职姻缘也需要“算法匹配”等。但看似理性、中立的算法背后,也存在着一定的技术偏见:大数据“杀熟”“欺生”、算法侵犯隐私乃至引发群体极化等现象时有发生。算法盛行给网络生态带来的一系列冲击,值得警觉与深思。

一方面,算法盛行容易造成“把关人”角色弱化,人沦为算法“囚徒”的可能性急剧增加。算法虽然带来了个人信息、服务水平的大幅提升,但在算法技术主导下,个性化分发力度得到空前强化,而信息、产品与服务编辑审校等“把关角色”却经常遭到弱化甚至缺位。一旦算法的设计与应用失当,个体在认知判断、行为决策以及价值取向等多个方面,很可能会受到单一算法的钳制乃至禁锢,成为算法的“囚徒”。

另一方面,算法盛行容易强化“信息孤岛”效应,网络生态失衡、失真的风险可能不断加大。算法在很大程度上影响着人们与某类信息的快速连接和匹配,但也自动过滤掉了其他潜在有效信息。信息窄化下的公众容易形成“很多人都是这种想法和价值取向”的错觉,这种“选择性”的接触、过滤与相信,不仅会闭塞与不同意见群体的交流沟通,更会造成在自我重复和自我肯定中的视野受困与故步自封。同时也会为偏见滋生、黏性缺失的网络舆论场埋下被操控的巨大隐患,甚至陷入恶性循环、诱发线下群体性事件,破坏网络生态的晴朗稳定。

简单粗暴、一刀切式的“算法抵制”并不可取,建立更加完善的法律法规监管体系、公开推行更加透明的行业技术准则,已迫在眉睫;同时,必须摒弃“算法崇拜”,进行更加全面专业的算法设计者素质培训,强化对算法使用者的素养教育。

4 反算法,“反”的究竟是什么?

用户更多不是反对新技术

而是对新技术应用不足的不满

全世界都不想错过大数据带来的技术变革,大量企业都希望通过大数据搅动市场,占据市场先机。意外的是,反大数据、反算法的企业也开始获得发展机会,得到资本市场的认可,大数据堪称“双刃剑”。

以色列特拉维夫的网络安全技术公司D-ID,可能是目前第一家反图片识别技术的公司,可以生成算法无法辨识的照片和视频,但同时保持与真实人脸相似,以保障个人隐私及身份信息不被面部识别技术恶意读取。其目标是保护已经被用于身份认证的数据,同时确保数据不会在一开始就被“读取”。依靠这套以算法反击图片识别算法的技术,达到了反击常规“算法”的效果,此前宣布刚获得400万美元种子轮融资。

相比较而言,社交和研究网站Are.na反算法更加彻底。既没有广告,也没有算法追踪,在该网站上收藏的内容与流行度无关,也没有点赞的按钮。这一套与Facebook和Twitter相反的反社交玩法,虽然总用量不高,但月增长率达20%。

虽然国内还没有类似网站和技术出现,但是最近只在国内爆红的“旅行青蛙”,可以看出一些趋势。这款游戏不集成其他功能留住用户时间,反而做到“用完即走,但走了还要回来”的效果,背后用户心理确实值得关注。

目前,大数据和算法的应用还将是主流,能给普通人生活带来变革。反大数据、反算法和反社交现象的出现,用户更多不是反对新技术,而是对新技术应用不足的不满。

首当其冲的问题是大数据“太蠢”。例如用户在电商网站搜索或购买过一款产品后,再打开网页,发现广告位都是之前购买过的产品推荐,这是大多数用户都遇到过的情况。在以个性推荐为特点的应用中,也存在这样的问题。

大数据应用在个性推荐上的“跑偏”,还体现在新闻客户端和社交媒体上。在信息过载的当下,面对大量信息,用户的选择会倾向自己感兴趣的内容,或者说是满足个人欲望的内容,基于此的个性推荐会不断放大欲望,娱乐八卦占据热搜就是例子,这并不是一个好的应用。

此外,大数据技术应用还存在边界问题。如何判断一些数据互联是必要,哪一些是过度互联,是下一步需要考虑的问题。

网络使人类的连接更加紧密、方便,但过度连接会加快信息的传播速度,使人类社会变得更加脆弱。

依托大数据实现物联网进一步扩大了连接的数据量,安全、隐私等问题变得不可控,一个局部的小问题也容易转变为大规模的问题。

新闻锐评

算法不是“算计” 也要讲伦理

日前,北大互联网发展研究中心发布的《中国公众“大安全”感知报告》显示,有七成受调查者感到算法能获取自己的喜好、兴趣,从而“算计”自己。当算法沦为“算计”,用户不堪其扰、不胜其烦。在这种背景中,对算法推荐服务建章立制、加强规范正当其时,也很有必要。

其实,要治理的不是算法推荐服务,而是掌控算法推荐服务的人和平台。正如网信办相关负责人所说,制定具有针对性的算法推荐规定,“明确算法推荐服务提供者的主体责任”。在提供算法推荐服务时,应具备什么样的资质,应承担什么样的义务,以及应守住什么样的边界等,《规定》都为算法推荐服务提供者确立了严格而清晰的规范。

值得一提的是,《规定》还明确了用户享有的基本权益。比如算法知情权,平台要向用户告知其提供算法推荐服务的情况,并公示服务的基本原理、目的意图和主要运行机制等。再比如算法选择权,用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。这两项制度设计,既呵护了广大用户的合法权益,也为算法推荐服务提供者标注了红线。

算法也要讲伦理,归根结底是需要平台讲伦理。这种伦理,不只是体现在“不得利用算法推荐服务从事危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动,不得利用算法推荐服务传播法律、行政法规禁止的信息”,还体现在“不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型”。

《规定》不是对算法推荐的否定,更不是禁绝,而是通过“管得住”实现“用得好”。当各个平台守住伦理,积极用主流价值导向驾驭算法,并遵循公正公平、公开透明、科学合理和诚实信用的原则,算法推荐才会更符合公共利益,更契合公众期待。

继续阅读