UFO中文网

 找回密码
 注册会员
查看: 442|回复: 0
收起左侧

推荐算法越来越强,我们的判断力却越来越弱

[复制链接]
online_member 发表于 2021-12-1 12:55:04 | 显示全部楼层 |阅读模式
推荐算法越来越强,我们的判断力却越来越弱是怎么回事,是真的吗?2020年07月31日是本文发布时间是这个时间。下面一起来看看到底怎么回事吧。
                                推荐算法越来越强,我们的判断力却越来越弱
                               
                                我们每天在网络平台上看到的信息,很大程度上是由运营平台的商业公司所编写的算法决定的。
                               
                               

推荐算法越来越强,我们的判断力却越来越弱725 / 作者:UFO爱好者 / 帖子ID:78567

但在工具理性的背后,确实存在着网络用户对新闻平台的不满与抱怨:点开全文毫无意义的标题党、缺少“石锤”容易翻转的假新闻都在影响着网络媒介的生态。

今年6月,一组来自柏林马克斯·普朗克人类发展研究所、布里斯托大学与哈佛大学法学院的研究者,从行为科学的角度分析了相关问题,并给出了他们的干预措施。这一研究成果发表在了 Nature Human Behaviour 上。

作者:Leo
审校:刘培源、刘华林
编辑:张希妍


推荐算法越来越强,我们的判断力却越来越弱22 / 作者:UFO爱好者 / 帖子ID:78567

1. 推荐算法越来越强,人的判断力却越来越弱

设想一个场景,如果你在社交网站上看到了一个视频——还是那种黑幕曝光、丑闻揭露的视频——这样的视频可能有上万的点击量,以及过千的点赞。你觉得这件事意味着什么呢?这个视频是否可信?

全球有超过一半(55%)的互联网用户在使用社交媒体、搜索引擎获取新闻资讯,这是路透社2019年数字新闻报告(Reuters Institute Digital News Report 2019)提供的数据。

我们可以说,是算法在决定新闻信息流、而信息流决定了公众舆论。(其实是由用户自发上传的信息决定算法能抓取到的内容)。而商业网络平台的目标是牢牢抓住用户的注意力,让用户长期停留在自己平台上。

这也能解释为什么社交网络上并没有一个降权的“反对”机制:用户上网并不是为了来接受教育的,算法会让用户觉得自己永远都是对的。

该论文的作者之一、布里斯托大学认知心理学教授 Stephan Lewandowsky 认为:如果我们分享的只是生活趣事,这样的机制可能没什么影响。但当我们面对社会议题信息时,这样的机制就可能会促进激进观点的传播,会扭曲事实。

此外,信息推送算法的基本原理,就是基于用户以前浏览的几个小圈子之内,这会被视为“常识”。这样的平台机制会让我们忽略个体间的差异,忽略世界的多样性。其实,这不仅会促成所谓的“信息茧房”现象,也是以“娱乐”、“快乐”为名义对人的操纵,因为在这样的信息分发机制下,人其实会逐渐缺乏对信息的辨别与选择能力。

那么,网络平台上的用户该如何区分信息的真伪?我们又该如何改善平台的设计?

本论文的另一位作者、马克斯 · 普朗克人类发展研究所的 Philipp Lorenz-Spreen 研究员认为,他们这项工作的目的就在于:在不依赖于专业审查人士的前提下,让在线平台中的用户能够明智的作出自己对的决定。平台的设计会影响用户的行为,所以,研究者希望在理解用户行为的基础上,通过良好的平台机制设计来改善用户的行为。

在这项工作中,研究者通过对行为科学中助推(Nudging)和助力(Boosting)这两个概念的借鉴,设计出了能改善个人信息判别能力的机制。


2. 怎样利用助推机制,引导用户思考?

助推(Nudge)一概念最早可以追溯到1995年,由 James Wilk 在系统论中提出。后来,2017年诺贝尔经济学奖获得者、芝加哥大学经济学家、理查德·H·泰勒(Richard H. Thaler)和奥巴马时期的信息与管制办公室主任凯斯·R·桑斯坦(Cass Robert Sunstein)的合著图书《助推:我们如何做出最佳选择》( Nudge:Improving Decisions About Health, Wealth, and Happiness )在2008年问世(中译本由中信出版社于2009年出版发行)。助推理论开始为大众所接受。

推荐算法越来越强,我们的判断力却越来越弱264 / 作者:UFO爱好者 / 帖子ID:78567
图1:左图:理查德·H·泰勒(Richard H. Thaler)(左图)、中图:凯斯·R·桑斯坦(Cass Robert Sunstein)、右图:《助推:我们如何做出最佳选择》,中信出版社,2009 | 图片来源:wikipedia.org、douban.com

助推的英文 nudge 原意就是用胳膊肘轻轻碰下,在不经意间给人以暗示提醒。故此,助推理论的思路也就在于通过巧妙的机制设计,在尊重别人意愿的前期下,让人们自然改变自身的行为。关于助推理论最著名也是最有趣的例子就是:在小便池的内壁上画一只苍蝇就可以提高男士的“精准度”。
      
推荐算法越来越强,我们的判断力却越来越弱240 / 作者:UFO爱好者 / 帖子ID:78567
图2:苍蝇是画上去的 | 图片来源:wikipedia.org

再比如说,在催缴税款的信件中,称该地区的大部分商户都已缴纳税款,那么收信人可能会担心自己成为“个别份子”而更加积极的报税缴税。此外,自助餐厅食品的摆放、填表登记时的默认选项设计等案例也都可以从助推理论的角度进行解释。

在这篇论文中,研究者希望利用助推理论来引导用户浏览信息时的行为,而不是强行去指定规则或者对信息加以限制。

推荐算法越来越强,我们的判断力却越来越弱623 / 作者:UFO爱好者 / 帖子ID:78567
图3:助推机制设计示意

上图展示的就是论文作者所设计的一个助推机制。我们可以看到除了正常的信息展示以外,还提供了信息来源、浏览量、评论数、点赞数等。

如果用户发现一条新闻“阅读量超过百万,点赞只有100多人”,那么他就会被启发思考:这则消息可能不靠谱。依照研究者的设计,如果用户要分享一些不靠谱的信息,系统也可以弹出一个二次确认的对话框,以提高不实信息的转发成本。


3. 打破算法黑箱:谁在左右你的信息流?

此外,互联网用户已经看穿了或者不得不接受的一个事实就是:对于用户而言互联网公司所使用的信息推送算法不仅不透明,其实也不那么“自动”。竞价排名、“买热搜”、“带节奏”等现象已经属于网络时代公开的秘密。自动推送、算法分发的背后其实并不仅仅是工具理性,而是商业收益。所谓“算法中立”不过是人们对新技术的一种理想化乌托邦式的想想。一个算法设计的背后包含着人的立场与决策。

从知识产权、商业利益以及舆论影响的角度考量,运营公司可能并不原意正式公开相关的分发算法和推荐机制。不希望信息推送的决策过程接受公众的审视,在加上专业技术门槛,使得公司的信息分发算法成为了黑箱。

故此,在研究者提出的另一个助推机制设计中,算法排序的结果对用户透明。提高算法透明度,打破算法的“黑箱”。  

推荐算法越来越强,我们的判断力却越来越弱816 / 作者:UFO爱好者 / 帖子ID:78567
图4:信息来源分类。信息的分数=最新+点赞+引用+朋友转发

如上图所示,在新的设计中,平台的用户能够看到信息流排序的背后分数这样透明公开的机制,能让人明白自己为什么会看到这些消息。


4. 从助推到助力:怎样提供用户判断力?

基于前面的设计,研究者进一步提出了新的改进措施,用户可以自己为信息设定权重、加权打分。


推荐算法越来越强,我们的判断力却越来越弱617 / 作者:UFO爱好者 / 帖子ID:78567
图5:透明自主的打分排序机制

以此操作使得用户实际上参与了推送分发算法的设计过程,并且能够根据自己的偏好对相应的分数权重进行调配。这样做一方面提高了算法“可理解的透明度”,另一方面也让用户意识到自己参与到了网络社区信息的共建中。

作为网络社区活动的主体,互联网用户并不是单纯的“受众”。传统新闻生产中生产与消费的二元对立场景,在社交网络时代已经不再那么绝对。面对网络中层出不穷的热点话题、翻转乌龙,互联网用户除了骂一句“XX药丸”以外,作为一片“雪花”本身也应承担主体责任,提高自己的网络素养、信息素养。

这种让用户自己调整权重、有教育用户作用的机制就是助力(Boost)。

与助推机制相比,助力机制对人行为的影响就要更加明显直接。助力这一概念是2016年,Ralph Hertwig 和 Till Grüne-Yanoff 在他们合作的论文 Nudging and Boosting: Steering or Empowering Good Decisions 中提出的。

与助推那样用各种“鸡贼”的招数偷偷摸摸地去改变他人行为的策略不同,助力则是要直接、显式地去改变别人的认知。通过一定的策略去教育他人、提高个人能力,让个体具备更高的判断鉴别信息的能力。正所谓“授人以鱼不如授人以渔”。在助力机制中,人是主动有意识地作出了改变。


5. 引入行为科学,优化信息分享路径

为了达成这样的目的,助力机制会设计一些列简介的启发式策略,让人以此习得新的能力。在该项研究中,研究者利用简单的网络级联模型为读者呈现出里一则信息完整的转发链条。
      
推荐算法越来越强,我们的判断力却越来越弱127 / 作者:UFO爱好者 / 帖子ID:78567
图6:可视化的信息分享级联:一则信息是如何在网络上发布、转发并最终被你看到的

信息分享级联模型,为我们呈现出了完整的信息转发链条。用户可以看到一则信息从最早的信源发布开始所经历的时间与转发关系。网络用户可以自行根据信息发布、转发的时间以及转发链条上的用户账号信息,判断自己收到的信息价值多少。比如,一个用户如果从社交网络看到一则耸人听闻的信息,但同时也发现这则信息其实是几年前的“冷饭”。或许,这时读者就要留个心眼,想想为何这碗“陈年旧饭”又被翻炒出来。

除了转发链条的呈现分析外,论文作者也利用广为人知的决策树模型为用户提供了一套简单易用的信息可靠性评估工具。
      
推荐算法越来越强,我们的判断力却越来越弱647 / 作者:UFO爱好者 / 帖子ID:78567
图7:决策树信息检测工具

如上图所示,这一机制设计旨在增强读者的横向信息检索功能。读者会被要求去检查信息来源、是否提供了其他的链接引用、引用链接是否可靠、是否有其他独立报道等项目。如果在引入第三方专业人士进行核查或者程序自动检查,平台用户就可以通过查看别人的判断结果来提升自己对信息的辨别能力。


6. 未来信息时代,机器人三定律将要失灵

推荐算法越来越强,我们的判断力却越来越弱15 / 作者:UFO爱好者 / 帖子ID:78567
图8:阿西莫夫“机器人三定律” | 图片来源:wikipedia.org

我们所熟知的“机器人三定律”并非源自严谨完备的科学研究,而是由著名的科幻小说家艾萨克·阿西莫夫于1942在其作品《我,机器人》中首次提出的。但与科幻小说、电影所不同的是,我们在现实生活其实很少会真的看到机器“人”。我们所能大量接触到的“机器人”可能就是运行在千万服务器中的程序。

在可预见的未来里,我们其实并不担心会有实体的机器人敲开家门、伤害我们。但是,由“活”在服务器上的推送机器人算法生成的信息流却能让我们日日烦恼。或许,来自行为科学的思想能为我们提供更多可以“对抗”算法的新思路。


参考资料与推荐阅读
[1]. Nudge_theory
https://en.wikipedia.org/wiki/Nudge_theory
[2]. 助推,理查德·H·泰勒 卡斯·H·桑斯坦 刘宁
[3]. From clickbait to transparency: Reimagining the online world
https://phys.org/news/2020-06-clickbait-transparency-reimagining-online-world.html
[4]. Digital News Report 2019 out now
https://reutersinstitute.politics.ox.ac.uk/risj-review/digital-news-report-2019-out-now
[5]. Nudging and Boosting: Steering or Empowering Good Decisions
https://journals.sagepub.com/doi/abs/10.1177/1745691617702496
[6]. 解构智能传播的数据神话:算法偏见的成因与风险治理路径,郭小平 秦艺轩
[7]. 黑箱:人工智能技术与新闻生产格局嬗变,仇筠茜 陈昌凤
[8]. 智能时代的新内容革命,彭兰
[9]. 社交媒体召唤结构:新闻交往化与亲密性,曾庆香 玄桂芬
您需要登录后才可以回帖 登录 | 注册会员

本版积分规则

UFO中文网

GMT+8, 2024-11-26 09:29

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表