汤姆·查特菲尔德(Tom Chatfield)表示,使用了Facebook或谷歌后,我们所作出的选择,无形中已受到幕后人为偏好的推波助澜。
如今,计算机软件与我们的生活息息相关,日益影响着我们的思考。而一个老派观点再次成为新闻:“何为新闻”由一群不可靠的个体来决定。人们发现,原来Facebook会人工决定用户可见与不可见的话题。讽刺的是,那些持“机器将篡夺人类权力”悲哀论的人却认为,关键在于没有一套可行的程序法则来应对这个问题。
目前,最受争议的说法是:Facebook的热门话题选择具有反保守的偏向,大大抑制保守的新闻与观点。对此,Facebook极力反驳。但在3月份,科技博客Gizmodo率先报导这一事件时,就提出了两个紧密相关的原因,解释为什么Facebook会不顾任何政治偏见,使自己陷于尴尬之中:第一,雇员是有血有肉的人,他们的存在破坏了“无偏见新闻理想状态”;第二,这些签订了合约的新闻管理者所受到的待遇似乎并不比软件好,他们所负责的事务远超出编辑或领导的责任,受限于模糊的“热门新闻”概念,工作量达标才是首要。
某种意义上,人为角色的存在还不是重点,问题在于意识形态偏见。而重要的是,这个世界上最强大的信息分享平台能神不知鬼不觉地决定用户可见的信息。像Facebook这样的平台,把我们的新闻和信息组织到包罗万象的标题下,比如“热门话题”或“相关话题”,我们却几乎看不到筛选过程。
但这一点非常重要,因为我们接触的这些微妙的信息变化能改变我们的行为。
人们发现Facebook的人工编辑控制着你能在新闻推送中看到什么(图源:iStock图库)
要知道其中的原因,就要从行为科学的角度深思。世界各地的政府及其他机构已经把行为科学广泛应用到政策“驱动”上。这就是微妙的战术,促使人们接受某种行为。有一个非常好的例子——把器官捐赠变成一项“可退出”而不是“可参加”的活动。“可退出”制度并没有要求人们登记成为器官捐赠者,而是默认每个人的器官都适合捐赠,个人特别提出说明的除外。这样,简单地把默认前提稍稍变换一下,就能让更多的人进行捐赠了。
为什么人们不喜欢这样的“驱动”?在其他事情中,人们的知情选择权受到侵犯,这让评论家们感到不安。尼克·哈克卫(Nick Harkaway)为艺术与思想研究中心(Institute of Art and Ideas)写了一篇文章,文中提到:“这样的‘驱动’不是向人们解释问题,让政策适应人们经过深思熟虑的意愿,而是让人们的意愿适应预期的政策。但选择需要技巧,与人们的习惯相关,甚至是大脑构思的细微重组,必须经过实践才能作出更好的选择。”