“现在已经没有标准的 Google 了,”Eli Pariser 在最近的 TED 演讲 中说道。他是对的。试试看。和坐在你旁边的人搜索相同的内容,然后比较结果。很有可能,它们是不同的。根据 Pariser 的说法,这是因为 Google 使用多达 57 种不同的信号来确定为你提供的独特搜索结果。它交叉引用(除其他外)你的电脑型号、你选择的浏览器、你的地理位置、你的搜索历史、存储在你硬盘上的 Cookie 以及来自你的各种社交网络的数据,以确定当你对某些事情感到好奇时,你最想看到什么。Google 正尽可能地为你个性化世界。
而且 Google 不是唯一一家。Pariser 解释说,网络上许多受欢迎的目的地(如亚马逊、Facebook 和 Yahoo! 新闻)都在尝试个性化,以确保他们的用户只看到对他们“最相关”的内容。(MoveOn.org 董事会主席 Pariser 最初意识到个性化的力量是在 Facebook 突然停止向他展示来自他更保守的朋友的更新时;因为他不太可能关注他们发布的链接,Facebook 确定这些人对他来说并不重要,并默默地从他的新闻提要中删除了他们。)更重要的是,他补充说,他们这样做没有任何迹象,正在进行“网络上无形的算法编辑”。
Pariser 担心这些算法策展人正在产生一些破坏性影响。日益个性化的网络是一个不向用户展示可能重新调整他们思维方式的相反观点或新颖观点的网络。当它最大限度地减少发现过滤器参数之外的东西的机会时,它也会创造一个不太利于意外惊喜的环境。持续个性化的综合效应创造了 Pariser 在他的新书中称之为 信息过滤泡泡 的东西——正如他在他的 TED 演讲中解释的那样,“你在网上生活在其中的一个人的、独特的宇宙信息”。
当然,信息过滤器并不新鲜。例如,新闻媒体传统上发挥着把关作用,将当天的新闻过滤成适合在各种环境和不同平台上消费的易于理解的软件包。因此,人们很容易指责 Pariser 只是在复苏一场经典的辩论:信息过滤器应该策划内容以向公民提供他们想要拥有的信息,还是提供他们需要拥有的信息,以便成为全面的公民,而不管这些信息与他们的敏感性、舒适度、政治取向或个人偏好有多么一致?
然而,这个问题预设了一个关键的人为因素,Pariser 抓住这个因素来证明信息过滤泡泡不仅仅是传统编辑实践的延伸。这些实践受新闻界数十年辩论中建立的道德准则的指导。并且在受众想要和受众需要之间划清界限的论点通常假设受众可以从各种信息来源中选择,对他们包含在均衡媒体饮食中的内容类型做出理性决定。论点认为,媒体有道德责任为受众提供均衡的信息饮食,即公民在形成对健康的民主社会至关重要的批判性观点时可以从中汲取内容的多样化混合。
在我们的信息过滤泡泡边界巡逻的算法当然受到一套道德规范的指导——但不一定是与以公民为中心的新闻编辑相同的道德规范。而且它们的工作不是为了提高用户在他们认为信誉良好、滋养或重要的信息来源方面做出仔细决定的能力。它们在普通意识阈值以下且没有人为干预的情况下过滤内容,首先构建用户拥有的选项领域,在消费者甚至可以开始评估他们可能拥有的所有选项之前缩小该领域。
似乎打破这些信息过滤泡泡是抵制过度个性化影响的一种方法。但那是 Pariser 论点的另一个关键细微差别。他并没有坚持要求我们停止允许算法为我们过滤数据。毕竟,它快速过滤、组织和优先处理大量异构比特和片段的能力是使互联网如此有用的能力之一。相反,他要求使用过滤器的公司在这些过滤器正在做什么方面更加透明——不仅要说明呈现给用户的内容,而且可能更重要的是,要说明正在编辑掉的内容。
“我们需要你确保它们足够透明,以便我们能够看到确定什么通过我们的过滤器的规则是什么,”他直接对参加他的 TED 演讲的软件架构师和决策者说。“我们需要你给我们一些控制权,以便我们可以决定什么通过,什么不通过。”
信息过滤泡泡可能是不可避免的。但 Pariser 希望确保这些泡泡具有可渗透的壁。打开它们是做到这一点的其中一种方法。
6 条评论