在这个由信息组成的技术形态中,一方面,我们享受着社交媒体、搜索引擎、内容推荐等智能应用带来的无限连接、快速查询、精准定制,而另一方面,在技术打造的“算法流水线”上,你看什么、听什么、怎么工作、和谁交往、去哪儿消费、聊什么话题等,都逐渐交由算法决策。我们成为平台的数字劳工,困在自己的算法里,被隔离在信息的过滤泡中。
毋庸置疑,智能化的过滤模式有着强大的吸引力。它是一种非常成功的经济模式,用户体验相当愉悦,在一定程度上解决了环境、信息、人三者之间的匹配问题,避免个体因面对海量信息陷入“注意力崩溃”,它催生了一系列预测引擎,让历史回到当下,让未来扑面而来。
在这样的智能过滤机制中,也潜藏着一系列的问题:封闭性——用户被孤立和隔绝,个性化的过滤泡里只有你一个人;隐蔽性——你置身于过滤泡内部,却几乎看不到它是如何运作的;强制性——算法的决策权在过滤程序手里,你无法选择,也无处可躲。
其实,在过去的20多年里,有关“信息茧房”、“回音室效应”、群体极化、确认偏误等的论述,或多或少都指向“信息过滤”的问题。然而,在智能时代,当这个问题以过滤泡的形式非常直观地呈现出来的时候,一个更为深层次的忧虑在于,当这样的信息过滤机制成为常态,我们该如何生活其中?
无论是支持还是反对,不管是不是真的存在过滤泡,更多的关怀需要投射于此。我们无法从这个过滤的世界里脱嵌,但可以在这个“将文化生活作为信息处理任务之一”的时代努力不要过早地让“所有的生命都成为机器”。
首先,要分清“技术趋势”与“技术事实”。技术发展是一个多种矛盾相互激发的过程,存在着一个大的趋势,同时还蕴藏着多样的可能。技术趋势是贯穿各种环境与文化差异的力量,不可避免,可被预见;而技术事实则需要同实践相结合,可被修改,可以优化,潜藏着不同的可能路径。在未来,过滤器将渗透进我们生活的各个层面,这是一个技术趋势,但是我们依然可以要求掌握过滤技术的实践主体考虑公共利益、关注人类生存状态、给出更加优化的过滤方案。
其次,在自动化时代要保有“健康的怀疑精神”。在智能时代,基于算法和大数据的“自动化”可能会导致我们丧失“生命知识”。这里的知识,既是一种技能,也是一种体验。我们沉浸在被“编排”好的知识体系和感官体验中,也在失去批判思考的能力。而这一点非常重要,因为一种“健康的怀疑的精神”是时代和社会进步的动力。
再次,要敢于反视结构,能够反思自身。信息理论家维纳有句名言:自然世界由“无数可能与信息有关的人”组成。这句话阐明了两层关系:在一个信息和控制主导的世界里,人是由与信息相关与否的关系来定义的;而这样的关系形态,最终被建构成了“自然世界”,取得了合法且坚固的优势地位。
如果我们没有勇气去直视这样的“阿得拉社会”,我们即便意识到这个建构出来的世界存在着各种歧视、偏见和结构性的问题,但我们依旧不敢面对;而这样的状态又会反作用于我们自身,让我们躲在这样一个“庸常的合理”中得过且过。而想要戳破过滤泡的第一步,就在于敢于凝视这样的社会机制,能够反思自身的存在方式。
最后,要及时更新知识结构,关注个人应有权利。算法是一组数学程序,也是一套技术系统。作为一种文化形式,它存在着技术门槛和社会边界,但同时又是一种集体生产:它使用技术语言为现实世界打造了一个“数字孪生”,是一个多行动者共同组成的“网络”。
在过滤泡的运行过程中,不仅是科技公司、程序员,每一个参与其中的个体都对算法进行了集体建设。虽然目前阅读和开箱算法都存在一定的技术难度,但算法时代的每个个体,都可以从现在开始,及时更新我们的知识结构,关注法律对于个人信息的保护措施,保持对这种“在20世纪发挥了核心作用”的技术形式的了解、监督和评估,这也是成为数字公民的应有之义。
(作者:方师师,系上海社会科学院新闻研究所助理研究员)