|
算法,背了太多它不该背的锅
“信息茧房”是算法造成的吗?要厘清算法与“信息茧房”的关系,首先需要打破营销号构建的认知误区。
关于网络上对“脑腐”的渲染,实际上牛津大学出版社的原始定义,并未特指任何单一媒介产品,更未将其与算法直接挂钩。但在国内舆论场中,这一概念被简化为“刷短视频=大脑退化”,算法则成了背后的“始作俑者”。
在社交媒体时代,我们或许都能明显感受到,网络上的冲突往往要比日常生活中激烈、极端,那些观念的隔阂、立场的分歧,使得网络上滋生了很多“喷子”“键盘侠”,造成了所谓的“极化现象”。这甚至已经成为了一个全球性的问题。
许知远对话罗振宇。(图/《十三邀》第五季)
有西方学者曾提出,数字技术在为个人带来便利的定制化信息的同时,也使得个体生活在自己营造的“回音室”(echo chambers)中。由于接触不到对立的信息与观点,人们就会将己方观点合理化,变得越来越极端。在这些理论中,中国人最熟悉的就是哈佛法学家凯斯·桑斯坦在《网络共和国》中提出的“信息茧房”概念。
实际上,“回音室”效应的支持者,都有一个未经证明的预设,那就是只要让人们接触多样化的信息,所谓的“信息茧房”就会消除,并且减少极化。但是事实真是如此吗?一位网友的言论就很耐人寻味:“我也会主动尝试走出所谓的信息茧房,但是看了眼对立面的信息,发现还是自己的茧房里舒适”。
(图/《欢乐颂5》)
美国杜克大学社会学家、“政治极化实验室”教授克里斯·贝尔,也曾在其著作《打破社交媒体棱镜》中提出了这个问题:如果个体在社交媒体上接触了对立的观点,是否会有助于他们反思自己的观点,从而变得不那么极端化?极化究竟是群体交流的必然导向,还是在某种技术条件下才会出现的情境性的结果?
中国传播学学者刘海龙在《打破社交媒体棱镜》这本书的序言中,进一步揭示了有关“极化”的真相:走出信息茧房,接触对立观点,并不会让人变得温和理性,反而可能使其立场更极端。
(图/《打破社交媒体棱镜》【美】克里斯·贝尔)
真实的研究数据,也戳破了“算法导致观点极化”的简单论断。阿姆斯特丹大学的研究团队曾做过一项极具说服力的实验:他们用大语言模型生成500个“人格化”聊天机器人,搭建了一个无广告、无个性化推荐算法的极简社交平台,仅保留发帖、转帖和关注三种基础功能。
经过5万次自由互动后,实验出现了耐人寻味的结果:立场接近的机器人自动互相关注,而不同立场几乎零交集,中间派则被边缘化;少数“大V”账号垄断了大部分粉丝和转帖,注意力分布严重不均;立场越鲜明甚至越极端的内容,传播速度越快、范围越广。
这项实验证明,在没有算法的情况下,“回音室”、影响力集中、极端声音放大等乱象依然存在,都是一些根植于人类社交行为的天然倾向,而并非由推荐算法导致的观点极化。
(图/《玫瑰的故事》)
在刘海龙看来,社交媒体对人的最大异化,不是制造了信息壁垒,而是扭曲了自我身份认同——极端立场能带来强烈的归属感、被认同感,甚至潜在的地位与收入,这种诱惑让部分人主动拥抱对立,与我们潜意识里认为的被动困于“茧房”并不一样。
国内舆论场将“脑腐”“观点极化”简单归咎于算法,本质上是偷换了概念,制造科技恐慌。那些被热议的“傻子共振”现象,更是颠倒了因果——现实社会的政治分歧与阶层差异,甚至还有人类自身认知的局限性,才是观点分裂的根源。而算法,更多地只是客观呈现了这种分裂,不是制造了它。
总的来看,人类天生就倾向于寻找观点相似的群体,这一社交本能远早于算法出现。在没有互联网的年代,地域、阶层、职业早已为人们构建了天然的“信息圈层”。将现实中的圈层固化、观点对立全部归咎于算法,本质上是为复杂的社会问题寻找一个简单的“技术替罪羊”,却回避了背后更深层的社会结构与人性本质。 |