AI导读:

近年来,信息茧房现象引发广泛关注。算法在个性化推荐中扮演重要角色,但其责任与用户选择并存。监管政策不断出台,要求平台增强算法向善服务,防止用户沉迷,用户也应通过反向训练算法增加信息多样性。

平台算法应用生态成为近年来监管的焦点。继互联网信息服务算法相关的多部政策文件出炉后,去年11月至今,中央网信办连同四部门联合开展 “清朗·网络平台算法典型问题治理”专项行动,其中,整治“信息茧房”、增强算法向善服务、防止用户沉迷等成为关注重点。

“信息茧房”(information cocoon),也被称为过滤气泡(filter bubble),指个性化算法通过跟踪用户行为,筛选出符合其偏好的内容,形成一种“无形的信息过滤机制”,用户看似自由选择,实则被困在由算法编织的“气泡”中,接触的信息逐渐同质化,最终导致认知闭环。这一概念最早由互联网活动家伊莱·帕里泽(Eli Pariser)于2011年提出,彼时社交媒体兴起,借助算法推荐系统日益取代传统媒体成为新闻分发和消费的重要机制。而最近几年,伴随人工智能的快速发展,“算法之恶”更加显化,成为舆论讨伐焦点并被置于监管雷达之下。

算法究竟应该为 “信息茧房”承担多少责任?答案还尚不清晰。技术批评者认为算法设计初衷和商业模式本身就意味着对用户注意力的单向收割与信息的过度筛选;而反对者认为,人性才是茧房的土壤,算法只是放大了人性的弱点。

最近,一项研究显示,算法驱动的个性化推荐,相比用户的自我选择,反而会增强新闻的多样性。来自暨南大学新闻与传播学院的研究者,探讨了算法与用户行为交互对新闻多样性的影响。

研究者利用虚拟用户在抖音平台上模拟不同用户行为并自动化收集数据,对比了三种情况下的新闻多样性,同时考察了用户主动选择的新闻主题范围和用户对不符合其兴趣的新闻内容进行互动的概率对新闻多样性的影响。

结果发现,算法推荐的新闻比纯随机新闻更具多样性,特别是在仅有算法决定推荐内容时,多样性最高。当用户参与内容选择时,新闻曝光的多样性反而有所降低,说明用户的偏好会进一步强化已有兴趣,减少对多元新闻的接触。

该研究还发现,若用户主动关注更多类型的新闻,新闻曝光的多样性会增加,但若关注范围变化不显著,多样性不会明显提升。同时,只有用户大幅增加对无兴趣内容的互动时,新闻多样性才会显著提升,这表明单靠用户自身调整行为远远不够打破信息茧房。

“我们认为,算法本身不应该被指责限制了多样性;事实上,它是一种潜在的推动新闻多样性的工具。”文章作者指出。

然而,清华大学基于大数据的一项实证分析得出了不同的答案,实验者找到了大量用户被困于“信息茧房”的证据,指出信息多样性的丧失与人机交互系统中的两个基本机制密切相关。

另外,暨南大学研究者提到的“多样性”,可能也存在争议,因为无论其范围和选择如何多样性,都仍然是在平台的控制之下。

抖音副总裁回应称,抖音更看重用户的长期留存,从商业逻辑上看,他们没有动力去制造所谓的“茧房”,也最有动力打破“信息茧房”。

不过,有观点指出,只要平台的盈利主要来自对用户注意力的留存,那么算法带来的多样性,如果真的存在的话,也很可能只是从单一的情绪化内容变成多样的情绪化内容而已。

这就不得不提人类在构建“信息茧房”过程中的主动作用。即使算法完全中立,用户仍会主动选择符合自身偏见的内容。

对于如何破解“信息茧房”,暨南大学和清华大学的两项研究都认为,用户可以通过反向“训练”算法来增加信息的多样性。不过,研究人员也指出,这种做法虽然可能有用,但要大幅提升信息的多样性,打破“信息茧房”,仅靠个体自身很难做到。

为此,政府必须加强监管,出台相应的政策和法规。最近的专项行动中,网信办等要求平台不得推送高质化内容诱导用户沉迷,不得强制要求用户选择兴趣标签,不得超范围收集用户个人信息用于内容推送以及规范设置“不感兴趣”等负反馈功能等。

在此之前的2021年和2022年,监管部门先后发布相关指导意见和管理规定,为建立健全算法安全监管体系、规范信息服务提供了明确的法律依据和制度保障。当然,除了技术和监管,能否打破“信息茧房”,还要取决于每一个个体的选择。

(文章来源:界面新闻)