AI导读:

监管部门启动“清朗·网络平台算法典型问题治理”专项行动,聚焦同质化推送等问题,要求平台承担算法责任,提升推送内容多样性,打破“信息茧房”需技术、平台、用户和政府等多方协同。

21世纪经济报道记者白杨北京报道在当今的数字化时代,互联网用户普遍发现,当他们打开新闻资讯或短视频App时,推送的内容似乎总能精准地符合他们的兴趣。这种“贴心”的服务背后,实则是由“推荐算法”在默默运作。

算法通过解析用户的兴趣、行为习惯以及社交关系,为其量身打造个性化的内容推送。这一机制不仅提升了用户体验,还让用户逐渐形成了依赖平台推荐而非主动搜索信息的习惯。然而,算法在带来便利的同时,也悄然限制了用户的视野,将他们困在了“信息茧房”之中。

在“信息茧房”中,用户更多地接触到与其兴趣和观点一致的信息,形成了一个自我强化的封闭生态,从而忽视了与自身认知相悖的内容。这种趋势不仅限制了用户的认知广度,还可能加剧社会分裂。

为了应对算法带来的问题,监管部门已采取行动。11月24日,中央网信办秘书局、工信部办公厅、公安部办公厅、国家市场监管总局办公厅等四部门联合宣布,将开展“清朗·网络平台算法典型问题治理”专项行动,从即日起至2025年2月14日,对网络平台算法存在的典型问题进行重点整治。

此次专项行动聚焦多个关键问题,包括同质化推送导致的“信息茧房”、违规操纵干预榜单炒作热点、盲目追求利益侵害新就业形态劳动者权益、利用算法实施大数据“杀熟”以及算法服务缺失侵害用户合法权益等。

工信部信息通信经济专家委员会委员盘和林指出,专项行动的意义在于维护网络安全与公共利益,防止信息茧房强化负面情绪并引发社会分裂;同时保护消费者权益,避免企业通过算法收割用户;此外,还将促进算法的良性发展,推动数字技术的高质量发展。

对于“信息茧房”效应,业界一直存在争议。但可以肯定的是,算法基于兴趣的个性化推荐确实收窄了用户的信息接收范围,减少了他们接受差异化信息的机会。这导致“确认性偏见”愈发严重,用户往往忽视其他重要信息,甚至可能导致误判。

此外,“信息茧房”还降低了不同群体之间的对话意愿和能力。人们往往认为自己接触到的信息就是全貌,当与其他观点冲突时,可能采取攻击性或防御性姿态。这种趋势进一步加剧了社会分裂和对立。

为了摆脱算法的影响,一些用户采取了各种策略,如隐藏自己的行为、严格控制使用时间等。然而,这些努力对大多数用户来说很难实现,甚至可能让他们失去很多乐趣。因此,更有效的方式是从算法本身着手,让平台承担起算法责任。

近年来,国家已出台了一系列法规来加强算法监管。例如,《网络信息内容生态治理规定》要求网络信息内容服务平台采用个性化算法推荐技术推送信息时,要建立健全人工干预和用户自主选择机制。

《互联网信息服务算法推荐管理规定》则是中国首部聚焦算法治理的立法,该规定针对算法推荐服务提供者提出了全方位的义务和禁止性要求,包括算法安全风险监测、算法安全评估、算法备案管理等一系列监管举措,进一步强化了平台企业的算法安全责任。

此次专项行动针对“信息茧房”问题提出了具体的治理任务,包括构建防范机制、提升推送内容多样性、严禁推送高度同质化内容等。同时,监管部门还设置了五个核验要点来确保这些要求的落实。

尽管一些平台已经采取了一些措施来应对这些要求,但仍有许多挑战需要克服。例如,提供兴趣标签查看和管理功能等要求目前几乎没有平台能够做到。这些标签通常存在于企业内部系统中,一旦开放给用户并允许他们自行管理,将对现有的推荐系统产生较大影响。

因此,这次专项行动或许会对内容平台的发展产生深远影响。毕竟,“信息茧房”现象的根源之一就是商业化算法的驱动。为了打破“信息茧房”,需要技术、平台、用户和政府等多方面的协同努力。

从长远来看,治理“信息茧房”不仅关乎每个人的信息权益,更关乎社会的整体健康发展。只有通过多方努力,人们才能在技术便利与信息多样性之间找到平衡。

(文章来源:21世纪经济报道)