拥抱概率真相——AI时代谣言套路拆解与防御指南.pdf

腾讯公司作为技术创新的核心参与者,在信息真实性保障和虚假信息管控方面多年来持续采取了多重有力举措,为营造清朗网络空间、维护健康信息生态和社会信任奠定了坚实基础。Al时代到来,腾讯研究院算法治理研究小组联合腾讯新闻较真平台撰写的《拥抱概率真相——Al时代谣言套路拆解与防御指南》(下称《指南》)是助力构建安全的信息传播机制、履行科技企业的社会责任的又一力作。
传统虚假谣言依赖人工编造,传播范围有限。借助AI生成的虚假信息具有高度逼真性、批量生产能力和精准定向传播优势,其迷惑性与破坏力远超前者。《指南》对AI时代信息环境新特征、AI介入虚假信息差异及个体自处之道的探究,将技术洞察与现实需求深度结合,为理解信息生态变革提供了独特视角,对理解AI时代的信息生态、提升社会抗风险能力具有深远意义,同时为国家层面的信息安全战略、公众媒介素养提升计划提供实践导向的参考。
在AI技术深度渗透的信息时代,信息的真假边界正变得愈发模糊,纯粹的真实与彻底的虚假不再是泾渭分明,更多信息呈现出真假交织的复杂面貌——或许以客观事实为基底,却在细节描述中掺杂主观歪曲;或许引用权威数据,却通过断章取义制造误导。这种混沌状态看似增加了信息接收的难度,实则暗藏认知升级的契机。
谣言的传播力不仅取决于推广力度的强弱,更与公众辨识力的高低密切相关。当推广力度一定时,公众辨识力的提升会直接削弱谣言的影响力。真假交织的信息环境,本质上是在持续“训练”公众的辨识能力,使其在反复的思辨与验证中形成更敏锐的判断力。当大众不再能轻易判定信息真伪时,被动接受的惯性会被打破,迫使人们调动理性思维,追问信息来源是否可靠,分析逻辑链条是否完整,验证核心事实是否可追溯。这种主动思辨的过程,恰恰是培养深度思考能力的最佳实践,长期来看将有利于推动公众网络素养的整体提升。
因此,与其担忧信息真假难辨的困境,不如正视其作为认知训练场的价值。在此过程中,大众将逐渐养成理性追问的习惯,最终构建起抵御虚假信息的内在防线。《指南》正是为公众提供了在该训练场中的具体行动方向,助力个体在复杂信息环境中明辨是非、站稳脚跟,进而与企业举措协同,共筑信息安全防线。

生成式人工智能(AIGC)的广泛应用,一方面使得信息的生产变得空前高效和智能,但另一方面也带来一个新问题:内容的真实性,不再是非黑即白的绝对判断,更像是根据大量数据推测出来的概率结果。真相失去了以往那种唯一、固定的特性,转而成为一种需要根据各种线索和概率,不断进行动态调整的“信任评估”。
这或许标志着,世界正迈入一个“概率真相”时代。传统意义上的真与假,不再以权威媒体、专家结论或唯一事实作为判定依据,而是被大量由AI(人工智能)生成的、看似合理的信息包围,迫使每一个信息接收者都必须具备更强的辨别力和判断力。信息的可信度,正被重新定义为一种动态、情境化、需要验证的合理性评分过程,而非一次性的真伪结论。
在这一背景下,一些谣言制造者也开始借助AI工具,生成文本、图像、音频和视频,大大提升了虚假信息的生产与传播效率。一些谣言内容甚至制作精良,高度逼真,而且传播速度快,渗透范围广,不仅冲击了当前的信息生态,也对现有的技术伦理与治理体系提出挑战。
特别是随着生成式AI应用门槛的降低,制造虚假信息的能力泛化,虚假信息的数量和种类快速增长,进一步加剧了有效识别真相的难度。为了便于表述,我们将这一现象简称为“AI虚假信息”。当然,这并不是说AI就一定会产生虚假信息,而是在Al时代,识别真相与虚假更困难了。
不过也应该看到,AI虚假信息看似凶猛,其关键依然是背后的“人”,即虚假信息生产者。对2023—2025年的“AI虚假信息”进行内容分析可以发现:AI虚假信息虽然披上了新技术的外衣,但其本质依然是造谣者的“嘴替”,背后的行为动机、利益诉求和传播规律,与传统谣言有很多共通之处。

本文来自知之小站

 

PDF完整报告已分享至知识星球,微信扫码加入立享4万+最新精选报告

(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)