破解ai谣言困局,让技术回归本质
2025-08-21 17:24:34 来源:法治日报·法治周末

戳穿谣言 新华社发 商春华 作
□吴玲
当前,ai(人工智能)迅速发展,给人们的生产生活带来诸多便利。但ai也被用于制作发布谣言、不实信息,可能对部分群众造成困扰。今年4月,中央网信办部署开展“清朗·整治ai技术滥用”专项行动,聚焦利用ai制作发布谣言、不实信息等乱象开展重点整治。(8月18日《人民日报》)
“某地将遭遇强台风”“某明星违法被查”……近期,多起ai谣言事件频发:深度伪造视频在社交平台瞬间传播,ai生成的“权威报道”误导数万网民。随着生成式ai普及,谣言制作成本骤降、传播呈指数级扩散,其防治已成为数字时代的治理痛点。
ai谣言因技术造假升级而极易传播。它凭借“高仿真”特性突破人类识别极限:文字模仿权威文风,音视频实现人脸语音克隆、图片合成逼真场景。数据显示,72%的受访者难辨ai视频真假,且ai工具的普及使普通人能快速生成虚假内容,彻底消解谣言制作门槛。
社交媒体的算法推荐机制偏好“惊悚性”“新奇性”内容,ai谣言精准契合公众焦虑点,极易获得流量倾斜。加之ai能依据用户画像定制谣言,实现“千人千面”精准传播。如去年某虚假“食品安全预警”,通过ai适配各地饮食习惯生成变体,在多地域同步爆发,单日转发破10万次,展现出ai谣言强大的传播穿透力。
防治ai谣言面临“技术对抗滞后”与“责任界定模糊”两大核心困境。一方面,ai检测技术迭代速度远落后于生成技术,传统关键词过滤、人工审核难以应对海量ai内容。数据显示,ai 谣言平均识别需4.2小时,足以完成多轮传播。另一方面,法律追责存在巨大障碍:匿名制作、跨境传播导致溯源取证困难,且现有法律尚未明确ai生成谣言的责任划分,形成“平台难监管、用户难举证、制作者难追责”的困局。
破解ai谣言困局需要构建“技术防御 制度规范 公众素养”的三重防线。技术层面应加快研发ai谣言检测系统,推广区块链溯源技术,对ai生成内容强制标注来源。监管部门需完善法律体系,明确ai谣言制作、传播各环节的责任主体,建立“ai谣言黑名单”制度,对恶意传播者实施跨平台联合惩戒。
平台作为信息传播枢纽,必须压实主体责任。应优化算法推荐机制,降低谣言内容的传播权重;建立ai谣言快速举报通道,对高风险内容启动“人工复核 技术拦截”双重机制。公众则需提升数字素养,养成核实信息来源的习惯,不轻信、不转发未经证实的内容。
ai技术本无原罪,但其滥用带来的谣言泛滥正侵蚀数字社会的信任基石。当技术防御跑赢谣言生成速度,当制度规范堵住监管漏洞,当公众素养筑起认知防线,才能让ai技术回归赋能社会的本质,而非成为制造混乱的工具。这不仅是对技术伦理的守护,更是对数字时代社会信任的捍卫。
责编:肖莎