AI伦理观察|从“截洪流”到“堵水源”:AI生成谣言的治理升级-新华网
新华网 > > 正文
2025 08/06 15:20:51
来源:新华网

AI伦理观察|从“截洪流”到“堵水源”:AI生成谣言的治理升级

字体:

  上半年,某歌手因感染新冠病毒而推迟演唱会。然而几天后,有关其去世的消息在社交媒体上传播开来,让无数网友陷入担忧与不安之中。随后有相关人士紧急将其辟谣为“假新闻”,才将这一风波平息。据了解,该谣言的源头是一海外社交账号上发布的一则长达9分27秒的视频。视频通过AI合成粤语配音,将其往年演唱会片段与伪造的“官方声明”拼接,一场普通的演唱会延期事件便被扭曲成了生死悲剧。“人在家中坐,谣从AI来”。

  随着人工智能技术在文本生成、图片创作、视频合成等领域的广泛应用,AI生成谣言早已不再是单一信息的复制或再现,而是实现了多重信息的选择、重组与再创造。从“合成事实”到“伪造舆论”,AI谣言内容呈现出更高的逼真度以及更为复杂的情感色彩,常常“以假乱真”。中国互联网联合辟谣平台对今年2月网络谣言的梳理分析显示,当月网络谣言主要集中在利用AI技术生成虚假信息、杜撰灾害事故信息以及炒作社会民生热点等方面,混淆视听、误导认知,造成不良影响。可以说,AI技术驱动下的信息流变动,不仅挑战了传统的信息真伪检证机制,也对人工智能时代社会公共信任构建提出了新的要求。在这样的背景下,深入探究AI谣言问题,不仅是维护清朗网络空间、保障公众合法权益的现实需求,更是理解智能技术与社会关系、构建合理信息伦理秩序的重要课题。

  一、AI谣言的全新表征

  随着人工智能技术日新月异,网络谣言变得愈发难以辨别。一般来看,网络谣言指的是通过网络介质,如社交平台等传播没有事实依据且带有虚假性、攻击性、目的性的话语。人工智能生成谣言逐渐形成一种新的网络威胁。清华大学新闻与传播学院2024年发布的研究报告显示,得益于政府相关部门对网络谣言的积极治理,2023年以来,网络谣言整体态势平稳,传统谣言数量明显下降,但伴随AIGC技术的高速发展,一些造谣者不当利用AI工具,使得AI谣言信息量增长达到65%。与传统的网络谣言相比,人工智能的介入显著地改变了信息传播景观,赋予AI谣言诸多前所未有的新表现、新变化、新特点。

  (一)谣言形态:从“单模态拼接”到“跨模态原生”

  传统谣言的炮制多依赖单模态拼接手段,造谣者往往在网络各个角落搜罗碎片化信息,通过断章取义、张冠李戴的方式,将不同来源的文字、图片生硬拼凑在一起。在过往的食品安全谣言中,造谣者可能会截取某食品企业生产车间的局部画面,配上其他企业食品质量问题的报道文字,再编造食用后产生不良后果的夸张情节。这种“单模态拼接式”的谣言由于素材来源繁杂,拼接痕迹明显,公众只要稍加留意其逻辑连贯性、出处可信度等细节,便不难发现破绽。

  与之相比,生成式人工智能的介入使AI谣言实现了多模态融合的“原生式生成”。通过对海量数据进行分析,AI算法能够精准把握事物的特征和规律,进而根据用户输入的简单指令生成极具真实感的内容。在图像生成领域,像Midjourney这样的主流模型,经过数十亿参数训练,能够精准模拟物理世界的各种元素,让缺乏专业辨别能力的普通公众信以为真;在语音生成领域,基于声纹特征学习的TTS技术能够精准捕捉目标人物的语调起伏、呼吸节奏甚至情绪波动细节,完美模拟出名人、专家、朋友的声音,制作出以假乱真的音频;在此基础上,视频理解与生成算法实现了图像与音频完美结合,通过时空注意力机制实现唇形动态、微表情变化与语义内容的毫秒级匹配,从而生成高度逼真的视频片段。这种依托AI技术的原生式谣言从内容到形式都是全新构建,相较于传统谣言更加逼真、连贯,突破公众的传统感知界限,仅凭直观感受很难辨别真伪,对社会舆论的误导性更强。

  (二)谣言生产:从“人工手搓”到“一键生成”

  传统谣言生产模式高度依赖人工操作,造谣者需耗费大量时间精力完成素材搜集、内容编撰与传播扩散等全流程工作。受限于个人知识储备、信息获取能力及时间成本,其生产效率低下,且内容质量参差不齐,传播范围往往较为有限。然而,人工智能的高效性、自动化特点极大地降低了谣言生产的技术门槛和经济成本。过去需专业知识与技能支撑的复杂信息制作流程,如今借助AIGC工具即可简化为从指令输入到内容生成的简便操作。用户仅需掌握简单的AI工具使用方法,输入特定关键词或指令,便能自动抓取网络信息,快速生成结构完整、逻辑自洽的谣言。

  与此同时,通过自动化脚本与多线程技术的配合,AI可以同时处理多个任务,实现谣言的大规模、高效率生产。2024年6月,公安机关查处的江西南昌某MCN机构便是一个具有代表性的例子。该机构构建了一条全自动谣言“生产线”:负责人王某某首先从国内某热点预测网站获取潜在关键词,由此生成文章标题;随后通过语音交互型 AI工具,输入关键词抓取网络信息,生成数百至千字文本,并匹配上看似相关的虚假图片,形成信息丰富却完全虚构的内容;最终借助自动化发布软件,将AI生成谣言批量上传至多平台账号对外发布。据查证,该机构将虚假信息生产产业化,最高峰时单日可生成4000至7000篇谣言,通过流量变现与舆论操控每日非法牟利超万元,对公共信息秩序造成严重破坏。

  (三)谣言传播:从人际、群体传播到算法自动推荐

  传统的谣言传播主要依赖于人际关系和少数媒体渠道,传播范围相对有限,传播速度也较为缓慢。而在人工智能时代,互联网的普及和社交媒体的兴起为信息传播提供了广阔的平台和便捷的渠道。AI谣言借助网络水军的推波助澜以及算法推荐机制的放大作用,能够在极短的时间内实现广泛传播,迅速扩散到社会的各个角落。

  一方面,网络水军在AI谣言的扩散过程中扮演着关键角色。网络水军通常是指受雇于某些组织或个人而在网络上有组织地发布特定信息,以达到影响舆论、引导公众认知等目的的群体。在AI谣言传播场景中,他们利用掌握的大量网络账号,通过自动化的发布工具,将AI生成的谣言迅速发布到各大社交媒体平台、论坛、新闻网站等网络空间。同时,通过相互点赞、评论、转发等方式,营造出谣言受到广泛关注和讨论的假象,吸引更多普通网民的参与和关注,从而加速谣言的传播速度。

  另一方面,社交媒体平台和搜索引擎的算法推荐机制也在很大程度上助推了AI谣言的传播。算法推荐机制的核心在于根据兴趣偏好、浏览历史、社交关系等数据,为用户精准推送其可能感兴趣的内容。然而,推荐系统本质上是争议性内容的放大器,它将用户注意力聚焦于冲突点,却忽视了信息的真实性验证。例如,一些关于名人隐私、社会热点事件的 AI 谣言,由于其话题性强,能够吸引大量用户的点击和互动,算法会将其视为“优质内容”不断推送给更多用户,使谣言的传播范围不断扩大。在这样的情况下,辟谣信息往往因缺乏争议性而难以获得同等流量支持,加剧“造谣一张嘴,辟谣跑断腿”的治理困境。

  二、AI谣言的治理困境

  AI 谣言所呈现的“跨模态原生”形态、“工业化生产”模式与“算法化传播”路径,不仅突破了传统谣言的传播边界,更对既有公共信息治理体系构成了严峻挑战。其中,技术的复杂性、传播的高效性与主体的多元性相互交织,使得治理工作面临多重难题,需要从技术、制度、协作与认知层面进行系统剖析。

  (一)技术困境:低质量数据造成严重的AI幻觉

  AI幻觉指的是人工智能系统,特别是大型语言模型(LLM)和生成式AI工具,在运行过程中产生看似合理但实际上并不准确、不真实或完全虚构的信息现象。这种现象并非AI系统故意欺骗或开玩笑,而是其内部机制在特定条件下的产物,类似于人类在特定情境下产生的幻觉感知。例如,AI可能会编造不存在的书籍、研究报告、法律条文,或者提供错误的历史日期、地理信息、科学数据等。在图像生成领域,AI绘画工具可能会生成手指数目异常或肢体不全的人物图像。这些错误的输出并非源于AI的主观恶意,而是学习过程和生成机制的副产品。

  归根结底,AI模型并没有真实世界的直接体验,其知识和能力主要来源于训练数据。如果训练数据本身存在局限性,例如数据不准确、不完整、过时、带有偏见,或者某些领域的知识覆盖不足,那么AI模型在学习过程中就可能吸收这些缺陷,并在生成内容时表现出来,导致幻觉的产生。因此可以说,互联网上良莠不齐的信息源在某种程度上加剧了AI的错误率,自媒体为商业利益制造的虚假内容、历史记录的多版本等,都成为AI模型的“事实”陷阱,形成“垃圾进、垃圾出”的恶性循环。当AI系统“一本正经地胡说八道”时,其所提供的错误事实、虚构的细节或不准确的建议,很容易对缺乏相关领域知识的用户产生误导。这时,即使用户本身并没有造谣的意图,也很有可能在不加求证的状态下“迷信”AI,出于恐慌心理大范围转发、传播虚假内容,误导公众舆论,扰乱信息秩序。

  (二)监管困境:责任主体认定缺乏明确标准

  目前,现行法律体系在应对AI谣言时表现出显著的滞后性,难以有效匹配AI谣言问题的复杂特性与演变态势。其中,责任主体认定的模糊性构成了突出的监管障碍。AI谣言的生成与传播涉及多方主体,涵盖模型开发者、内容使用者、数据提供者以及平台运营者等,主体间关系错综复杂,使得责任认定在客观上困难重重。

  对于AI模型开发者而言,其责任范围存在争议:若模型因算法缺陷或数据污染问题,导致容易生成虚假信息引发谣言,开发者是否需承担连带责任?由于目前算法安全审查义务仍然缺乏量化标准,开发者常以“技术中立”抗辩,模糊自身所应该承担的责任;对于AI使用者,诸如江西南昌某MCN机构负责人王某某这类主体,其利用AI批量生成谣言的行为虽然具有明显的主观恶意,但现行法律对“利用AI技术造谣”的行为定性仍缺乏细化标准,难以与传统人工造谣的责任进行区分规制,更遑论难以界定主观恶意的谣言问题;对于平台运营者,其审核义务的边界也不够明确。

  当AI生成的跨模态谣言以高度逼真的形态传播时,平台是否需投入额外技术资源进行事前筛查?如果未能及时发现,其不作为的责任程度又该如何界定?这种主体间责任的交叉与空白导致AI谣言引发危害后往往会陷入“谁都有责任,谁都难追责”的困境,严重制约了治理效能。

  (三)认知困境:技术主义思潮下的“信任让渡”

  技术主义将科学技术视为社会发展的决定性力量,强调通过技术手段实现对世界的控制和改造,以专家系统与科学管理替代传统社会运行机制,常常与工具理性至上与非人本倾向相伴而生。随着大数据、人工智能、互联网等信息技术的发展,技术主义思潮愈演愈烈。人们普遍相信,技术能够解决一切问题,带来无限的进步和发展。在这一思潮影响下,公众往往会将AI生成的内容赋予“客观中立”“精准无误”的天然预设,做出不自觉的“信任让渡”——即主动放弃对信息真实性的自主核验权,将判断权完全交予技术系统,认为“AI说的就是对的”。

  正是在这种不自觉的信任让渡,使得AI谣言的传播尤为顽固。许多人在获取AI相关内容时,往往只看到其表面的逻辑性和形式上的完美,而忽略了技术本身可能存在的缺陷,如数据偏差、算法漏洞、AI幻觉等,也就更容易去接受、转发甚至主动扩散谣言信息,成为AI谣言传播的“无意识帮手”。与此同时,这种因技术主义而产生的集体信任,对现有的谣言治理机制构成了严峻挑战。传统谣言治理往往依靠公众的媒介素养和信息辨别能力进行矫正,但在对AI无条件信任的背景下,就算相关治理机构积极辟谣或出台监管措施,也容易陷入治理的“滞后”与“被动”,难以根绝谣言源头。

  三、AI谣言的应对策略

  自2025年4月以来,中央网信办开展“清朗·整治AI技术滥用”专项行动,聚焦AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等AI技术滥用乱象,累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个,各项工作取得积极进展。英国法学家科林·斯科特指出,一个有效的规制治理体系应包含制定规则、建立规则运行的反馈机制,以及对违反规则行为的监督机制。可见,治理利用AI生成内容造谣,事后查处的治理只是其中一环,更为关键的是要着力构建起从生成到传播再到接收的全链条治理机制。

  (一)生成源头管控:加固技术安全,明确法律责任

  在AI谣言治理的全流程体系中,源头治理无疑是至关重要的第一环节。面对AI模型强大的内容生成与伪造能力,应当在技术层面全面加固模型安全防护体系。

  首先,要建立贯穿模型开发、训练、上线、运维各环节的安全规范和准入门槛,对具备大规模生成能力的AI工具实行严格的分级备案和评估,形成开发者、部署者、运营者分层管理、责任明晰的技术生态。技术层面还应鼓励开发更加智能和高效的内容水印、数据追溯、生成内容标签等溯源体系,在每一个被AI生成的文本、图片、音视频内容中埋下可供核查的技术痕迹,以便于事后回溯内容源头,迅速识别和制止恶意造谣。在美国大选期间,部分州针对Deepfake深度伪造技术引发的谣言问题做出了政策性变动。如制定法律,要求在政治竞选活动中对于AI生成的虚假竞选信息,必须明确标识,以防止选民受到误导;对于故意传播深度伪造虚假信息以影响选举结果的行为,制定了高额罚款和刑事处罚等严厉的惩罚措施。

  其次,数据治理是源头治理中的核心一环,训练数据的合法合规、去污去噪是防止AI模型“带毒输出”的基础。数据供给方、标注方、模型方应落实相应的数据清洗、敏感内容过滤义务,有效削减虚假、不良样本进入训练集的可能。

  再次,法律责任的明确划分同样不可或缺。现有法律体系针对AI生成内容的制造、传播与平台监管责任多有空白,对AI谣言事件的责任边界往往界定不清。必须加速完善相关立法,对模型开发者、服务运营商、内容发布者等各方主体设定明确的审核与合规义务,落实“谁开发、谁负责”“谁发布、谁担责”的原则。对因管理不善、审核失职导致谣言传播的技术企业、平台方依法追责,并建立高效、便捷的权益救济和司法响应渠道,为受害者提供明确的法律支持,营造有力的法律威慑。

  只有通过强化技术本身的安全属性、优化数据治理生态、健全法律责任体系,才能在源头上有效遏制AI谣言的制造与流通,为后续治理环节打下坚实基础。

  (二)传播过程阻断:完善平台审核,强化监管协作

  如果说源头治理是“堵水源”,那么传播过程阻断就是“截洪流”。在当下的网络生态中,AI谣言极易通过自媒体、短视频平台、即时通讯工具等渠道裂变式爆发,不断放大谣言危害。要遏制此类信息在传播链路上的蔓延,首先需要平台方承担起主体责任。各大内容平台应升级现有的信息审核体系,借助AI技术治理AI谣言,利用实时的智能内容识别和过滤系统,对文本、图像、音视频进行自动标注和风险预警,在谣言传播初期实现技术级别的高效拦截。同时,应建立动态词库和多模态内容分析机制,对高风险话题、热门事件等重点领域进行特殊防控,避免AI谣言借热点事件发酵。此外,平台还应完善人工复核机制,引入专家团队对高敏感内容进行层级审核,弥补AI算法误判、漏判的不足,形成“技术初筛+人工复核”的协同应对。

  可以说,监管与治理主体间的协作同样决定了阻断效果。面对AI谣言的泛化趋势,单一平台、部门的孤立治理已难以应对复杂情势,需要搭建起多元协同的社会治理网络:政府相关部门应出台指导性政策,设立全链路监测、信息溯源与联动处理机制;权威媒体与辟谣中心要主动入场,形成权威发布、应急响应、线索通报的闭环;平台之间数据互通与案例共享,实现谣言情报的实时联动、违规账号的协同处置、典型事件的公开曝光;有效畅通用户举报、投诉、线索投稿渠道,建立激励机制,形成共治合力。可见,传播过程阻断环节,既要依赖平台自律和智能技术的不断升级,也需政府引导、多方联动和公众参与,织密谣言拦截的“防护网”,为守护清朗的信息环境筑起坚实屏障。

  (三)受众认知转变:优化辟谣机制,提升媒介素养

  AI谣言的顽固性和可持续危害,很大程度上依赖于公众对AI生成内容的认知局限和媒介素养短板。面对人工智能技术赋予的“以假乱真”手段,传统的被动辟谣模式在许多情况下鞭长莫及,唯有推动全社会认知结构的升级,才能从根本上切断AI谣言的生存土壤。

  首先,权威、系统和精细化的辟谣机制不可或缺。应构建集国家权威、主流媒体、第三方核查机构、专业平台于一体的多层次、联动式辟谣网络,实现“权威鉴定—实时发布—多平台推送—全网覆盖”的高效格局。需要注意的是,辟谣不只是及时回应,更要重视科学揭示AI造假的技术原理、造谣手法、识破要点,通过案例演示、互动问答、可视化呈现,将技术性阐释转化为公众易于理解和吸收的“知识普及包”,进而消解技术主义下公众对于AI的盲目信任。

  其次,提升媒介素养是受众治理的治本之道。各级教育体系应将AI与新媒体素养教育纳入课程,从信息获取、源头甄别、批判思维、风险防范等维度进行全链条能力培养。通过专题讲座、模拟训练和社会案例分析,增强公众对AI谣言的敏锐觉察和防御技能。平台应定期发布典型AI谣言、科普技术破解方法,并对各类用户定向推送信息鉴别指导,形成与用户日常信息消费相结合的防谣能力训练场景。

  最后,需要关注群体心理层面的风险管理。AI谣言往往迎合社会情绪、激发群体共鸣,极易放大“后真相”与“信息茧房”效应。通过提升公众的理性自省意识、鼓励前置求证和辩证讨论氛围,可以预防情绪型、跟风型的谣言扩散。舆论引导、政策倡导和奖惩机制的引入,也有助于培育去神化、去技术迷信的社会环境,促成全民“识谣、辨谣、拒谣”的良好认知生态。最终,实现观念转变和素养提升,既能有效避免AI谣言的广泛侵蚀,更为信息社会的健康发展注入强大内生动力。

  在人工智能时代,技术不仅以其高效与便利塑造着人类社会的方方面面,更深刻影响着我们认知世界、判断真伪的方式。AI驱动的内容生成突破了以往信息生产、验证与传播的边界,将人类带入真假难辨的全新境域。面对AI生成谣言的治理难题,仅仅停留在事后被动查处是远远不够的,关键在于构建起涵盖生成方、传播方与接收方的全链条、全流程治理机制。唯有各个环节共同发力、多重措施同步落地,才能在人工智能不断塑造社会结构与认知方式的时代,守护事实与真相的底线,让技术回归其本初的人文关怀与启蒙功能,成为照亮世界、服务人类的规范性力量。(作者马小田、李凌为复旦大学马克思主义研究院人工智能伦理与意识形态安全创新团队成员)

【纠错】 【责任编辑:王蓓蓓】