人工智能生成内容的舆情风险与治理路径

全媒体探索 |  2026-05-08 10:34:22 原创

微信扫码扫码下载客户端
作者:王国平 张学勤 刘书伶

来源:《全媒体探索》2026年3月号

随着生成式人工智能工具的普及,人工智能生成内容(Artificial Intelligence Generated Content,AIGC)已渗透图像设计、信息传播、营销推广、公文写作等诸多领域。这种“人人皆可创作”的技术赋权,消解了传统内容生产的专业壁垒,也触发了一系列舆情危机。

例如,2025年11月,“小鹏车展AI不雅视频”事件引发全网热议,利用AI生成以小鹏汽车展台为背景的虚假低俗视频,不仅对企业品牌造成不良影响,更引发公众对AI应用伦理的深度讨论。众多案例显示,AIGC已成为新型舆情的重要触发源。其中,社交机器人可通过密集发布标签化内容快速构建舆论磁场,深度伪造技术能生成以假乱真的多模态内容,二者结合使虚假信息更易传播。

在此背景下,亟须构建适配AIGC的舆情分析与治理框架,这既是应对技术风险的现实需求,也是推动人工智能健康发展的必然要求。

01

AIGC舆情的风险倾向

AIGC的独特属性(如多模态生成、低门槛操作)赋予由其引发的舆情不同于传统网络舆情的鲜明特征,呈现出精准打击与泛化危害并存的趋势,具体可分为三类形态。

(一)个体靶向型风险:AI赋能下的“精准网暴”与权益侵害

此类风险以特定个人为攻击目标,借助AI实现定制化造谣与隐私侵犯,舆情焦点集中于个体声誉与权益的损害。如针对明星的AI造谣,引发粉丝群体与公众的声讨;又如利用深度伪造技术合成普通人的虚假不雅视频,用于勒索或恶意传播等。

这类舆情的核心危害在于“技术放大效应”,AI生成的内容可精准匹配公众对公平正义、职业伦理的关切点,使谣言更具迷惑性,而“开盒”获取的个人信息则为网暴提供了具体靶点,即便后续辟谣,个体的负面标签也难以彻底消除。

(二)公共权威型风险:伪官方内容引发的公信力消解

AI可实现对官方文本、文件格式的高度仿真,如被非法使用,则会成为冲击政务、司法等专业领域权威的工具。当AI系统“一本正经地胡说八道”时,其所提供的错误事实、虚构的细节或不准确的建议,很容易对缺乏相关领域知识的用户产生误导。尽管该类谣言荒诞性明显,但AI模拟的官方措辞与通报格式仍会让部分公众产生“官方发布”“官方已证实”的误判,对政府部门的公信力造成不必要的损耗。

(三)社会泛化型风险:虚假信息触发的认知混乱与社会秩序动荡

此类风险以社会公共议题为攻击对象,借助AI技术放大冲突元素,引发跨群体的认知对立与社会恐慌,会侵蚀社会信任基础,引发“后真相时代”的认知混乱。当公众无法辨别信息真伪时,会对媒体报道、官方通报产生信任危机,进而影响社会治理效率。

可以说,智能推荐正逐渐成为人们思想深处的权力框架,并渗透社会生活的底层逻辑中,成为“加剧社会不公的助推器”。从国家安全的宏观视角看,要严防AIGC带来的虚假信息向意识形态领域渗透,危害国家政治安全。

02

AIGC舆情风险的治理体系

构建科学的AIGC舆情治理体系,必须深入剖析AIGC舆情的复杂性和高风险,打破“单一打击”模式,构建“法律规制—技术防控—社会共治”的三维治理体系,在法律规制、技术防控、主体协同等三个维度上协同推进,从源头遏制技术滥用,从过程规范传播行为,从根本上提升治理能力。

(一)法律规制

为规范生成式人工智能服务,国家相关部门早在2023年8月就出台了《生成式人工智能服务管理暂行办法》,为促进生成式人工智能服务的健康发展和规范应用起到了重要作用。但在具体的治理实践中,该办法在责任认定、内容溯源与跨平台监管等方面存在执行难点。

责任界定是法律治理的首要突破点,需明确AIGC技术开发者、内容生成者、平台传播者的三方权责边界。对开发者,参照江苏首例人工智能生成内容著作权纠纷案确立的“人为主导”原则,要求其嵌入生成内容溯源标识,人工智能生成内容被认定为作品的前提是应当能够体现人的独创性智力投入,而这一案件的审结一定程度上填补了人工智能生成内容是否受著作权保护的法律空白。

未来,需要围绕“谁担责、怎么管、如何罚”构建具有中国特色的治理体系,结合“净网—2025”案例与《人工智能生成合成内容标识办法》等新规,实现精准规制。

(二)技术防控

技术是应对AIGC所产生的舆情的核心手段,需通过“识别—溯源—干预”技术的研发应用,构建全流程防控体系。

要提升AIGC识别能力,整合计算机视觉、自然语言处理、区块链等技术,构建多模态内容识别系统。利用AI模型学习AIGC特征规律,实现对文本、图像、视频的精准识别;推动AI生成内容检测系统落地,实现自动识别与标注。

同时,在AIGC技术研发中融入伦理设计,建立技术伦理审查机制。对可能引发舆情风险的技术应用(如换脸、语音合成)进行前置审查,限制其使用场景,从源头防范技术滥用。

(三)主体协同

为维护社会稳定,塑造清朗网络空间,针对该类新型舆情的治理,需要启动全系统多部门联动协同的共治体系,形成“监管—平台—公众”的共治合力。

一要强化监管联动。以公安部“净网”专项行动为基础,建立公安、网信、应急、行业主管部门的跨域协作机制,如针对金融领域的AI诈骗,联动银保监会开展专项整治;针对政务谣言,联动政务部门建立权威信息快速发布通道,回应网民关切,压缩谣言滋生空间。

二要压实平台责任。正如中国传媒大学媒介与公共事务研究院院长杨宇军所言,“平台放纵谣言传播,如同商场贩卖假货”,不能仅依赖“通知—删除”的简易规则,应主动构建“技术初筛+人工复核+热点防控”的审核体系,严格落实《人工智能生成合成内容标识办法》,倒逼平台落实审核义务。

三要提倡公众理性参与。公众作为AIGC舆情的接收者、围观者、参与者与传播者,其理性参与是治理体系的“最后一公里”,必须从素养提升、信息甄别、主动监督三方面构建防范能力,以全民共治压缩AI谣言的生存空间。

03

结语

AIGC技术的发展是一把“双刃剑”,其在推动内容生产革新的同时,也引发了新型舆情风险。针对AIGC舆情有高逼真度、裂变式传播、情绪极化、长尾效应等特征,本文通过分析提出“法律规制—技术防控—社会共治”三维治理路径。

未来,随着AIGC技术的不断发展,舆情风险将呈现更复杂的形态。对此,应进一步加强跨学科研究,推动技术研发与法律完善的深度融合,同时提升全民媒介素养,实现AIGC技术的健康发展与网络空间的清朗有序。

(王国平:四川日报社主任记者;张学勤:四川警察学院舆情治理与计算传播重点实验室执行主任;刘书伶:四川警察学院四川公安宣传舆论研究中心副主任)

本文刊于《全媒体探索》2026年3月号,原标题为《人工智能生成内容的舆情风险与治理路径》。

责任编辑:张雅楠