AI生成短视频传播风险分级与标识方法优化

青年记者 |  2026-05-06 09:42:46 原创

微信扫码扫码下载客户端

作者:李瑾颉(广州大学新闻与传播学院副教授);陈思敏(广州大学新闻与传播学院硕士研究生);任顺如(广州大学新闻与传播学院硕士研究生);吴联仁(广州大学网络空间安全学院副教授)

来源:《青年记者》2026年第3期

导 读:

本文筛选了微信视频号、抖音、快手、B站和小红书等短视频平台中的308个AI短视频生成账号,采集了这些账号的AI生成短视频数据,进行人工标注,进而探讨了当前AI生成短视频标识存在的缺乏显著性、语义模糊、传播风险分级缺失、标识程序烦琐、多端口标识不统一等标识困境和问题。



一、引言

短视频已成为公众信息获取的主要来源,正在重塑社会信息生态。2025年3月26日发布的《中国网络视听发展研究报告(2025)》指出,截至2024年12月,短视频账号规模达16.2亿,每日全国上线短视频突破1.3亿条。生成式人工智能的快速发展正在重塑网络视听内容生产方式。生成式人工智能降低了视频生成合成门槛,但目前对AI生成短视频的标识规范与机制不健全,导致各短视频平台存在大量借助AI生成的短视频,特别是以误导、欺骗和操纵为目的的虚假短视频给用户信息决策、社会治理造成严重危害[1][2]。因此,如何对AI生成短视频进行规范标识是当前AIGC治理面临的一个关键问题[3][4]。

关于生成式AI系统和大模型的监管与治理,世界各国和组织发布了相关的法律法规和监管政策。2024年3月,联合国大会通过了《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,这是联合国大会历史上首次为针对人工智能治理问题确立全球统一规范所通过的专项决议,鼓励开发和部署有效、可获取、适应性强、具有国际互操作性的内容认证和来源识别机制。同年,欧盟通过的《人工智能法案》要求,所有创建合成音频、图片、视频或文本内容的AI系统,必须以机器可读的格式标记AI生成或修改的内容。标识方法包括水印、元数据标签等,要确保这些方法有效、可操作、稳健且可靠,便于用户区分AI生成的内容。2025年3月通过初审的英国《人工智能(监管)法案》要求,任何提供AI驱动产品或服务的企业或个人,必须提供清晰且不含糊的标识。综上可见,AI生成内容标识为内容安全治理、内容真实性、准确性提供重要技术支撑。

在我国,中央网信办等四部门2025年3月联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),配套的强制性国家标准《网络安全技术-人工智能生成合成内容标识方法》也正式发布(2025年第3号),2025年9月1日与《标识办法》同步实施。虽然《标识办法》规定了生成内容服务提供者、内容传播服务提供者、组织和个人等主体的责任和义务,但对短视频平台中AI生成短视频的标识用语及位置、传播风险、生成意图等还缺乏深度分析。鉴于此,下面将对AI生成短视频的标识困境、传播风险分级与治理策略等问题展开探索。

二、AI生成短视频标识现状

本文对来自微信视频号、抖音、快手、B站和小红书等五个短视频平台的308个账号的1000个AI生成短视频进行数据采集。采集的字段包括AI生成短视频发布者、视频名称、视频主题,AI生成标识内容及位置,以及视频点赞数、收藏数、转发数和评论数等8个字段。进一步对AI生成短视频进行内容类别划分、意图与危害分类,对传播形式进行人工标注,这部分工作由广州大学新闻与传播学院三名研究生独立完成,对有争议的分类和标注进行讨论,最终对分类结果达成统一意见。

(一)AI生成短视频基础社交数据

表1 AI生成式短视频社交数据统计

如表1,采集的1000个AI生成短视频平均收到2.4万个点赞,0.3万个收藏,0.8万次转发和0.2万条评论。这四种社交行为反应的背后逻辑是不同的。[5]首先,AI生成短视频获得的点赞数不论是总数、最大值和平均值都高于其他三种社交行为,表明目前我国各视频平台中AI生成短视频内容具有很强的情绪操纵性。因为点赞代表用户对内容的认同、喜欢或支持,是一种情绪化的操作,传递了一种态度、心情和鼓励。短视频能获得高点赞的关键在于提供有情绪价值的内容,无论是搞笑娱乐、引发共鸣、还是彰显正义,都能激发用户的点赞意愿。[6]

其次,转发行为源于用户希望分享价值、推广传播和关心他人的心理驱使,旨在扩大内容的影响力和受益范围。收藏行为代表用户认为内容具有潜在的价值,将其保存起来以便将来参考。因此,当前各短视频平台中的AI生成短视频具有一定的价值因素。

最后,评论行为是用户表达观点、想法和疑问的重要方式。[7]要获得更多的评论,短视频内容需要具备鲜明的观点或引人注目的话题争议点或热点事件等元素。此外,评论也需要用户更多的认知卷入,这样用户在看到短视频时,就会产生强烈的评论意愿。本文采集的数据表明,当前我国各大短视频平台中,AI生成短视频获得的评论数在四种社交行为数据中是最低的。

(二)AI生成短视频主题标签分析

AI视频创作者在生成和上传视频至平台时,会给视频添加标签,标签个数不等。文章对1000个AI生成短视频的主题标签进行处理,得到3022个标签,并给出了前六类的标签数据。第一类包括AI、人工智能和AI工具等标签,占标签总数的18.4%;第二类包括AI短剧、AI动画、AI电影、AI视频和AI短片等标签,占比为12.4%;第三类包括AIGC和AI生成等标签,占比为7.7%;第四类包括AI广告和AI创意等标签,占比为5.1%;第五类为AI插画、AI绘画和AI作图等标签,占比为3.7%;第六类为数字人和数字艺术等标签,占比为3.5%。

(三)AI生成短视频内容类别分析

研究对1000个AI生成短视频的内容类别进行打标签,共计使用了36个不同内容标签,总计获得1424个内容类别标签,因为有的短视频可能同时具有两个及以上标签。内容标签频次排在前列的分别为商业、娱乐、广告、恶搞、军事、政治、虚假内容、历史、科普、文化、新闻、文旅、艺术、养生、金融、日漫、玄学迷信、科技、体育等。对内容相近的标签进一步归类,结果如图1所示,当前主流短视频平台中AI生成视频内容主要以商业、广告、娱乐和恶搞为主,其中也不乏一些制作精良的科普、历史和文化内容。需要注意的是,在AI生成短视频中,存在一定比例的虚假内容,包括伪科普、虚假信息和虚假宣传,平台和相关治理部门需警惕。

图1 AI生成短视频内容类别

(四)标识用语及位置分析

对1000个AI生成短视频标识用语、标识对象和位置进行分析,主要可分为四种类型:(1)无标识,即内容传播服务提供者(短视频平台)和AI短视频生成者均未提供任何文字和图片标识,占比为26%;(2)平台标识,即内容传播服务提供者(短视频平台)标注,如“该内容疑似包含AI创作信息,请谨慎甄别”或“该内容疑似使用AI生成技术,请谨慎甄别”,标识位置一般在视频标题下方或视频内左下方,占比为31%;(3)生成者标识,即AI短视频生成者标注,如“作者声明:内容由AI生成”或“作者提示:内容为AI技术制作,虚构内容请谨慎甄别”,标识位置在标题下方、视频内左下方或视频内主要区域,占比为33%;(4)视频标题或主题中标识,这是生成者标识的另一种形式,虽然没有以“作者声明”或“作者提示”等用语开头进行标注,但AI短视频生成者在视频标题或主题标签中提供AIGC、AI等信息,对AI生成进行标注,位置一般在视频外,这类占比为10%。

三、AI生成短视频标识的现存困境和问题

(一)标识方式缺乏显著性造成用户忽略

依据《标识办法》第三条,在视频的起始画面、播放周边的适当位置添加显著的提示标识,也可以在视频末尾和中间适当位置添加显著的提示标识,并以文字、图形等高感知度形式呈现。然而,本文所收集数据显示当前AI生成短视频标识实践显著偏离规范要求,在热度TOP10的AI生成视频中,60%的标识位于较低关注区域(如左下方、标题末尾),近30%的AI生成视频完全未添加标识。如抖音平台播放量达109.4万的“昆仑墟修仙者”视频,其“AI生成”标识仅以灰色字体置于标题末端,标注位置隐蔽性严重削弱警示效能。总之,标识空间位置与视觉显著性(如字体大小、色彩对比度)的协同失效,致使标识显著性大打折扣。

(二)缺乏生成方式说明、标识用词模糊或无效

根据《标识办法》第四条中的第六点,其他生成合成服务场景根据自身应用特点添加显著的提示标识。现有标识用词存在双重语义困境:其一是AI生成短视频未区分AI生成程度、技术路径等关键维度,一味标注为“由AI生成”,导致用户产生“全要素AI化”的认知偏差,而“局部篡改”同样无法帮助用户判断虚假成分及视频具体的技术和生成路径,影响对内容真实性的准确判断;其二是标识用语模糊或无效,如“谨慎甄别”类提示语未提供可操作的验证路径,反而强化了用户的无力感。目前平台提供的AI生成短视频标识通常是“作者声明:该内容由AI生成”或平台提示“疑似使用AI生成技术,请谨慎甄别”。在这样的标识当中,针对一些科普内容,过度覆盖的标识极有可能会降低用户对所发布视频的信任度,在增加辨别成本、误信风险的同时可能导致用户的认知混乱。

(三)缺乏传播风险分级管理与针对性措施

当前AI生成短视频的传播风险分级管理机制存在显著不足,所收集数据显示,仅36%的误导性短视频标识了基础风险提示(如“谨慎甄别”),且对历史篡改、伪科普等中高传播风险类别几乎未进行分级警示,导致用户认知混乱问题突出。典型案例如抖音平台“三言历史”发布的“李清照是赌神”短视频(播放量36.2万次),虽在左下方标注“内容由AI生成”,但未明确声明“虚构内容与史实不符”,容易使观众将其误认为真实历史知识。进一步研究发现,标识的存在未能有效抑制传播效能,如伪科学短视频“核污水无害海洋”添加虚假标识后仍获133.7万次播放。此现象揭示了现行标识体系的两大缺陷:其一,传播风险分级标准的缺失导致警示力度不足,无法适配内容危害性差异;其二,用户注意力受内容趣味性支配,标识显著性不足(如位置隐蔽、视觉对比度低)致使其被系统性忽略。因此,亟待构建三级传播风险分级框架(高/中/低),并有针对性地实施动态限流、权威验证链接嵌入及多模态警示强化策略,以提升风险提示效能,阻断虚假信息传播链。

(四)多层级操作流程引发的自主标识衰减效应

根据《标识办法》中的第十条,用户在发布AI生成内容时,应当主动声明并使用服务提供者提供的标识功能进行标识。因此,现行标识体系高度依赖创作者的主观能动性,形成“自主声明—平台展示”的二元传导路径。而在内容发布过程中,内容传播服务提供者虽提供AI生成内容标识选项,但界面设计存在一定缺陷,在对AI生成内容进行发布时,标识步骤层级复杂,且没有明确清晰的指引。以抖音平台为例,创作者对AI生成内容进行标识,需要进行至少3—4个步骤,且在页面中并没有相关的、明晰的交互指引。多数社交媒体平台上,AI生成内容的标识选择是设置在内容发布页的“更多”选项等二级或三级菜单当中,这样烦琐且隐蔽的标识方式,不仅会削弱创作者对AI生成内容标识的积极性,而且可能导致创作者对AI生成内容标识的认知处于模糊的状态。

(五)多端口场景下AI生成短视频标识存在差异性

在跨终端平台环境中,AI生成内容的标识系统呈现显著性差异。研究者对多平台多端口的调查表明,存在同一内容在不同终端界面的标识不一致现象。例如,通过网页端打开以及平板端打开,平台方的警示标识“该内容疑似使用AI技术合成,请谨慎甄别”存在视觉显著性层级的差异性表征。这种同一平台内部多端口界面间存在的标识规范非统一性,可能导致用户对AI生成内容的风险评估效能降低,进而弱化AI标识的警示功能。

四、AI生成短视频标识的治理路径与策略

为应对AI生成内容所带来的风险挑战,国内外学者针对AIGC的标识和治理等问题从政策、法律法规、理论和技术等方面展开了研究。[8]本文基于整体性治理理论[9],从政府管理者、内容生成服务提供者(A)、内容传播服务提供者(B)和网民(包括组织和个人)等多主体视角出发,提出了AI生成短视频标识路径方法与策略(如图2)。本文提出的方法以内容生成服务提供者(A)的技术手段为支持,融合内容传播服务提供者(B)实施的“风险适配—动态干预”策略,最终形成多主体协同的“风险分级—认知强化—生态平衡”的治理闭环。

图2 AI生成短视频标识路径方法与策略

(一)多模态协同提升标识显著性

整体性治理(holistic governance)强调以公民需求为治理导向,以信息技术为治理手段,以协调、整合、责任为治理机制。[10]为提升AI生成视频标识的显著性,增强用户感知效能,本研究提出以视频内容生成服务提供者(A)的技术手段为支持的、多模态协同标识框架。第一,采用标题嵌入式声明(如“AI生成:视频标题”),通过前置关键信息强化用户对内容属性的初始认知;第二,在视频前3秒嵌入高对比度动态图标(如“本视频由AI生成”),利用视觉显著性原理捕获用户注意力;第三,结合持续性动态浮标设计,于界面右上角置入半透明“AI”标识,针对高风险内容启用红色闪烁警示,契合多模态感知理论对视觉—听觉线索协同作用的实证结论;第四,引入间隔重复机制,每60秒插入弹幕提示(如“AI生成内容,请谨慎甄别”),以对抗用户注意力衰减;第五,构建交互式信息扩展接口,允许用户点击标识获取生成技术细节(如AI生成比例、风险分级)。此外,还可以通过眼动追踪实验,量化用户注视热点与视觉轨迹,动态调校标识参数,实现认知负荷与风险感知的帕累托最优,为平台治理与政策设计提供数据驱动的技术路径。

基于采集的AI生成短视频数据,对其进行传播风险分级。AI生成短视频的传播风险受多种因素影响,本文主要从误导性、有害信息传播、隐私安全威胁等维度,依据内容性质、传播形式及技术特征等进行风险分级,总共分为三个层级,分别是低风险、中风险以及高风险。

(二)构建分层的AI生成短视频标识警示

为应对AI生成短视频的风险差异及其对社会危害的潜在影响[11][12],本文提出三级风险分级制度,通过差异化的标识设计与传播管控,建议生成合成服务提供者协同内容传播服务提供者实施“风险适配—动态干预”策略(见表2)。高风险内容(红色警示)涵盖恶意虚构、深度伪造及敏感议题,如抖音伪养生广告“国医少年志”以及快手“宗馥莉AI换脸”人身攻击内容。此类信息需强制嵌入动态红底白字警示标识,并叠加语音提示“该内容可能包含恶意虚假信息”,同步触发平台限流机制,以遏制其社会危害。

表2 不同风险等级视频的多模态标注适配策略

中风险内容(黄色警示)包括伪科普、历史篡改与宗教娱乐化信息,如抖音“李清照是赌神”、快手“观音吃苹果”等,应采用半透明黄底动态水印标注“内容存疑,谨慎采信”,并在页面底部嵌入权威来源验证链接(如国家历史档案馆数据库),引导用户交叉核验。

低风险内容(蓝色提示)则聚焦娱乐虚构与艺术创作,如B站“大橘为重”账号发布的萌宠拟人剧、抖音古风神兽视频“布丁”等,应以半透明蓝底浮标标注“AI创意作品”,用户点击可展开生成技术说明,既保障创作自由,又满足透明度需求。“风险适配—动态干预”策略具有科学性与可操作性,能够为AI生成内容标签治理提供标准化路径,帮助用户在接触不同风险等级的AI生成视频时做出准确判断,实现行为控制和自律。

(三)构建分类别的AI生成短视频标识

如今,AI技术生成的内容种类愈发丰富,涵盖文本、图像、视频等多种形式,且在不同领域和场景中的应用也日益广泛。[13]为了更准确地反映AI生成短视频的特征和风险,首先需要对AI短视频的生成方式进行梳理,再进一步分析AI生成短视频的结构组成,从而构建分类别的标识体系。具体而言,因不同的生成技术存在不同的应用场景与特点,应细化标签维度,依据内容生成度(如“部分AI生成”“完全AI生成”)和技术路径(如“基于图生模型”“基于文生模型”)等关键维度,设计更具针对性和具体性的标识。此外,鉴于AIGC技术具有动态发展特性,建议网信办等政府管理部门建立动态标识更新机制,根据技术进步和应用场景的变化,定期对标识体系进行评估和更新,以确保标识能够准确反映最新的技术特征和潜在风险,实现技术创新融合。

(四)落实平台强制性触发机制

为规范AI生成短视频传播的透明度与可信度,本研究提出基于内容传播服务者(平台)的强制性标记触发机制,呼吁平台制定《AI生成内容标识阈值标准》,明确强制标识的触发条件。当内容核心元素完全由AI生成时,如抖音平台“如意坊十一”视频中画面、音频均由AI生成却仅标注“内容由AI生成”,未说明具体生成部分,需细化标识,标识为“画面及语音完全AI生成”,以避免用户认知混淆。若涉及深度伪造技术,则需强制嵌入数字水印并附加动态警示标签。对涉及敏感主题的误导性内容,如快手平台播放量达133.7万的“核污水无害海洋”伪科学视频,无论生成比例大小均需标记为“高风险”,通过语义分析识别其违背科学共识的表述(如“无害化处理”),触发限流机制并关联权威科普链接。此类案例表明,现有标识实践在风险分级与生成路径披露上存在显著缺陷,亟待通过技术介入强化治理。为实现精准且高效的标识触发,平台应着手开发AI大模型自动检测接口,运用语义分析技术,对视频内容进行深度解析和事实核查,例如针对“核污水无害”视频中的言论进行语义理解与真实性评估。[14][15]同时采用图像特征比对技术,对视频画面与已知数据库中的图像进行比对分析[16],如识别“AI-小晴”的擦边内容图像特征,以此触发标识机制,确保所有符合上述条件的内容均能得到及时、准确的标识。

此外,平台应建立一套完善的用户事实核查、举报数据收集与分析系统,将用户举报数据作为重要的参考指标,进行风险阈值动态调整,用于动态调整风险阈值。[17]例如,针对小红书上“AI黑丝美女”这类内容,若其举报率呈现上升趋势,平台需及时响应,深入分析举报原因,判断是否因风险阈值设定不合理导致部分内容未被准确标识。通过持续监测与分析用户举报数据,视频平台能够敏锐捕捉内容风险的变化趋势,进而对风险阈值进行科学、合理的动态调整,优化标识机制,提升平台内容管理的精准性与适应性,为用户营造更加健康、安全的网络环境。

(五)差异化传播监督与认知干预机制设计

为应对AI生成短视频的传播风险与用户认知挑战,本研究首次针对AI生成短视频设计了差异化传播干预机制。内容传播服务提供者(平台)处于流量调控层面,建议构建分级流量池机制。针对高风险内容,如抖音平台“地府文旅”账号发布的“18层地狱”伪科普视频,设置数字素养准入门槛,用户需通过“传统文化知识答题”验证后方可观看,以此筛选具备辨识能力的受众群体。对于中风险内容,如快手平台“三言历史”的虚构历史视频,通过算法动态降低其推荐权重,同时在界面增设“查看原文”按钮,关联权威历史数据库链接,辅助用户交叉验证信息真实性。低风险内容,如B站“布丁古风神兽”艺术创作视频,则保留常规推荐逻辑,并在展示页嵌入“创意AI”垂直频道入口,通过兴趣标签匹配(如“国风”“虚拟角色”)激发用户探索意愿。

针对网民用户的认知干预,开发“评估—激励”双向系统。首先,于AI生成视频显著位置嵌入动态警示标识(如“此内容非真实记录”),如小红书平台“AI黑丝美女”视频顶部添加滚动横幅;其次,采用对比呈现技术,将AI生成视频,如“AI—小晴”擦边舞蹈视频与真实素材(如专业舞蹈演员作品)并列展示,通过动作连贯性、光影渲染等视觉差异强化用户辨伪能力。此外,建立行为激励机制,用户举报高风险内容(如“核污水无害”伪科学视频)可兑换积分或获优先推荐权益。通过传播监督与认知干预策略,内容传播服务提供者(B)协同用户构建“风险分级—认知强化—生态平衡”的治理闭环。

(六)简化内容生成者添加标识的交互路径

现有AI生成短视频标识添加流程操作层级复杂且隐蔽,这无疑降低了内容生产者添加标识的主动性,也增加了内容生产者的负担。[18]针对这一问题,简化视频生产者添加AI标识的交互路径是提升生产者自主标识意识的有效办法。将AI生成视频标识添加选项置于内容发布流程的核心位置,可参考抖音平台内容发布页面,通过减少操作层级,将其简化到1-2个步骤,同时提供清晰的交互指引,以降低操作难度,使生产者能够更加便捷地完成标识添加工作。此外,还可借助AI技术的自动化优势,实现对生成视频内容类型和生成度的自动识别,并据此为创作者提供标识建议,从而减少人为错误和操作复杂性,进一步提升标识添加的准确性和效率。

(七)统一跨终端AI生成内容标识用语

在多终端、多平台的传播环境下,AI生成内容的标识一致性至关重要。在《标识办法》实施前,由于缺乏统一规范,各社交媒体平台的同一内容在不同设备和平台上的标识存在差异,不仅容易导致用户认知混乱,还可能引发信息传播的不一致性和误导性。为解决这一问题,本文建议信息服务提供者和管理机构协同制定跨平台、跨终端的标识用语规范,确保无论在何种设备或平台上同一内容的标识用语一致,从而使用户能够在不同场景下获得统一、准确的信息。同时,还需注重标识的视觉一致性设计,统一标识的视觉呈现,包括颜色、字体、位置等元素,以增强标识的辨识度和权威性,进一步提升用户对AI生成视频内容的认知和理解能力。

五、结语

世界各国和地区都已高度关注生成式AI带来的问题,如AI幻觉、AI生成虚假信息、知识产权问题、恶意使用以及系统失控等风险。我国学者已对生成式人工智能治理开展了初步研究,取得了有益的成果[19][20]。本文针对当前政府、学界和业界重点关注的AI生成合成内容标识问题,基于对多个短视频社交平台中AI生成短视频实际数据,系统剖析了AI生成短视频标识的现状、治理困境、优化路径和策略,构建了AI生成短视频标识的“风险分级—认知强化—生态平衡”的治理闭环,为AI生成合成内容标识治理和实施提供参考。

【本文为国家社会科学基金青年项目“AIGC虚假信息生成机理、传播风险与综合治理研究”(批准号:24CGL144)、国家自然科学基金面上项目“基于公众社交媒体卷入干预的信息疫情助推治理研究”(批准号:72274119)的阶段性成果】

参考文献:

[1] Bengio Y, Hinton G, Yao A, et al. Managing extreme AI risks amid rapid progress[J]. Science, 2024, 384(6698): 842-845.

[2]吴联仁,李瑾颉,齐佳音.大语言模型风险治理理论演进与实践框架——基于多利益相关者理论[J].电子政务,2025(09):54-63.

[3]卢怡,苏宇.人工智能生成内容标识制度的实践挑战与制度回应[J].人工智能,2025(01):87-102.

[4] 郭全中.技术演化与涌现风险:生成式人工智能的协同式敏捷治理体系研究 [J].编辑之友,2025(04):49-56.

[5] Xi D, Zhou J, Xu W, et al. Discrete emotion synchronicity and video engagement on social media: A moment-to-moment analysis[J]. International Journal of Electronic Commerce, 2024, 28(1): 108-144.?

[6]李瑾颉,吴联仁,齐佳音,等. 微博话题流行度统计分析及其影响因素研究[J].情报科学,2017,35(7):138-141+148.

[7]金晓玲,周中允,尹梦杰,于晓宇.在线用户点赞与评论行为的产生机理差异研究——以医疗健康类企业微信公众号为例[J].管理科学报,2021,24(4):54-68.

[8]张凌寒,贾斯瑶.人工智能生成内容标识制度的逻辑更新与制度优化[J].求是学刊,2024,51(1):112-122.

[9]张文松,汪家源,张睿,等. 互联网整体性治理模式构建和路径设计——基于治理供需匹配的视角[J].管理世界,2024,40 (11): 153-173.

[10] Zhang C, Zhao Z, Wang Q, et al. Holistic governance strategy to reduce carbon intensity[J]. Technological Forecasting and Social Change, 2022, 179:121600.

[11]逯达.文生视频类人工智能的数据风险及其法律规制——以Sora为例[J].河南社会科学,2024,32(10):77-87.

[12]黄静,韩松言,田宇航.生成式人工智能深度伪造风险的样态特征、生成逻辑与监管策略[J].电子政务,2025(05):31-41.?

[13]李诗悦.生成式人工智能嵌入公共服务风险的形成机理与防范对策[J/OL].电子政务,1-12[2025-11-18]. https://link.cnki.net/urlid/11.5181.TP.20250515.0914.002.?

[14] Augenstein I, Baldwin T, Cha M, et al. Factuality challenges in the era of large language models and opportunities for fact-checking[J]. Nature Machine Intelligence, 2024, 6(8): 852-863.

[15] Feher D, Khered A, Zhang H, et al. Learning to generate and evaluate fact-checking explanations with transformers[J]. Engineering Applications of Artificial Intelligence, 2025, 139: 109492.

[16]刘春年,陈梦秋,易岚.深度伪造视频中的信息特征萃取及其关联计算[J].情报杂志,2024,43(8):92-101.

[17]李瑾颉,聂凯伦,吴联仁,等.众包事实核查对信息参与行为的影响:基于来源可信度的调节[J].知识管理论坛,2024,9(4):367-379.

[18] La Barbera D, Maddalena E, Soprano M, et al. Crowdsourced fact-checking: Does it actually work?[J]. Information Processing & Management, 2024, 61(5):103792.

[19]任梅,代栋栋.生成式人工智能的回应性监管架构及其实现路径[J].中国行政管理,2025,41(02):39-50.?

[20]李瑾颉,吴联仁,齐佳音.对抗AIGC虚假信息的行为助推与认知干预研究[J].青年记者,2025(05):53-57.

本文引用格式参考:

李瑾颉,陈思敏,任顺如,吴联仁.AI生成短视频传播风险分级与标识方法优化[J].青年记者,2026(03):105-112.

责任编辑:焦力