常江 刘亮:智能新闻伦理检视:基于新闻对话机器人生态角色的分析

青年记者 |  2026-04-27 14:21:22 原创

微信扫码扫码下载客户端

作者:常江(深圳大学传播学院教授、深圳大学全球传播研究院研究员、本刊学术顾问);刘亮(深圳大学传播学院硕士研究生)

来源:《青年记者》2026年第4期

导 读:

本文以新闻对话机器人为高强度个案,在后人类新闻认识论框架下系统检视智能化技术类行动者介入新闻实践体系所引发的伦理现状与张力,并在此基础上对面向智能化未来的新闻伦理困境展开整体性反思,旨在为建构一种立足人机共生经验现实的新闻伦理体系提供必要的理论支撑与观念基础。



一、引言:新闻对话机器人的兴起

近年来,生成式人工智能与具身人工智能的快速发展,使多种形态的智能机器人日益成为活跃的媒介行动者,在社会生活的诸多领域引发深刻震荡与结构性变革。于新闻业而言,智能机器人的应用正趋于常态化,人类记者与持续迭代的技术系统共同推动新闻实践迈向更为深刻且加速的转型进程。这一变化不断冲击“新闻作为人的事业”的传统新闻认识论,使全球新闻生态逐步呈现出鲜明的“后人类状况”。[1]

在各类智能新闻应用形态中,新闻对话机器人(News Chatbots)因其兼具内容生产、分发中介与互动行动者等多重属性,扮演着重要而独特的生态角色,正日益引起中外数字新闻学研究者的持续关注。2016年,Facebook Messenger率先开放聊天机器人功能,标志着智能机器人平台化应用的起点。此后,CNN、BBC、Fox News等国际主流新闻机构相继在社交媒体平台上线自主研发的新闻对话机器人,以适应智能时代平台化竞争与新闻消费方式转型的新常态。例如,BBC曾推出 In-Article Chatbot、Quiz Bot for Facebook Messenger、BBC Mundo for Facebook Messenger、EU Referendum and U.S. Election for Twitter 以及 Uzbek Telegram Bot 等新闻对话机器人回答用户的新闻问题并提供新闻推送服务。[2]在中国语境中,微博推出的官方新闻机器人“评论罗伯特”已成为深度嵌入平台生态的重要行动主体。该机器人以高度自动化和持续性的方式,主动在用户原创内容的评论区发布信息,发起并参与与不同用户之间的新闻对话,在相当程度上推动了人机新闻互动由“人类主动”向“机器主动”的转变。进一步而言,2025年9月底,OpenAI 面向移动端Pro用户发布ChatGPT Pulse预览版,宣称其可通过高效分析人机对话内容实现按需、精细化的新闻生产,并借助对话、记忆与关联机制主动介入用户的新闻获取过程,进而参与新闻现实意义的协调与建构。

新闻对话机器人通过对人类用户行为的模拟而参与新闻行动,并依托强大的机器学习能力实现自动化、持续性的自我优化。相较于早期以内容生成为核心的自动化写稿机器人,新闻对话机器人完成了从“单向输出”向“互动生成”的生产方式跃迁——尽管这种互动在很大程度上仍依赖用户的主动触发,且对话内容亦受限于模型自身的语料结构与知识边界。即便如此,随着其智能化与情境适配能力的不断提升,新闻对话机器人正逐步成长为平台生态中最具影响力的技术型新闻行动者之一。

人工智能技术的加速迭代,显著强化了各类离身或具身机器人在数字新闻生态中的结构性优势。[3]当下,主流新闻对话机器人的活动已不再局限于被动响应或遵循预设规则的互动,而是能够依托深度学习与语境理解能力,自主生成具有高度情境适配性的新闻内容,进而参与乃至引导新闻公共议程的建构。在此情境下,已难以继续将新闻对话机器人视为外在于人类新闻主体、仅发挥辅助功能的技术工具;相反,新闻对话机器人与人类行动者之间日益密切的交互、聚合与共生关系,正在并将在可预见的未来对既有新闻规范与伦理体系构成深刻而尖锐的挑战,呈现高度复杂的演化图景。[4]

因此,本文以新闻对话机器人为高强度个案,在后人类新闻认识论框架下系统检视智能化技术类行动者介入新闻实践体系所引发的伦理现状与张力,并在此基础上对面向智能化未来的新闻伦理困境展开整体性反思,旨在为建构一种立足人机共生经验现实的新闻伦理体系提供必要的理论支撑与观念基础。

二、后人类新闻伦理检视何以攸关

新闻业自诞生以来始终伴随技术进步而演进。以生成式人工智能为技术基底的新闻对话机器人,表征着这一演进过程的最新阶段。作为生成式人工智能的高级应用形态,新闻对话机器人已不仅是一种技术产品,而逐渐成为深度嵌入新闻实践的“准主体”,由此改变着新闻生产的运行逻辑、专业标准与呈现形态。然而,既有新闻伦理规范的适用对象依旧是记者、编辑等人类行动者,其行动者中心主义取向难以回应当下新闻场域中多元行动主体并存的后人类现实。面对人类、算法与智能系统协同运作的新闻实践,传统仅适用于人类行动者的伦理范式已显不足。因此,立足后人类新闻的现实语境,对新闻伦理加以反思与重构,既是新闻实践转型的迫切需求,也是新闻理论持续发展的内在要求。

自动化既是新闻生态持续演化的内在动力,也是后人类新闻的标志性特征。其背后,是算法与数据驱动方法以及智能机器人、仿真技术对新闻业日益增强的结构性影响力。[5]在自动化浪潮不可逆转的现实背景下,如何确立科技发展的伦理边界与治理模式,确保技术向善运行,已逐渐形成全球共识。斯坦福大学发布的《2025年人工智能指数报告》指出:“人工智能的应用正以前所未有的速度渗透社会生活,数以百万计的人们在专业工作与休闲活动中高频使用人工智能……各国政府正在推进新的监管框架,旨在促进人工智能技术的透明度、负责任性与公平性。”[6]

事实上,早在2021年,联合国教科文组织便出台了首个全球性人工智能伦理规范文件——《人工智能伦理建议书》,以透明、公平等原则为基础,强调人类对人工智能系统保持实质性监督的重要性。[7]我国亦高度重视科技伦理治理,并在制度层面进行前瞻性顶层设计。2020年10月21日,国家科技伦理委员会正式成立;2022年3月印发的《关于加强科技伦理治理的意见》明确提出,我国科技发展须遵循“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”五项伦理原则[8];2025年8月,工信部等部门起草《人工智能科技伦理管理服务办法(试行)》并公开征求意见,从组织与技术层面推动科技伦理规范深度嵌入人工智能治理实践。[9]

这一系列制度性安排,体现了社会对技术变革不确定未来的审慎回应。技术越是迅速演进,伦理尺度就越需要明确与稳固。当机器开始参与意义的生产与价值的塑造,人类必须重新锚定伦理与规范的坐标。在新闻机构加速引入人工智能与机器人技术的现实语境中,科技伦理治理为开展后人类新闻伦理的系统检视提供了必要的制度基础与现实依据。

数字技术的持续演进显著增强了新闻传播的动态性与流动性,冲击并瓦解了以往以静态、线性、单向度为特征的一对多传播范式,进而推动了“液态新闻业”的生成。随着智能技术的深度嵌入,新闻传播实践的主体结构亦由“人本中心”逐步转向“技术共生”,由此形塑出新的新闻生产范式与用户新闻消费场景。在这一过程中,新闻对话机器人等非人类行动者广泛嵌入内容生产、传播路径与用户交互的全链条之中,成为新闻系统内同时具备工具、渠道与行动主体属性的复合性存在。[10]新闻对话机器人不仅能够主动发起新闻对话,还在事实上充当着人类用户对新闻内容理解与认知的中介,令人类作为“理性言说者”的主体合法性面临挑战。技术在一定程度上脱离人类意志,成为具有社会效力的自主力量。[11]与此同时,伴随算法、数据处理能力与机器学习(machine learning)架构的不断进化,新闻对话机器人获得了即时对话响应、算法化情感模拟以及对客观世界图景的生成能力,呈现与人类想象力高度相似的文化势能。[12]这种“机器想象力”的崛起持续遮蔽其工具属性,甚至对人类主体能动性形成侵蚀,试图将人类生命经验编织进机器逻辑系统之中,从而不断消解人作为社会实践主体的意义根基,也对以人类为中心的传统新闻伦理体系构成根本性冲击。

不可否认,新闻对话机器人等非人类行动者的引入在客观上赋能了新闻实践,拓展了新闻样态,将人类新闻工作者从大量初级、重复性劳动中解放出来,并为用户提供了更为多元、沉浸的新闻消费体验。然而,与这些积极效应相伴而生的,是其深度介入新闻业所引发的道德合规性隐忧。长期以来,新闻业始终被视为服务民主政治、追寻事实真相与维护公共利益的特殊社会实践。[13]在漫长的社会演进过程中,这一实践的主体始终由人类行动者承担,并依赖人的理性判断与道德德性来维系其规范性基础。

当新闻对话机器人依托大语言模型与高度自动化的叙事转化能力,生成拟人化程度极高的对话语言,并为用户营造出沉浸式、全感官的新闻接受情境时,非人行动者与人类行动者之间的边界开始变得模糊。此类人工物在事实层面获得了某种“造物能力”,并在人的权利让渡之下,介入新闻议程设置、舆论引导与社会意义建构等核心环节。归根结底,新闻对话机器人的对话能力源于人类预先编制的高度算法化语料,其内容生成则是算法自动化“涌现”的结果。与其说用户是在与新闻对话机器人展开对话,不如说是在体验算法所营造的拟真互动。在这一过程中,人类用户与新闻对话机器人之间的信息交流始终停留于个体化、体验化的层面,用户被封闭于私人感官回路之中,难以在公共语境下对新闻内容形成深入理解与讨论。由此,新闻作为公共讨论平台与社会共同价值生产机制的功能被不断削弱[14],建基于社群主义之上的传统新闻伦理亦随之面临结构性动摇。[15]

如今,人机共存、多元主体并存的后人类新闻业正面临多重风险与挑战,包括技术系统偏向的放大、人类主体性的相对衰微,以及以公共讨论为核心的民主沟通结构的潜在瓦解。在技术加速崛起与规范性反思并行的历史节点,亟须对后人类新闻实践展开系统性的伦理检视,实现研究重心由“新闻由谁言说”向“新闻系统如何运作”的根本转向。在去中心化的后人类新闻生态中,重建“公共”已成为迫切课题,这不仅要求重新思考人类与技术行动者之间的权责边界,也需要通过更契合后人类情境的新闻伦理设计,推动算法公正、保障语义透明,并确保公共价值在新闻生产与传播过程中的持续在场。

三、对话机器人与后人类新闻业的伦理困境

新技术的演进从来并非线性进步,其在推动生产力跃升的同时,也不断制造新的不确定性与焦虑。人工智能与机器人技术的发展集中体现了这一张力:其形态已由早期的辅助性数据分析工具演进为具备文本生成能力的模型,进而发展为拥有一定行动能力的智能体(AI agent),以加速度方式将人类社会推向前所未有的技术未来。与此相伴,人类亦愈发清晰地意识到,这一高度自洽的技术体系潜藏着脱离人类控制的风险,由此引发哲学与社会科学领域对技术加速主义的持续反思。[16]尤其在算法与机器代理日益普及和复杂化的背景下,具备类人交互能力的新闻对话机器人正以行动者身份嵌入数字新闻生态,推动新闻业迈向开放化、自动化与智能化的后人类形态,使新闻生产与消费进入人机共构的混合时代。在这一转型过程中,一系列结构性与规范性的伦理问题也随之浮现,亟待回应。

(一)新闻实践中的真相生产正逐渐滑向符号生产

这一问题根源在于新闻对话机器人所依赖的大语言模型设计逻辑,与新闻业核心价值之间的内在冲突。新闻业作为一种高度重视真实性的特殊社会实践,始终以尊重事实、追寻真相和贴近现实为核心规范。[17]这要求新闻工作者基于可验证、可追溯的新闻事实开展真相生产,通过“策采编发”等具身化实践流程,为公众提供相对客观、无偏向的新闻内容。然而,在技术进步与未来想象的共同作用下,新闻对话机器人被视为建构“客观新闻”的新路径,其介入新闻实践往往被赋予“技术中立”的期待。事实上,这一认知与其真实运行逻辑存在显著偏差:新闻对话机器人的新闻生产高度依赖机器学习与算法模型,其生成的并非经由现实检验的事实性内容,而是语法流畅、高度拟人、符合新闻写作规范的符号文本。这类内容在形式上逼近传统新闻,却由于缺乏对现实世界的直接感知、事实核验与责任判断,常呈现语态空洞、语汇堆砌、内容重复等问题,难以确保真实性与客观性。[18]陶氏数字新闻中心(The Tow Center for Digital Journalism)的一项调查研究显示,超过60%的新闻对话机器人会“自信地”针对用户提问提供看似合理的错误答案,并依托自行解析和重新包装信息的功能,切断用户检索内容原始来源的路径。[19]从机制上看,新闻对话机器人在算法预测与文本匹配框架下进行的新闻生产,本质上是对既有语料库的逻辑拼贴与文本重组,是一种脱离新闻实践流程的符号生产,与人类新闻行动者依托调查、采访与编辑等实践活动完成的真相生产存在根本差异。相关经验研究亦为此提供了有力佐证。例如,BBC针对ChatGPT、Google Gemini、Microsoft Copilot和Perplexity在新闻摘要中的准确性展开调查,结果显示,超过一半的对话机器人在总结新闻报道时出现事实不准确或内容扭曲的问题。其中,Gemini甚至错误声称英国国家医疗服务体系(NHS)“建议人们不要开始使用电子烟,并建议戒烟者应采用其他方式”,而事实上 NHS 恰恰将电子烟视为戒烟手段之一。[20]由此可见,在语言生成机制不可解释性与算法逻辑“黑箱化”的双重作用下,新闻对话机器人在缺乏实践土壤的条件下进行的符号生产,极易滋生虚构事实与伪造引证等现象,背离新闻业对事实准确性与真相责任的基本伦理要求。[21]

(二)新闻公共理性的消逝与新闻质量的下滑

新闻与公共性之间的关系始终是新闻伦理讨论的核心议题,即便在新闻体系与研究范式不断重构的当下,这一问题依然具有基础性与现实性意义。无论新闻形态如何演变,对信息民主的追求与服务公众的承诺始终构成新闻业的价值底色。因此,新闻在社会生活中天然承担着“公共知识”的功能,并负有激发公共讨论、促进公民参与公共生活的责任与潜力。[22]从表面看,新闻对话机器人等非人类新闻行动者的出现,似乎为重塑新闻公共性提供了新的可能:它们使用户得以绕过传统新闻机构,直接获取新闻内容,从而在新闻消费中获得更大的自主性,摆脱既有新闻议程设置的制度约束。然而,这种看似“去中介化”的过程并未真正强化公共性,反而潜藏着深层的“去公共性”风险。其根本原因在于,新闻对话机器人并非以推动公共讨论或促进社会共识为目标,而是在用户语义反馈与算法计算的驱动下与个体建立拟社交关系,以迎合高度个性化的信息需求,实现注意力攫取与流量变现。同时,新闻对话机器人的智能分析、分类和迎合加深了用户的认知气泡(epistemic bubble),并限制了对其他观点的接触,由此滋生对外部来源内容的不信任。[23]在这一逻辑下,新闻业原本强调的公共理性参与被转化为基于类人对话的情感黏附机制,新闻实践由“公共知识生产”滑向“个体感受服务”,从而引发“公共理性消解”与“情感算法化”的双重伦理危机。尤为值得警惕的是,新闻对话机器人依托概率模型与既有语料库生成内容,往往在新闻生产中反复强化主流议题与既有叙事,忽视关键的情境判断、价值权衡与少数群体声音,这不仅压缩了新闻的批判性与多样性空间,也导致新闻价值趋于浅表化。[24]正如一项针对日本JX通信社(JX Press Corp)的新闻对话机器人信息生产机制的研究显示:虽然新闻对话机器人能够充当新闻信息的解读者,通过总结和整合新闻报道的内容来发挥作用,但记者自身的话语也因此永远无法传达给受众。[25]这导致在具体的新闻获取场景中,用户难以从新闻对话机器人的输出中获得结构化、具深度的公共信息,反而更易沉溺于通俗却肤浅的信息洪流之中,进而加剧信息疲劳与认知倦怠。长此以往,这一趋势将持续侵蚀新闻质量与公信力,削弱新闻培育公共理性与服务公众的社会功能。

(三)新闻行动与新闻责任错位引发后人类新闻中人机共构的责任归属困境

汤森路透基金会(Thomson Reuters Foundation)基于人工智能嵌入新闻业的现状,对全球70多个国家的200余名新闻从业者开展问卷调查,结果显示,超过一半的受访者(53.4%)对人工智能等技术介入新闻实践所带来的道德影响表示高度担忧。[26]这种普遍存在的伦理焦虑,实质上指向新闻业既有责任体系在技术介入情境下的失灵。尽管人工智能作为新闻行动者的地位已在学界获得一定程度的承认[27],但对其是否能够以及如何被界定为新闻生态网络中的责任主体,迄今仍缺乏清晰共识。在传统新闻实践中,行动主体与责任主体之间存在高度稳定的对应关系,新闻伦理体系正是建立在“可识别行动者—可追责主体”这一基本假设之上。然而,非人类行动者的进入打破了这一前提,动摇了基于人类行动者构建的问责逻辑。随着新闻生产与传播逐渐演变为由技术提供商、平台机构、新闻组织与用户等多元主体共同参与的复杂网络,权责边界不断被拉伸乃至模糊化,责任归属随之滑入灰色地带。[28]例如,Meta旗下的新闻对话机器人散布美国保守派活动家罗比·斯塔巴克(Robby Starbuck)参与了美国国会大厦的骚乱以及承认曾犯下罪行等虚假信息。但当斯塔巴克根据判决,要求 Meta“撤回虚假信息,调查错误的原因,实施保障措施和质量控制流程以防止未来出现类似问题,并向所有Meta人工智能用户透明地说明将采取的措施”时,Meta拒绝做上述改变,也拒绝“对其行为承担起应有的责任”,问责随之陷入困局。[29]具体而言,新闻对话机器人作为具备现实影响力的行动者,能够通过算法排序、信息筛选与意义框定等方式,实质性地介入用户认知、行为选择与舆论形成过程。然而,其行动并非源自单一主体的意志,而是数据、代码、模型训练和实时交互共同作用的结果,使责任在多重技术与组织节点间被不断分散和稀释,难以沿用传统线性因果逻辑加以追责。由此,新闻对话机器人在行动权力与伦理责任之间形成明显不对称:它们能够“行动”,却难以被“问责”,从而以“无责任的行动主体”身份游离于既有新闻伦理审视之外。这一错位不仅削弱了新闻伦理的约束效力,也带来了现实层面的制度风险——当新闻对话机器人的输出出现偏差时,究竟由谁负责纠错?进一步而言,若其生成内容对个体权益或公共利益造成难以挽回的实质性损害,又应由谁承担相应的伦理与社会后果?正是在这一系列悬而未决的问题中,后人类新闻的责任困境被清晰地暴露出来。

四、后人类新闻的伦理重建思路

在前数字时代,尤其是在人工智能技术尚未兴起之际,新闻实践以人类生命的唯一主体性为前提,将其他一切要素视为服务于人类行动者的工具与附属物。在此基础上形成的传统新闻伦理,主要聚焦于人类行动者在新闻传播活动中的价值取向、道德操守与职业行为,体现为一种以规范与自律为核心的伦理约束机制。

反观当下,技术实现了突破性跃升,并以“新闻行动者”身份深度嵌入新闻实践。若仍因循旧有伦理范式,忽视非人行动者的行动效力,便无异于对现实新闻生态的系统性遮蔽,同时也使其与多元新闻行动者的现实脱节。[30]由此,立足“人机共构”的后人类新闻实践现实,突破人类中心主义的理论桎梏,在开放的新闻生态中重新锚定多元主体的价值坐标,成为回应后人类新闻伦理重建不可回避的理论路径。

(一)从对立到共生

首先,理解后人类新闻伦理,有必要超越人类行动者与非人行动者之间的二元对立思维,以更具辩证性的视角把握二者的共生关系,并将其作为新闻伦理重建的逻辑起点。正如前文所述,传统新闻伦理将人类个体视为“行为—责任”高度捆绑的独立主体,而将技术界定为可被人类支配和控制的工具性客体。这种以主客二分为基础的人类中心主义视角,在后人类新闻生态中已失去解释力。以新闻对话机器人为例,其新闻生产过程既内嵌了人类新闻工作者在模型训练、算法规则与输出逻辑上的制度性设定,也受到人类用户在对话指令与问题设计中的即时介入。非人行动者所呈现的“能动性”,始终烙印着人类行动者的价值取向与操作痕迹。尤其在新闻对话机器人等人工智能体尚未具备真正意义上的道德主体资格之前,对人机共生情境下新闻伦理体系的重构,仍需以人类行动者伦理作为重要参照。[31]

但这并不意味着回到对人类主体的过度强调或再中心化,而是应立足后人类新闻实践的现实条件,将持续嵌入技术与文化互动之中的“人类—非人—信息”关系网络,视为新闻生态得以运作与演化的核心主体。由此,新闻伦理的关注重心也从对个体行为的道德评判,转向对关系网络持续生成过程及多元行动者“普遍生命力”的维护。在这一框架下,以关系为起点重建新闻伦理,其根本指向在于新闻信息生态的可持续性。这意味着,新闻伦理的目标不再局限于单一事件是否“如实报道”,而是进一步扩展为维护公共话语环境的整体健康、多样性与包容性。

具体而言,在新闻对话机器人等非人行动者的技术研发与算法部署过程中,伦理考量应聚焦其与人类行动者(如新闻工作者、用户)以及更广泛的公共舆论环境之间的互动关系,审慎评估技术设计如何促进而非侵蚀良性社会关联。唯有将技术纳入动态关系网络之中加以理解,而非将其孤立为中性工具,新闻伦理才能实现从工具理性向价值理性的转向,从而在后人类新闻生态中真正服务于公共福祉与民主对话的长远发展。

(二)介入与行动

其次,面对多元行动者共存的后人类新闻业,有必要以一种积极介入的行动逻辑统摄新闻伦理的重建进程,并在此过程中审慎界定维系新闻伦理的行动边界。拉图尔的行动者网络理论为数智技术深度嵌入新闻业后的生态角色提供了重要的解释框架与理论合法性,它将以记者或编辑室为中心的传统研究视角,拓展至更为广阔的人类—非人类交织而成的行动网络之中。[32]这意味着在新闻生产与传播网络中发挥显著中介效应的新闻对话机器人,其算法逻辑、交互设计与反馈机制不应被简化为技术黑箱,而须作为可追溯、可修正的伦理行动节点接受持续性的公共审视与价值校准,确保技术介入始终承载人类对新闻业追求真实、公正的承诺。换言之,在新闻业这一关乎人类理解世界、改造世界的特定领域,无论技术如何创新,其价值负载与伦理意涵始终不可远离人类德性。由此,后人类新闻伦理的讨论不可避免地转向一个核心问题:以新闻对话机器人为代表的非人类行动者,其道德能动性的边界何在?

传统伦理观往往将道德能动性理解为人类独有的道德判断与责任承担能力,但并未从根本上否认具备一定自主能力的人工物可能产生道德效应的现实可能性。立足后人类情境的开放立场,道德能动性可被宽泛地界定为实体积极施加具有伦理后果之影响的能力。[33]在这一意义上,新闻对话机器人的新闻实践不再只是对预设算法的程式化执行,而是一种可能引发真实伦理后果的行动过程。由此引发的核心忧虑或许并不局限于技术层面上常被讨论的“幻觉”问题,而在于其潜在地重构新闻标准、重塑价值判断,甚至改写人类社会所共同认可的价值坐标,从而将公共生活引向某种历史虚无主义的风险之中。

正如人工智能研究专家斯图尔特·罗素(Stuart Russell)所指出的,机器“智能”的定义与人类“聪明”的定义在形式上是一致的,均指向自主行动以实现既定目标的能力;但关键差异在于,机器本身并不拥有内生目标,其目标必须由人类设定并加以约束。[34]这一判断为理解后人类新闻业中多元行动者的行动逻辑提供了重要启示:一方面,需要通过对非人行动者的行动设计进行前置性的伦理优化;另一方面,也要求人类行动者保持持续介入与纠偏的责任意识。具体而言,在新闻对话机器人的生成系统设计与部署过程中,应当对其算法所内嵌的价值取向、预设偏向与权力关系进行系统性的伦理审计。这种审计并非仅限于技术层面的程序检测,而是对其行动逻辑与潜在社会后果的规范性约束。同时,还应引入“行动可逆性”原则,要求新闻对话机器人在执行涉及重大公共关切或具有显著社会影响的新闻任务时,必须嵌入“人在回路”(human-in-the-loop)的道德机制,以确保决策过程的透明性、可追溯性与可干预性,从而防止算法偏见或数据局限将新闻实践引离其应有的伦理轨道。

(三)重申社会责任

最后,在高度不确定的后人类情境中重申“负责任新闻业”的核心本质,是后人类新闻伦理重建的收束环节,也是推进伦理治理与实现责任归属的前提条件。在人机共生的新闻生态中,新闻责任已由以往依附于单一人类行动者的“线程式”结构,转向由多元主体共同承担的分布式形态。[35]新闻对话机器人介入新闻实践的背后,牵涉设计者、运营者、使用者等多重行动主体之间的权力配置与责任博弈;一旦系统运行失范,相关主体往往以“技术中介”为由选择退居幕后,从而制造出“责任真空”的伦理困境。因此,在责任分配与治理层面,有必要将机器及其背后的行动主体一并纳入伦理视野,构建以关系为基础的复合式责任链条。

基于新闻对话机器人在新闻生产过程中与其他行动者之间的互动关系,本文将责任结构区分为设计责任、操作责任与制度责任三条相互关联的责任链。其一,设计责任主要指向新闻对话机器人的开发与设计团队。开发者在系统建构阶段应充分纳入新闻伦理与社会伦理考量,保障算法的公平性与非歧视性,避免偏见的技术固化,并提升算法逻辑与决策过程的可解释性。其二,操作责任涉及新闻对话机器人的具体使用者,包括新闻机构、媒体平台及普通用户。新闻机构与媒体平台应承担起内容审核与运行监督的主体责任,确保机器人输出内容真实可靠、合乎伦理并符合法律规范;用户则需在使用过程中保持批判性思维,通过反馈与质询参与对潜在伦理风险的纠偏。其三,制度责任强调政府、行业协会与监管机构在后人类新闻伦理治理中的关键角色。这些主体可通过法律法规与行业规范,要求相关技术公司与新闻机构披露新闻对话机器人介入新闻决策的程度、目的与具体流程,从而为公众监督、社会审议与法律问责提供制度基础。

此外,鉴于新闻对话机器人行动可能带来的系统性风险,其权属与运营主体还应建立相应的“道德减震机制”,即在制度层面预先设计应急修正与补偿方案,以应对机器人介入新闻事件可能对个体或社会造成的实际损害,从而在技术创新与伦理责任之间形成必要的缓冲与制衡。

五、结语:以人的主体能动性回应后人类新闻伦理困境

科技变革在推动社会发展的同时,亦不可避免地对个体生活形态与社会文化结构造成冲击,并由此重塑人们的技术观、价值观与伦理观。正如本文所揭示的,新闻对话机器人的介入,为新闻生态的持续熵增与结构重组提供了新的可能性。在机器逻辑日益占据主导地位的后人类新闻业情境中,有必要重申“新闻是人的事业”这一根本价值立场,将新闻责任重新锚定于人的能动性(human agency)、判断力与公共使命之中。

因此,后人类新闻伦理的重建不应回避技术现实,而应以“人类行动者—非人行动者”的协同关系为逻辑起点,致力于在技术理性与新闻生态健康、可持续发展的伦理目标之间建立动态平衡。

具体而言,这一重建路径需要通过两条并行的行动逻辑加以推进:一是面向非人行动者的行动设计优化,通过价值嵌入与制度约束规范其运行边界;二是强化人类行动者的主动行动纠偏,确保关键判断与价值抉择始终掌握在人类手中,从而维护人类在新闻实践中的主导地位。这一立场并非否认非人新闻行动者的能动性,而是在承认其技术能动性的前提下,通过制度与设计强化人类主体能动性,进而塑造更加负责任的非人行动者。这种“负责任”的核心意涵在于“以人为本、以社会为基础”,强调在技术逻辑的设计与应用过程中兼顾公平、包容、信任、隐私、可持续性与可解释性等关键价值。[36]正是在这一价值框架之下,后人类新闻伦理才能为应对高度不确定的技术未来提供一种稳定而审慎的规范承诺。

进一步而言,后人类新闻伦理的实践落实,还意味着新闻生产范式从单一主体责任模式向多层级责任网络的转变。在智能算法、数据平台与自动化内容生成系统深度嵌入新闻流程的背景下,新闻责任已不再仅由记者或媒体机构单独承担,而是扩展为涵盖技术设计者、平台运营者与算法治理机制在内的复合性责任结构。这种责任结构的变化要求新闻伦理从传统的职业规范导向,转向涵盖技术生命周期的全过程伦理治理,即在技术研发、部署应用与社会反馈各环节中持续进行伦理评估与风险校正。同时,公众也不再只是被动的信息接受者,而逐渐成为新闻生态中的参与性行动者,其媒介素养、数据意识与监督能力直接影响新闻系统的运行质量。因此,后人类新闻伦理的生成过程,本质上是一种开放性的协商实践,需要通过制度化对话机制不断协调技术效率、商业逻辑与公共价值之间的张力。在这一过程中,伦理不再只是事后的规范约束,而成为嵌入新闻技术基础设施与社会协作关系之中的前置性原则,从而为人机协同条件下新闻实践的长期稳定运行提供制度与价值支撑。

总而言之,对后人类新闻伦理的重思,实质上是在扬弃传统新闻伦理的基础上完成一次范式层面的再定位。它不仅回应了人机共存、多元行动者并置的现实处境,也为后人类新闻实践提供了一套跨越人机边界的伦理框架,从而为新闻信任的重建、责任的合理分配以及多主体协同治理机制的形成奠定规范基础。面向后人类新闻业的未来,人类行动者仍需持续发挥主体能动性,对新闻实践中不断涌现的不确定性情境做出积极而审慎的回应,以坚定而反思性的姿态推动技术进步与伦理规范的协同演化。唯有在新闻从业者、技术开发者、政策制定者与社会公众的共同参与和协力推动下,后人类新闻业方能朝着更加健康、有序与可持续的方向发展。

【本文为广东省社科联2025年度“三类基地”专项课题(批准号:25JDZX02)成果】

参考文献:

[1]常江,刘松吟.后人类新闻:内涵、认识论与能动现实主义[J].当代传播,2024(05):11-16.

[2] BBC News Labs. Bots[EB/OL]. (2020-08-25) [2025-12-08]. https://www.bbc.co.uk/rdnewslabs/projects/bots/.

[3] Esposito E. Artificial Communication: How Algorithms Produce Social Intelligence[M]. Cambrige:MIT Press, 2022:68-69.

[4] Perreault G, Ohme J. ChatBots as artificial intermediaries? Adaptation to artificial intelligence in newsrooms[J]. Journalism Studies, 2025,26(15):1914-1935.

[5] Andrejevic M, Fordyce R, Li L, et al. Automated culture: Introduction[J]. Cultural Studies, 2023,37(1):1-19.

[6] Maslejn, Fattorini L, Perraultr, et al. The AI Index 2025 Annual Report[EB/OL]. Stanford, CA: AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, (2025-04) [2025-11-18]. https://hai.stanford.edu/ai-index/2025-ai-index-report.

[7] UNESCO. Recommendation on the ethics of artificial intelligence [EB/OL].(2021-11-25) [2025-09-22].https://www.unesco.org/en/artificial-intelligence/recommendation-ethics.

[8]肖巍.“以人民为中心”的中国科技伦理治理之路[EB/OL].(2025-08-25) [2025-10-22].https://www.cssn.cn/skgz/bwyc/202508/t20250825_5912248.shtml.

[9]工业和信息化部科技司.工业和信息化部等部门公开征求对《人工智能科技伦理管理服务办法(试行)》的意见[EB/OL]. (2025-08-07) [2025-10-23].http://www.miit.gov.cn/jgsj/kjs/jscx/gjsfz/art/2025/art_092a447008f340d3abd55819b8c8e5cf.html.

[10]庞华,张凯歌.由技术想象迈向关系技术:虚拟机器人嵌入数字新闻生态的在地实践与情感唤醒[J].中国出版,2024(20):10-17.

[11] Ellul J. The Technological Society[M].London:Vintage, 1954:133-137.

[12]常江,王鸿坤.当人工智能拥有想象力:从后人类媒介到新文艺复兴[J].现代传播(中国传媒大学学报),2024,46(10):79-87.

[13] Schudson M. Reluctant stewards: Journalism in a democratic society[J]. Daedalus, 2013,142(2):159-176.

[14] Dodds T, De Vreese C, Helberger N, et al. Popularity-driven metrics: Audience analytics and shifting opinion power to digital platforms[J]. Journalism Studies, 2023,24(3):403-421.

[15] Resendez V, Araujo T, Helberger N, et al. Hey Google, what is in the news? The influence of conversational agents on issue salience[J]. Digital Journalism, 2025,13(4):774-796.

[16] Haraway D J. Simians, cyborgs, and women: The reinvention of nature[M]//Haraway D J. A Cyborg Manifesto: Science, Technology, and Socialist-feminism in the Late Twentieth Century. New York: Routledge, 1991:149-181.

[17] Zelizer B. When facts, truth, and reality are God‐terms: on journalism's uneasy place in cultural studies[J]. Communication and Critical/Cultural Studies, 2004,1(1):100-119.

[18]杨奇光,张宇.生成式人工智能新闻生产的边界——基于AI新闻评论文本语态与幻觉风险的考察[J].新闻记者,2025(09):21-36.

[19] Ja?wińska K, Chandrasekar A. We compared eight AI search engines. They’re all bad at citing news[EB/OL]. (2025-03-06)[2026-01-08]. https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php.

[20] Roth E. AI chatbots are distorting news stories, BBC finds [EB/OL]. (2025-02-11)[2025-10-22]. https://www.theverge.com/news/610006/ai-chatbots-distorting-news-bbc-study.

[21] Gillespie T. The relevance of algorithms[J]. Media Technologies: Essays on Communication, Materiality, and Society, 2014,167(2014):167.

[22] Eksterowicz A J, Roberts R, Clark A. Public journalism and public knowledge[J]. Harvard International Journal of Press/Politics, 1998,3(2):74-95.

[23] Dodds T, Zamith R, Lewis S C. The AI turn in journalism: Disruption, adaptation, and democratic futures[J]. Journalism, 2025:14648849251343518.

[24] Th?sler-Kordonouri S, Koliska M. Journalistic agency and power in the era of artificial intelligence[J]. Journalism Practice, 2025:1-20.

[25] Ufarte-Ruiz M J, Murcia-Verdú F J, Tú?ez-López J M. Use of artificial intelligence in synthetic media: First newsrooms without journalists[J]. El Profesional de la información, 2023,32(2).

[26] Thomson Reuters Foundation. Journalism in the AI Era: Opportunities and challenges in the Global South and emerging economies [EB/OL].(2025-01-28) [2025-11-10].https://www.trust.org/wp-content/uploads/2025/01/TRF-Insights-Journalism-in-the-AI-Era.pdf.

[27] Lewis S C, Guzman A L, Schmidt T R. Automation, journalism, and human–machine communication: Rethinking roles and relationships of humans and machines in news[J]. Digital Journalism, 2019,7(4):409-427.

[28]闫桥,陈昌凤.人机协同内容生产中的边界问题:何以建构、消融与重塑[J].青年记者,2025(07):12-18.

[29] Ja?n. AP. Conservative activist Robby Starbuck sues Meta over AI responses about him[EB/OL]. (2025-04-30) [2026-01-20]. https://apnews.com/article/robby-starbuck-meta-ai-delaware-eb587d274fdc18681c51108ade54b095.

[30]梁轩,吴飞.认知混合:转向多元行动者的数字新闻认识论[J].国际新闻界,2025,47(9):27-48.

[31]常江,王鸿坤.想象有道德的AI新闻业:机器伦理启示与价值对齐路径[J].山西大学学报(哲学社会科学版),2025,48(1):79-87.

[32]刘松吟.“行动者网络”之后:数字新闻研究中的行动者转向与再定位[J].新闻界,2024(10):28-37.

[33]曲蓉.人工道德能动性的伦理证成:传统观点到开放立场[J].中州学刊,2025(06):118-126.

[34] Russell S J. Human Compatible: Artificial Intelligence and the Problem of Control [M]. New York: Viking, 2019:9-10.

[35] Shin D, Zhou S, Rasul A. Towards responsible AI journalism: Mapping journalists’ perceptions of AI ethics[J]. Journalism, 2025:14648849251363045.

[36] Schiff D, Rakova B, Ayesh A, et al. Principles to practices for responsible AI: Closing the gap[J]. arXiv preprint arXiv:2006.04707,2020.

本文引用格式参考:

常江,刘亮.智能新闻伦理检视:基于新闻对话机器人生态角色的分析[J].青年记者,2026(04):64-73.

责任编辑:焦力