这款爆红AI暗藏高危风险,机关单位使用务必警惕!

保密观    2026-03-03 10:07:06

2026年初,一个名为OpenClaw的开源项目正快速重塑人工智能的边界。自2026年1月下旬以来,来自中国IP地址的下载量急剧攀升,项目的中文文档日均页面浏览量已超过所有其他非英语语言。这款工具的广泛应用也在全球范围内引发了关于隐私边界与数字风险的激烈讨论。

近期,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)发布《关于防范OpenClaw开源AI智能体安全风险的预警提示》,文章指出平台监测OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。

今天,“保密观”与你一起了解相关案例,探讨AI智能体使用的注意事项。

网络安全专家被AI删光邮件

OpenClaw(曾用名Clawdbot、Moltbot)是一款开源AI智能体,其通过整合多渠道通信能力与大语言模型,构建具备持久记忆、主动执行能力的定制化AI助手,可在本地私有化部署。

ChatGPT等传统对话AI带来的最大痛点在于,用户必须亲自执行“复制与粘贴”。与之相比,OpenClaw的定位是“做事”而非“聊天”,这意味着它必须获得很高的系统权限,才能操控本地文件和应用。OpenClaw一旦获得授权,就可自主浏览网页寻找底价、撰写并发送邮件、安排日历行程,甚至在没有人类干预的情况下完成复杂的在线购物与支付。 

由于OpenClaw在部署时“信任边界模糊”,且具备自身持续运行、自主决策、调用系统和外部资源等特性,在缺乏有效权限控制、审计机制和安全加固的情况下,可能因指令诱导、配置缺陷或被恶意接管,执行越权操作,造成信息泄露、系统受控等一系列安全风险。

据《每日经济新闻》报道,澳大利亚网络安全公司Dvuln证明了这种风险,该公司发现OpenClaw存在漏洞,攻击者可借此获取用户数月内的私人消息、账户凭证、API密钥等敏感信息,一旦被黑客入侵,“一秒就可以搬空”。

OpenClaw存在的这种风险已引发“防御性关停”。目前,韩国数家科技巨头已正式下达禁令,限制员工在办公设备上使用 OpenClaw。一位行业内部人士透露,这并非不信任AI,而是为了“彻底封锁内部机密被用于训练外部模型的可能性”。 

此外,近期OpenClaw误删邮件的事件在科技圈广泛传播,再次引发用户对OpenClaw安全性的关注。2026年2月23日,Meta公司超级智能实验室的AI安全专家Summer Yue,将OpenClaw接入了自己的工作邮箱,结果这个本该帮忙整理邮件的“数字秘书”当场失控,无视她连续三次的“停止”指令,疯狂删除数百封邮件。

“保密观”有话说

在积极拥抱 AI 工具提升效率的同时,我们也应保持冷静审慎,守护好安全底线,才能让技术真正服务于发展。

对机关单位及企业而言,必须遵守 “涉密不上网、上网不涉密”的核心原则。确有部署和应用OpenClaw需要的相关单位,应充分核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,完善身份认证、访问控制、数据加密和安全审计等安全机制,并持续关注官方安全公告和加固建议,防范潜在网络安全风险。

对于个人用户,要清醒认识到OpenClaw目前仍处于早期阶段,并不适合普通用户直接使用。确有使用需要的个人,应严格限制敏感信息的提供范围,仅向应用提供完成特定任务所必需的基础信息,坚决不输入银行卡密码、股票账户信息等核心敏感数据。在使用应用整理文件前,应主动清理其中可能包含的身份证号、私人联系方式等隐私内容,避免无意泄露。  

(保密观)

责任编辑:张宝帆