“龙虾”风险警示:AI可以“聪明”,但不能没有边界
大众新闻 王嘉一 2026-03-13 12:23:37原创
近期,工信部发布了一则关于“龙虾”(OpenClaw)的安全风险提示。
工信部指出,OpenClaw在部署时“信任边界模糊”,且具备自身持续运行、自主决策、调用系统和外部资源等特性,在缺乏有效权限控制、审计机制和安全加固的情况下,可能因指令诱导、配置缺陷或被恶意接管,执行越权操作,造成信息泄露、系统受控等一系列安全风险。
中国信息通信研究院副院长魏亮也在采访中表示,“龙虾”存在不少风险隐患,党政机关、企事业单位和个人用户要审慎使用“龙虾”等智能体。

“龙虾”最近可谓是冲上了风口浪尖。
地方政府有政策。几天前,深圳市龙岗区人工智能(机器人)署发布《龙岗区支持OpenClaw&OPC发展的若干措施(征求意见稿)》(“龙虾十条”),紧接着又是无锡高新区的《关于支持 OpenClaw 等开源社区项目与 OPC 社区融合发展的若干措施(征求意见稿)》(“养龙虾12条”),为使用OpenClaw提供支持,大力鼓励AI产业发展。
科技企业也在跟进。腾讯云、百度智能云、华为云等平台已经上线OpenClaw的一键部署或云端托管方案,帮助开发者快速搭建智能体服务;腾讯还尝试将OpenClaw接入企业微信等办公生态,并推出类OpenClaw产品WorkBuddy;字节跳动则通过火山引擎推出SaaS化的ArkClaw......随着多家企业入局,围绕OpenClaw形成的智能体生态正在快速扩展。
腾讯CEO马化腾在朋友圈转发腾讯全系“龙虾”矩阵产品相关内容
点开社交媒体,关于OpenClaw的讨论俯拾皆是。有人说,OpenClaw是这个时代的风口,我们必须抓住机遇;也有人说,OpenClaw风险很大,并不适合一般人参与。
真相究竟如何?让我们先从一个问题开始——OpenClaw为什么能迅速出圈?

越像人,越迷人
和我们熟悉的“问答式”AI不一样,OpenClaw是一个长期在线的自托管AI助手系统。
它可以持续运行在你的设备或服务器上,保留上下文和配置,随时准备接手任务。你可以把它理解成一个一直在线的“后台助理”,而不只是一个临时拿来聊天的工具。
它可以接入你的聊天软件,你给它发过去一条短信,它会确认目标、自动拆解步骤、自主按照步骤执行、完成任务。
用一个比喻来讲,我们熟悉的AI只有“大脑”和“嘴”,而OpenClaw让它长出了手脚。
OpenClaw之所以会迅速出圈,恰恰是因为它碰到了AI真正有价值的那一层:不是陪你聊天,不是逗你玩,而是替你处理现实世界里的事情。

过去,人们对AI的印象更多停留在“能回答问题”“能写点东西”“能生成图片”。它当然已经很强,但本质上仍然是一个被动响应的工具:你问一句,它答一句;你让它写一段,它生成一段。它更像一个随叫随到的顾问,而不是一个真正能进入生产生活流程、替人分担任务的助手。
但OpenClaw不一样。它开始尝试把AI从“会说”推进到“会做”。它可以长期在线,可以保留上下文,可以接收你的指令后自己拆解任务、调用工具、连接系统、持续执行。猎豹 CEO 傅盛就提到,他用 OpenClaw 搭建了一支由 8 个智能体组成的自动化团队,一夜之间就能搭起一个网站;如果由员工来做,可能需要 6 个人花三周时间,成本约 15 万元。
AI不再只是一个回答问题的接口,而开始具备了接近“行动能力”的东西。
而这背后是一个非常朴素的逻辑:AI必须足够像“人”,才有可能真正服务于“人的社会”。
这里说的“像人”,不是指外形或情绪,而是指更接近人类智力的综合能力:理解模糊目标、识别上下文、分解复杂任务、调用已有资源,并在执行中动态调整。没有这些能力,AI就只能停留在零散、局部、片段化的工具层面,最多帮人省一点时间,难以真正进入生产生活的深层流程。
换句话说,AI要真正改变生产力,不能只靠“会背知识”“会生成文字”这种低层能力,而必须具备更高水平的理解、规划、推理与执行能力。因为现实世界的任务并不是固定模板套到底,而是充满模糊、例外、变化和不确定性。只有能处理这种复杂性,AI才可能真正把便利带进人类社会。
从这个意义上说,AI追求更高智力,不仅合理,而且必要。没有高度接近人类智力的能力,所谓“智能体”“数字员工”“个人AI助理”都只能停留在概念和演示层面,无法成为真正可用的基础设施。

守好边界比聪明更重要
任何事情都具有两面性,AI的发展也不例外。
AI越来越具有接近于人类智力的能力。从一方面讲,它能给人类社会做出的贡献更多;从另一个角度讲,它一旦出现问题,造成的破坏也就越大。
过去,一个普通问答式AI说错一句话,后果往往只是信息错误;而一个具备调用权限、持续运行、自动执行能力的智能体,一旦理解偏差、权限失控、边界模糊,造成的就可能是真实的信息泄露、资产损失、业务中断,甚至是一系列连锁风险。
前不久,OpenClaw 就已曝出公开漏洞。美国国家漏洞数据库收录的 CVE-2026-27004 显示,在某些多用户共享部署场景中,OpenClaw 的会话工具可能暴露其他用户的会话记录。这意味着,原本被当作卖点的“持续会话”“长期记忆”,一旦边界划分不清,就可能反过来成为信息泄露面。
这也是为什么,AI追求“高智商”,并不意味着可以无边界发展,更不意味着可以不设红线地一路放权。
一个能调用系统权限、能代表用户执行动作的智能体,本质上已经部分进入了社会分工体系。既然进入现实世界,就不能只讲效率,不讲约束;只讲能力,不讲规则。
从某种意义上说,边界感甚至比聪明度更重要。因为聪明决定的是“它能做多少事”,而边界决定的是“它能不能被安全地用”。如果没有边界,再强的能力也无法真正沉淀为稳定生产力。一个今天能帮你安排行程、回复邮件、调度文档的智能体,明天也可能因为一条恶意指令、一次错误配置、一个权限漏洞,把你的系统变成风险入口。这样的技术也许很炫,但它无法成为社会愿意长期接纳的基础设施。

这并不是在给AI“泼冷水”,而是在为AI真正进入现实铺路。任何一种通用技术,要大规模落地,都不只靠能力突破,也靠边界建立。汽车之所以能成为现代社会的基础设施,不只是因为它跑得快,更因为有交通规则和责任认定;金融工具之所以能大规模运转,也不只是因为它提高了资金效率,更因为它被纳入了审计、监管和风控框架。AI也是一样。它越强,越要被纳入明确的权限体系、审计机制和安全规范之中。否则,能力越强,失控时的代价也越高。
换句话说,AI当然可以越来越聪明,但不能因为聪明,就被默许“什么都能做”;也不能因为能做事,就跳过安全、治理和规则建设。
对于正在快速升温的智能体产业来说,真正的成熟,不仅是让AI越来越像人,更是让它在接近人的同时,始终处于可控、可审计、可约束的框架之内。
这才是“龙虾”风险提示真正值得重视的地方。它提醒我们的,不只是某一个产品的安全隐患,而是整个AI产业在迈向“会做事”时代时,必须补上的一课:能力可以不断提高,但边界不能后置;创新可以继续狂奔,但红线必须先立起来。否则,智能体带来的便利,最终就可能被失控的代价抵消。
(大众新闻记者 王嘉一 策划 周学泽)
责任编辑:叶彤
