“养龙虾”热潮背后:开源AI智能体的失控危机与合规拷问
企业与个人在拥抱生产力跃升的同时,正面临前所未有的数字主权让渡与合规真空危机。在搞清楚它的运行逻辑、风险隐患之前,要做好随时解雇这位“实习生”的准备。
责任编辑:孙孝文
忽如一夜“龙虾”风来。
3月10日晚,国家互联网应急中心发布风险提示:开源AI智能体项目OpenClaw(曾用名Clawdbot、Moltbot)已公开曝出多个高中危漏洞。一旦被恶意利用,可能导致系统被控、隐私泄露等严重后果,多个适用于OpenClaw的功能插件也已被确认为恶意插件或存在潜在的安全风险等。
这个图标形似龙虾的AI智能体,在过去几周内以病毒式速度风靡互联网。从微信群传阅的“养虾指南”到拆解变现的付费课程,再到3月6日腾讯大厦门口,数百名AI爱好者与开发者自发聚集,在工程师的协助下现场完成了OpenClaw的云端部署。紧接着,深圳、无锡等地陆续出台的专项扶持政策,希望通过扶持来锚定“AI+制造”的新赛道。这场“养龙虾”的热潮跑得太快,快到参与者尚未看清其全貌,便已一头扎进浪潮。
不可否认,OpenClaw具备整合多渠道通信、持久记忆与自主执行的底层能力,这是AI向生产力工具建设的关键步骤。然而,我们必须警惕:这份政策善意与技术红利,绝不该被异化为企业赚快钱、收割流量的温床。真正的技术普惠,首先要求其回归产业价值,而非沦为一场透支公众信任的数字投机。
让渡的数字主权
坊间流行将OpenClaw比作AI“实习生”。这个比喻极具误导性,甚至掩盖了技术伦理中的核心矛盾:人类主体性的丧失。
通常,人类实习生处在明确的伦理、制度与法律约束之下,拥有可预测的行为边界。而OpenClaw这类智能体,本质上是一个要求最高系统权限的自主执行程序。使用它,意味着你必须允许它读取本地文件、接管账号密码甚至执行系统级命令。这并非在雇佣员工,而是在转让数字主权。
更关键的是,这类智能体缺乏人类干预的断路器。这意味着,一旦攻击者控制了这个“实习生”,便等同于获取了该智能体被授权访问的所有系统的最高控制权,涵盖企业邮箱、云端文档、内部系统命令乃至核心财务账户。
过往的AI使用案例也屡敲警钟。早在2023年,三星设备解决方案(DS)部门启用聊天机器人ChatGPT 20多天,就闹出了3起数据泄露事故,导致半导体设备测量、良品率/缺陷、内部会议内容等相关信息被上传到ChatGPT的服务器中。
将核心生产力让渡给一个“黑盒”,无异于一场豪赌。这种担忧并非空穴来风,一位Meta公司的高管近期向《连线》(Wired)杂志表示,他最近告知团队成员,不得在日常工作笔记本电脑上安装OpenClaw,否则将面临失业风险。
责任真空:被滥用的技术中立
AI智能体的发展固然值得鼓励,但OpenClaw赖以生存的插件生态尚处于“蛮荒期”。不少用户在追求效率的同时,却陷入了成本陷阱与信息茧房:Token消耗按场景分级收费,轻量化工具与大规模编程需求分属不同定价体系;还有行业人士完成部署后发现,由OpenClaw抓取信息生成的每日简报,出现“查无此文”的AI幻觉。
比产品缺陷更深层的危机,在于开发主体的责任缺位。部分平台奉行技术中立,有业内人士直言,“安不安全是用户该考虑的事情”。但是,当下OpenClaw若与Scrapling等网络爬虫功能结合,能够抓取隐蔽性强、适应性高的网站数据,且在目标网站更新结构时依然畅通无阻。这一功能一旦被滥用,极易触发非法获取数据的高压线。
这种将合规风险一概转嫁给用户的论调,也显然背离了全球科技界的治理共识。纵观经合组织(OECD)及全球主流科技界近年来的倡议,再到中国在2019年便发布了《新一代人工智能治理原则——发展负责任的人工智能》,“负责任的AI”(Responsible AI)早已被确立为AI治理的核心原则。在这一框架下,数据安全、透明度、隐私保护与责任追溯,是不可逾越的及格线。
尽管针对AI智能体的新兴规制法条仍在探索中,但法律的底线也早有定论。《中华人民共和国网络安全法》明确划定:任何个人和组织不得从事非法侵入他人网络、干扰他人网络正常功能、窃取网络数据等危害网络安全的活动。
开源精神的核心是技术共享,而非责任逃避。相关技术主体若缺失必要的合规约束与指引,无异于将高风险的数字盲盒放任流向市场。这种对安全责任的收缩,不仅直接威胁网络数据与产业链的安全,更可能对国家安全构成深远的潜在隐患。
拒绝野蛮生长:走向“负责任”的AI创新
我们必须清醒地意识到,OpenClaw绝不会是最后一个掀起热潮的开源智能体。随着大模型能力的涌现,人工智能正经历从“只会说”到“能够做”的转变,具备自主执行能力的AI智能体,无疑是迈向通用人工智能(AGI)的重要方向。未来的智能体将更加隐蔽、自主,也更深度地嵌入人类社会的齿轮。
然而,发展潜力的释放,必须夯实于安全可控、合规合法的基础之上。这场席卷全网的“养龙虾”热潮,恰是对产业链上下游所有参与主体的一次集中压力测试。面对终将到来的“智能体大爆发”,跳出单一产品的修补,建立一套前瞻性的系统治理框架已是刻不容缓的时代命题。
在这场数字治理的博弈中,没有人是一座孤岛。监管部门的职责,是在包容创新与审慎控险之间,踩准那道动态平衡的红线。技术平台亦需坚守本位:商业变现的冲动,绝不能跑在责任底线之前。真正的AI向善,是让技术在极速演进的节奏中,依然保有守护常识的温度与分寸。与此同时,面对大量用户在缺乏安全认知下过度授权的现状,行业亟需共同承担起科技普惠背后的教育责任。
对于每一个普通人而言,在彻底厘清智能体的运行逻辑与风险隐患之前,保持审慎的警惕与清醒,是保护自身数字领地的最后防线。面对看似万能的AI助手,随时做好“解雇”这位AI实习生的准备,才是当下最理性的选择。
是任其野蛮生长,还是走向负责任的创新?答案已不言自明:脱离了责任底座的技术狂飙,注定行之不远。
参考资料
1. Wired,Meta and Other Tech Firms Put Restrictions on Use of OpenClaw Over Security Fears,2026 年 2 月 17 日
2. OECD, Recommendation of the Council on Artificial Intelligence,2019年5月22日
3. 科技部,新一代人工智能治理原则——发展负责任的人工智能,2019年6月17日
4. 中华人民共和国网络安全法(2025年修正),2026年1月1日起施行
校对:赵立宇