两会CSR观察2026丨“龙虾”大火,AI治理更为迫切
人们不只希望听到AI叙事的新素材,更期待产业界探索出一套务实有效的AI治理方案,让AI真正安全、普惠、便捷地服务普通人。
责任编辑:孙孝文
全国两会期间,一只“AI龙虾”火遍全网。
养一只AI龙虾,让它成为你的虚拟助手。这款名为OpenClaw的AI智能体,因具有“主动执行任务”等能力,从科技圈迅速引发普通用户的安装热潮。3月6日,在深圳腾讯大厦楼下,千人排队安装OpenClaw。安装服务甚至成为一门生意,在社交媒体有人声称代装OpenClaw日赚万元。
地方政府也迅即下场。3月7日,深圳龙岗区出台被称为“龙虾十条”的《支持OpenClaw&OPC发展的若干措施(征求意见稿)》。3月9日,江苏无锡高新区发布《关于支持OpenClaw等开源社区项目与OPC社区融合发展的若干措施(征集意见稿)》,从基础资源、产业应用、人才引进到安全合规等方面给予支持。
从对话聊天到执行任务,更聪明的OpenClaw为人们带来了AI服务人类日常工作生活的新想象。但风险担忧也随之加深:调用系统资源是否更易造成信息泄露?“自主执行”带来的责任问题谁来承担?
早在2月5日,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)发布信息显示,监测发现OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄漏等安全问题。
AI风险治理迫切
针对AI技术安全和AI社会化应用带来的风险,在全国两会期间,多名代表委员提出治理建议。
健全人工智能标准体系。全国人大代表,海尔集团董事局主席、首席执行官周云杰认为人工智能的发展带来了多个层面的挑战。在技术层面,存在技术滥用与责任主体缺失的问题;在场景层面,全球文化差异与行业多样性增加治理复杂性;在体系层面,存在人工智能治理体系适配性与协同效能不足的问题。为此,周云杰建议,除了加强技术源头防控,构建共治生态外,还需要健全人工智能标准体系,明确多元治理责任,建立分级分类、风险导向的管理体系,鼓励重点行业联盟牵头制定垂直领域安全与伦理专项标准及实践指南。
强化平台治理责任。AI漫改影视作品引发的侵权问题,AI换脸和深度伪造带来的欺诈问题一直是AI风险的重灾区。全国政协委员、知乎创始人兼CEO周源建议,针对AI漫剧生产速度快、上线周期短的特点,建议由版权管理部门牵头建立侵权快速处置机制,建立AI生成内容侵权快速处置绿色通道,并配套建立与收益挂钩的处罚机制、规范平台竞争行为,防止滥用市场优势等手段。
全国政协委员、湖北第二师范学院院长郑军关注到人工智能应用在老年群体中的安全问题。他指出“当前,涉老侵权形态随AI技术迭代发生质变,AI换脸拟声冒充亲属诈骗频发,私域直播间利用情感渗透实施‘软性洗脑’,APP长辈模式藏诱导设计,老年人生物信息被非法采集牟利等问题凸显。”对此,郑军建议构建“打击+监督+预防+治理”四位一体的法治护老体系。在协同治理上,他认为应推动平台完善涉老内容审核标准,联合网信、市场监管等部门整治情感营销乱象。
加快AI素养培育。AI风险治理需要提供者和使用者共同提高对AI的理性认识,在公众层面提升AI素养是治理AI应用风险的重要一环。全国人大代表、58同城董事长兼CEO姚劲波建议在全国范围内实施“全民AI技能与素养提升行动”,将其纳入数字中国建设、就业优先战略和教育现代化整体布局,推动形成人人能用、会用、善用、安全用AI的社会基础能力体系。在2025年全国两会期间,全国人大代表、科大讯飞董事长刘庆峰也曾建议增加人工智能通识课,将AI能力纳入新课标。
企业实践更需向前
过去一年,在人工智能风险治理方面,政策和企业都有新的进展。
政策方面,2025年3月,《人工智能生成合成内容标识办法》发布。作为配套,强制性国家标准《网络安全技术人工智能生成合成内容标识方法》也同步发布。这一办法对AI生成内容的标识方法提出要求,通过显式标识明确“哪些内容是生成的”,通过隐式标识明确“是谁生成的”和“由谁传播的”,明确了人工智能生成合成内容的全生命周期中网络信息服务提供者等不同主体的合规责任,以降低虚假信息传播风险。
企业方面,科技伦理、智能向善成为头部科技企业的社会责任议题。2025年,在南方周末CSR研究中心针对60家互联网科技企业的调研中,48%的企业披露了科技伦理相关议题。在科技伦理治理方面,企业通常采取三方面举措。一是设置内部治理组织,统筹人工智能治理工作,如阿里巴巴、百度等企业成立了科技伦理委员会。二是发布内部准则指引,指导具体实践,如商汤科技发布了产品伦理风险评审指引,蚂蚁集团出台了生成式人工智能大模型及应用管理规范。三是尝试将智能向善的理念落实到具体的产品研发中,如荣耀发布产品向善特性一览图,联想集团、TCL科技等企业建立ESG产品技术研发平台。
尽管如此,与AI技术演进速度和应用规模相比,公众对AI风险的认知和企业对AI风险治理仍然不足。
截至2025年12月,我国生成式人工智能用户规模达6.02亿人,累计有748款生成式人工智能服务完成备案。然而,中国信息通信研究院人工智能研究所的测试数据显示,当前大模型均存在较为严重的幻觉问题,语言大模型幻觉输出率在10%以上,多模态大模型幻觉输出率在30%以上。
中国互联网协会副秘书长戴炜在接受南方周末CSR研究中心访谈时曾表示,当AI以指数级速度赋能千行百业时,相应的伦理审查、算法审计、影响评估等治理体系与专业人才储备仍存在显著缺口。
AI创新浪潮浩浩荡荡,2025年春节前夕DeepSeek横空出世,2026年两会期间OpenClaw火爆全网,我们有理由相信“龙虾”的热度也会被下一个AI新物种替代。而在一次次技术迭代中,人们不只希望听到AI叙事的新素材,更期待产业界探索出一套务实有效的AI治理方案,让AI真正安全、普惠、便捷地服务普通人。
校对:赵立宇