人工智能的立法监管,需要有“小步快跑”的迭代思路

很多新事物出现之后需要沉淀一段时间,比如10年的周期,跨度才会显现。大家对问题有了深切的感知,而且没有很强的技术背景,这种情况下出台一个法律,哪怕是带牙齿的法律,大家也不反对。但是人工智能发展速度太快,在这种时候,如果着急立法,一个是可能跟不上节奏,一个是可能效果会有限。

责任编辑:李屾淼

2026年4月27日,国家发展改革委发布《外商投资安全审查工作机制办公室(国家发展改革委)对外资收购Manus项目作出安全审查决定》,依法依规对外资收购Manus项目作出禁止投资的决定,要求当事人撤销该收购交易。这是中国首例被公开叫停的人工智能领域外资收购案,也释放出一个重要信息:涉及关键技术的企业,在资本退出路径上需要更加重视国家安全审查要求。

对人工智能关键技术与核心数据的安全把控,是当前全球主要经济体的普遍共识。人工智能大模型的训练依赖海量数据,因此,各国都对人工智能企业在收集、处理和使用训练数据时,提出了维护本国数据安全审查和主权合规的要求。

欧盟颁布的《人工智能法案》对训练数据的隐私、偏见和版权提出了目前全球最严的要求,但2025年欧盟又通过《数字综合法案》,放宽了对模型训练数据的处理和使用限制,旨在提升欧盟AI产业的创新活力。

2026年3月,美国白宫发布了《国家人工智能立法框架》。与2023年10月拜登政府的人工智能行政令相比,这份立法框架的核心理念从“安全、可靠、值得信赖”转向了“创新主导、赢得人工智能竞赛”,主张通过放权增效,来确保美国在全球人工智能竞赛中的主导地位。这被视为美国从单纯追求技术领先转向系统性建构“全栈式”生态主导权的重要立法建议。

围绕这一框架所引发的争论,恰恰是理解当下全球AI治理路径分化的一个切口,今天的人工智能治理,已经从技术议题上升为涵盖国家安全与国际规则塑造的综合性战略能力。

就此,《南方人物周刊》与全球人工智能创新治理中心秘书长、复旦大学发展研究院副研究员姚旭进行了对话。姚旭分析了中、美、欧盟在人工智能法规及治理方面的不同处境和解决方式,并强调需要重视人工智能可能进一步加剧全球不平等及数字鸿沟的风险。

全球人工智能创新治理中心秘书长、复旦大学发展研究院副研究员姚旭(图:受访者提供)

全球人工智能创新治理中心秘书长、复旦大学发展研究院副研究员姚旭(图:受访者提供)

美国人工智能立法框架:国内共识未成,全球输出尚远

南方人物周刊:几年前欧盟发布的《通用数据保护条例》(GDPR)的核心理念得到全球普遍认可,这次特朗普政府发布的《国家人工智能立法框架》,有可能建立新的共识吗?

姚旭:不太可能,甚至这个框架能否在美国国内取得共识还未可知。这个框架主张的“联邦优先权”和“预先排除”,废除了美国各州在人工智能领域的监管权限,直接挑战了美国联邦制的传统权力分配,引发了加州等科技前沿州的反弹,甚至在共和党内部也因触及“州权保守主义”而产生严重分歧。像加州在前几年已经颁布《消费者隐私保护法》,这是比较超前的数字立法实践。

其次,这个框架带有浓厚的党派意识形态色彩。特朗普及共和党放松监管的趋势,在民主党和传统左翼看来非常异端,与民主党政府此前强调的“安全、可靠、值得信赖”及反垄断监管理念背道而驰,被批评过度偏袒大型科技资本,压缩了公众的隐私和救济空间,而且未能有效回应劳动力市场对人工智能替代就业的结构性焦虑。

此前,中美科技竞争虽然非常激烈

登录后获取更多权限

立即登录

校对:赵立宇

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}