ESG展望2026丨从风险治理到AI向善

“十五五”规划建议对推动人工智能发展的表述出现明显变化,除了强调技术创新外,增加了加强人工智能治理、完善相关应用规范和伦理准则等表述。政策不再只是“踩油门”,而是开始考虑“方向盘”和“刹车”问题。

责任编辑:孙孝文

2026年新年伊始,多条有关AI的新闻登上网络热搜。

1月10日,在香港举行的高山书院十周年论坛上,国家传染病医学中心(上海)主任张文宏表示,他反对将AI系统性地引入医院的日常诊疗流程。他解释,如果年轻医生从实习阶段就未经完整的诊断思维训练,直接借助AI获得结论,那么将导致其无法鉴别AI诊断的正误。将AI引入病历系统会改变现有的医生培养体系。

1月14日,AI虚拟陪伴软件AlienChat涉黄案件,在上海市第一中级人民法院二审开庭。但因AI大模型技术原理仍待论证,法院最终宣布休庭,择日再审。如何确定AI涉黄是开发者的“主观故意”?开发者、用户、AI系统,谁该对AI软件生成的涉黄内容负责?这起案件在公众和法律界引发热议。

无论国内还是国外,人工智能引发的风险担忧和人工智能在社会化应用中所发生的风险事件正引起广泛关注和讨论。开展人工智能安全治理,倡导智能向善成为国际社会的普遍共识。2025年,我国参与和签署了巴黎人工智能宣言、金砖国家领导人关于人工智能全球治理的声明、人工智能全球治理行动计划等多项有关AI治理的国际合作倡议,这些倡议不仅聚焦于技术风险管控和伦理约束,而且重申了“人工智能也可以是造福人类的国际公共产品”这一重要判断。

然而,现实情境往往更为复杂。如何把控技术创新与发展安全的尺度?如何认识智能向善的概念内涵?如何将智能向善理念切实贯穿到AI开发测试、应用部署的环节之中?在ESG和AI成为投资市场热点的当下,如何认知两者之间的关系?

南方周末就上述问题对学界和业界的多位代表进行了访谈,希望在“十五五”开局之年,与各方共同探讨智能向善的实践路径。

政策演进:从“踩油门”到“把方向”

“十四五”以来,我国人工智能技术和产业飞速发展,AI大模型涌现加速了人工智能与各行各业的融合。产业发展与政策的鼓励支持密不可分。在“十四五”规划中,新一代人工智能被列入“科技前沿领域攻关”,并提出培育壮大人工智能、大数据、区块链、云计算、网络安全等新兴数字产业。

进入“十五五”时期,政策对于推动人工智能发展的表述出现变化。2025年8月,国务院关于深入实施“人工智能+”行动的意见,提出“深入研究人工智能对人类认知判断、伦理规范等方面的深层次影响和作用机理,探索形成智能向善理论体系,促进人工智能更好造福人类。”2025年10月发布的“十五五”规划建议稿则在强调技术创新的基础上提出“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。”

政策演进在年度中央经济工作会议中也可窥见一斑。2024年底召开的中央经济工作会议提出,开展“人工智能+”行动,培育未来产业。2025年底召开的中央经济工作会议则表示,深化拓展“人工智能+”,完善人工智能治理。

北京工商大学经济学院教授郭毅认为,“十四五”期间,政策对于人工智能的发展更多是在“踩油门”,鼓励技术创新和产业壮大。现在人工智能发展进入深水区,政策不仅是踩油门,而且开始考虑产业发展的“方向盘”和“刹车”问题,“应该说,这才是综合的理性的态度。”

中国互联网协会副秘书长戴炜认为,政策表述的演进体现了国家对人工智能发展战略的不断深化与完善,强调“发展”与“治理”并重。他指出,企业应积极看待政策变化,政策为产业明确了“向善”的发展罗盘,当企业清晰认识到资源需投向更符合伦理规范、创造社会福祉的方向时,将极大增强公众对AI技术的整体信任,这正是产业长期发展的基石。

不仅如此,治理要求本身也是创新的催化剂。戴炜表示,对隐私保护、算法公平、安全可靠的迫切需求,催生了“合规科技”等新兴产业方向。“服务于AI伦理评估的工具、大模型能源管理平台等,都可能成为新的战略性增长点。”

产业探索:安全托底,向善牵引

一直以来,政策和产业都侧重强调对AI技术安全治理的重要性,如AI模型的可解释性、训练数据的安全性和合法性等。智能向善议题的提出和广泛讨论,使得有关AI治理的话语体系从传统的“风险治理”扩展到“价值创造”。

“人工智能向善拓展了安全治理的内涵与边界,纳入了算法公平性、技术普惠性等价值议题,为人工智能安全治理指明了方向。”中国信通院人工智能研究所工程师、中国人工智能产业发展联盟人工智能安全治理委员会治理组组长呼娜英认为,AI安全治理与AI向善存在手段与目标的关系。

一方面,人工智能安全治理是实现人工智能向善的前提与底线。呼娜英介绍,过去一年,人工智能风险治理在产业层面正从被动应对加速转向主动防御,实现了三项突出进展:一是治理方案动态化迭代,二是治理工具精细化落地,三是治理合作生态化推进。从技术角度讲,人工智能安全治理通过技术创新与制度体系设计的协同发力,实现AI技术与人类核心价值对齐,为向善实践筑牢了根基。另一方面,人工智能向善是开展人工智能安全治理的愿景与终极目标。从全球范围看,智能向善是更加广泛和宏大的可持续发展议题。联合国以“人工智能向善”为主题举办全球峰会,通过搭建包容性国际对话平台,引领全球人工智能产业朝着普惠、包容、可持续的方向发展,促进实现联合国可持续发展目标。

行业组织积极推动智能向善理念转化为行业行动。戴炜介绍,过去一年,人工智能技术正从专用智能体向具身智能等形态深化,其影响力渗透至社会的每个角落。在这一背景下,智能向善已从伦理愿景,加速转化为关乎产业健康与社会信任的核心实践。2025年,中国互联网协会及其下设的互联网行业社会责任建设工作委员会通过“引领共识、夯实基础、打造生态”三位一体的策略,推动理念转化为行动。

从风险治理到价值创造,企业端的实践也初露端倪。2025年11月,阿里巴巴发布了《AI向善行动报告》,系统披露了阿里对智能向善的思考和阿里在医疗、教育、气候、科研等领域的AI向善探索。

阿里巴巴集团ESG战略负责人刘伟表示,作为AI技术研发和产业发展的头部科技企业,在让AI变得越来越聪明、越来越好用的同时,阿里意识到,让AI变得更善良、让人类可以更加用好AI,是同样重要的事情。刘伟认为,与电力、互联网这样的第一代和第二代通用目的技术相比,AI具有自我演化的潜力,这就决定了,向善和解决发展难题必须是AI发展的第一性原理。

阿里为何在此时发布AI向善报告,刘伟解释,“我们虽然是在2025年完成AI向善报告的,但事实上,早在大模型爆发之前,阿里就已经在AI伦理治理领域进行了持续性投入。”刘伟介绍,阿里巴巴于2022年成立集团科技伦理治理委员会,连续三年发布人工智能治理与实践相关报告,“从负责任的AI到AI向善,这是阿里一脉相承的思考和行动路径。”

面对智能向善这一行业新议题,刘伟表示,阿里不仅鼓励在集团内部开展AI向善的创新实践,也期待和社会各界一起打造一个开源开放的合作生态,共同在全社会范围内推动AI向善的实践和理论探索。

未来挑战:概念存争议,潜力待释放

从国际倡议到国内政策演进,从行业推动到企业探索,呼吁智能向善的声量正在扩大。但挑战同样艰巨。

伦理问题的复杂性,使得无论产业端还是公众端,对智能向善的理解仍然存在争议。郭毅表示,不同的理解在丰富智能向善概念的同时,也产生了概念适用的混乱。他认为,要全面、准确理解智能向善,就要辨析清楚当前对于人工智能究竟存在哪些方面的伦理争议,这是向善的前提。

郭毅认为,AI伦理争议体现在三个层面。第一个层面是AI仅仅作为工具,服务于社会既有的目的,目的本身有相对稳定的善恶判断。这个层面发生的伦理争议,主要是由于人的使用产生的,不是人工智能自身的问题。第二个层面,AI依然作为工具,但在应用过程中对既有的社会秩序产生了较大冲击和扰动,因为同一AI应用产生了善与恶“结果”的伦理争议,比如AI对于程序性工人操作的替代,同时产生了效率改善和就业冲击的两种结果争议。第三个层面,AI应用改变了目的本身,进而产生对AI能否向善的伦理争议,比如AI在教育、科研领域的某些应用,不是助力或赋能,而是对人的理性思考能力训练的替代,这就产生了目的层面上的伦理争议。

尽管如此,企业践行AI向善并非无计可施。郭毅表示,与很多西方国家相比,我国人工智能应用之所以能够取得比较大的突破,伦理层面的争议相对较少,是因为我们对于善恶判断在很多情境下能够形成相对一致的认识,这种共识集中体现在一系列政策建议上。“因此,如果人工智能应用符合政策导向,就不会存在太多的伦理争议,因为政策本身就是共识的连接。”

另外,他建议企业在具体实践中,可以将ESG和AI结合起来,探索AI向善的基本行动框架。他认为,从ESG角度来看,AI向善本身就是ESG议题。常规意义上的ESG议题并没有涵盖以企业为主体的所有挑战,ESG议题的外延需要根据社会发展进行扩展。AI向善是新时期企业面临的新挑战,理应作为企业ESG议题。从AI发展来看,ESG所倡导的统筹人类发展与自然永续之间的均衡关系、统筹经济和社会协调发展等理念能够对AI向善形成靶向性监控,也就是说ESG理念为AI向善提供了一种可能的行动规范。

除了概念争议外,戴炜认为,在快速规模化应用过程中,当前AI向善实践有两大挑战尤为突出:一是治理能力滞后于技术演进速度。当AI以指数级速度赋能千行百业时,相应的伦理审查、算法审计、影响评估等治理体系与专业人才储备仍存在显著缺口。如何建立敏捷高效的治理“免疫系统”,是行业面临的共同考题。二是面临技术普惠的“最后一公里”障碍。“我们拥有先进的AI技术,但如何让其低成本、高效率地服务最需要关怀的群体,如老年人、残疾人,仍存在场景、数据和商业模式的闭环难题。这需要生态级解决方案,而非单点技术的突破。”

对于企业开展智能向善实践,戴炜提出了治理、产品、合作、披露四方面建议。

治理先行,战略内嵌。企业应将负责任创新提升至战略高度,可以在董事会或最高管理层设立跨部门的伦理或可持续发展委员会,确保在AI等创新业务的立项评估阶段就前置伦理与社会影响筛查,实现责任管理的战略内嵌。

场景穿透,价值驱动。在产品和业务规划中,企业主动拥抱数字包容深化的思想,不仅要让用户“用得上”,更要通过AI辅助、包容性设计让其“用得好”,将安全、可靠、公平、普惠等原则,作为产品研发不可妥协的价值基线。

生态共建,开放协作。智能向善是系统性工程,单打独斗无法成功。企业应积极参与行业标准共建、技术开源与生态项目,在开放协作中降低社会总成本,放大技术的正外部性。

透明披露,赢得信任。企业应主动将负责任的AI实践从内部流程转化为对外沟通,通过发布AI伦理报告、披露关键算法的公平性评估结果等方式,以透明建立问责,以问责赢得信任。这不仅是合规要求,更是品牌的核心资产。

人工智能的快速发展和广泛应用,为重塑人类生产生活范式提供了新想象,也为企业创造社会价值提供了新可能。正如应对AI安全治理问题需要树立动态的人工智能安全观一样,AI向善也必定是动态的探索过程。站在“十五五”的起点,人工智能政策正朝着新的方向演进,相信智能向善不仅是行业健康发展的保障,更是应对可持续发展难题的机遇。

校对:赵立宇

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}