商汤科技:让伦理治理成为AI创新助力
不能把伦理治理和业务对立起来。从实践看,伦理可以帮助企业更早识别风险、优化产品设计,并在市场中建立更高的信任度。长远看,这是企业竞争力的一部分。
责任编辑:孙孝文
近期,工业和信息化部等十部门印发《人工智能科技伦理审查与服务办法(试行)》,就各主体开展人工智能科技活动给出了伦理审查程序、伦理审查维度的指导,以规范人工智能科技活动伦理治理,促进公平、公正、和谐、安全和负责任创新,推动人工智能产业健康发展。
政策的出台,推动着“AI伦理”这一前沿议题从公共讨论到产业落地的进程,但伦理问题本身的复杂性并不会让这一进程显著加速。如何把控技术创新与伦理规制之间的平衡,如何将伦理落实到一套可审查的指标体系中,如何让伦理嵌入技术研发的全流程,这些问题需要严肃思考。
作为人工智能领域发展较早的企业,商汤科技对AI伦理的关注也更早。在持续探索中,商汤科技围绕AI伦理建立了基础管理制度,风险评审流程,尝试将抽象的伦理价值转化为可操作的行为规范。商汤科技AI伦理与治理委员会秘书长梅莹介绍,商汤开展AI治理的重要理念是,将伦理视为促进业务健康持续发展的助力,而不单纯是风险合规。在多个实践场景中,伦理视角的介入为商汤产品研发提供了创新改进的可能。
但是,AI技术一日千里,梅莹表示,当前行业普遍面临内部治理机制跟不上AI发展速度的困境。与此同时,在全球科技竞争加剧的背景下,参与有关AI伦理的国际交流和政策标准互认,将是人工智能企业面临的新课题。
先把组织架构搭起来
南方周末:商汤科技在2017年就提出了企业AI伦理原则,当时为什么会关注伦理议题?
梅莹:商汤较早关注AI伦理并不是偶然,更像是技术路径和产业位置决定的结果,可以从四个层面理解:
第一,发展阶段。商汤成立于2014年,作为较早进入人工智能领域的企业,我们更早经历了技术从实验室走向大规模应用的过程,也更早感受到技术外溢带来的治理问题。
第二,技术属性。AI具有规模化应用、跨场景渗透以及潜在外溢的特点,它的伦理属性相较其他技术更应该受到关注,需要提前纳入治理范畴。
第三,风险前瞻。商汤最早聚焦计算机视觉,人脸识别在全球范围内都伴随着隐私、安全和公平性的讨论。我们当时的判断是,这类争议不会消失,只会随着应用扩大而放大,因此必须提前介入。
最后一个原因,应该说是行业责任。随着商汤在国内外影响力的扩大,我们认为不能只做技术,还要做一些有助于提升行业基础设施建设的事情,为行业良性发展作一些贡献。AI治理是需要行业共治的,因此,我们把商汤的AI伦理治理沉淀为公共经验,为其他企业提供参考。
南方周末:商汤是如何推动AI伦理治理工作的?
梅莹:工作是分阶段进行的。最初是建立共识,先把组织架构搭起来,设立了AI伦理与治理委员会。这虽然是虚拟组织,但是传递了公司重视AI伦理的信号,让大家先有这方面意识。
第二阶段,是把原则变成工具。基于研究确立了以人为本、技术可控、可持续发展的AI伦理三原则,并将伦理原则细化为可操作的指标体系,与研发团队反复打磨,使其能够真正嵌入产品设计,而不是停留在理念层面。
第三个阶段,我们研发了审查工具,尤其是在小模型时代。2025年3月,网信办发布了《人工智能生成合成内容标识办法》,要求对AI生成内容要增加显性和隐性标识。其实,三年前商汤就已经把数字水印技术纳入了AI伦理的内部检查工具箱中。这个阶段,我们尝试将伦理审查嵌入研发流程。商汤内部有一个产品安全审查平台,这个平台不仅包含了伦理审查,还包含了信息安全审查、出海合规审查等环节。
在产品立项阶段,研发人员在平台上提交工单,其中伦理审查环节会对产品的伦理风险进行评估,将风险分为E0到E4五个等级,对于高风险(E4)产品则需调整或放弃设计,其余产品根据等级判定进入后续流程。
在产品发布阶段进行第二次审查,主要看立项阶段伦理侧提供的建议是否被采纳,通过审查的产品方可准许发布,未通过的需要整改或补充信息后复审。
在产品上市部署完成之后还有跟踪审查。针对已发布产品,伦理侧对E2及E3类产品实施重点关注或抽查,业务侧根据审核要求提供材料或协助用户调研,伦理侧完成合规审查并反馈结果,形成闭环管理。
南方周末:上述伦理审查的重点是什么?
梅莹:AI伦理风险主要发生在数据、模型、应用三个层面。在数据层,主要审查隐私保护风险、训练数据的合规性与质量以及数据安全保护。在模型层,重点关注算法的可解释性以及责任追溯机制,确保模型决策过程在一定程度上可理解、可复盘,同时明确相关责任边界。在应用层,一方面关注产品的包容性,例如是否能够公平覆盖不同人群,避免对特定群体产生不利影响;另一方面也会结合应用场景本身的特性进行评估,对于医疗、金融、交通等与人身安全、财产安全密切相关的领域,会进行更加审慎的评估与管理。

商汤产品全生命周期伦理评审流程
认知偏差仍是主要问题
南方周末:当前企业开展AI伦理治理面临哪些普遍问题?
梅莹:首先是认知问题。现在无论是政策制定领域还是企业界或普罗大众,对人工智能治理尤其是伦理问题的认知相对片面,甚至局限,比如把伦理和风险画等号,或者将伦理和安全相提并论。前者可能会忽视伦理对技术创新的促进作用,后者则容易将伦理视为和安全一样的强制性要求,进而对产业发展带来影响。
其次,执行落地比较难。因为伦理问题有哲学层面的灵活性,或者说比较抽象,而企业经营需要考虑投入产出比,对于一个比较抽象的事情,需要投入哪些资源?产出是什么?如果不能回答清楚,绝大多数企业会持观望态度。即便有的企业开始重视伦理问题,从理念到落地也需要一个过程。
第三,治理机制跟不上技术发展。AI技术发展越来越快,企业内部的治理机制包括理念常常跟不上,甚至滞后。比如3月份OpenClaw大火,各大互联网平台面向用户推出安装服务,但从治理角度看,这个事情的潜在风险是比较大的。
南方周末:工信部近期发布的《人工智能科技伦理审查与服务办法(试行)》,对应对这些问题是否有指导意义?
梅莹:分享一个发生在商汤内部的变化。去年底伦理委员会更新了商汤科技伦理宣传手册,这个手册在商汤的北京、上海等各大办公区都有摆放,供员工和来商汤参访的客人取用。在工信部发布这项政策前,手册的消耗量比较平缓;在政策发布两周时间后,手册消耗速度明显加快。
很显然,政策的发布提升了大家对人工智能伦理的关注度,这是一个好的开始。万事开头难,只要政策开始关注,后续公共讨论、企业实践以及政策本身的优化都会持续跟进。
南方周末:商汤也参与了这个办法的制定。在讨论阶段,参与各方是否有分歧?
梅莹:在讨论过程中,各方围绕一些关键问题进行了比较充分、深入的交流,这其实也是政策形成过程中很正常的一部分。
一方面,是关于出台节奏的问题。人工智能技术发展很快,如何在促进创新与规范发展之间把握好节奏,各方从不同角度提出了不少建设性的意见。
另一方面是风险判断和审查范围。由于AI应用场景非常丰富,不同场景下的风险类型和影响程度差异较大,因此在风险分级、适用范围等方面,大家也进行了反复论证和细化。可以看到,最终发布的办法在风险界定上更加聚焦,并引入了专家复核机制,例如最后部分的“需要开展科技伦理专家复核的人工智能科技活动清单”的设置,这些都是在充分吸收各方意见基础上逐步完善形成的。
伦理可以成为创新的机会
南方周末:伦理审查能否转化为创新机会?
梅莹:这是关于创新跟规制之间如何平衡的问题。对商汤而言,AI伦理委员会从一开始就将伦理治理定位为对业务的创新促进和风险规避,以促进业务的健康可持续发展,而不是单纯的风险控制。我们和业务部门沟通时传递的是,伦理视角可以为产品研发提供新方向,同时为业务提供长远支持,包括政策支持和市场的进一步信任等。
南方周末:有没有伦理委员会干预后,业务部门对产品进行微改进的案例?
梅莹:我想到了商汤元萝卜下棋机器人的例子。这款机器人最初设计的机械臂手部是“夹子”形状,这样拿棋子的动作会比较稳。考虑到伦理安全等因素后,我们评估在跟人下棋时,夹子可能会给老人或小孩带来伤害,就提出了改进建议,后来夹子就改成了磁吸设计,更安全了。
另一个例子是数字人。数字人技术刚出现的时候有显著的伦理风险,比如陪伴类数字人可能带来的情感异化,商业场景中可能出现的责任真空,网络中常见的换脸欺诈等。当时业务部门和伦理委员会进行了深度合作,一起重新设计了用户的授权机制,包括在不同场景下的应用提示、内容安全等,业务线和伦理线一起探索设计了可信数字人理念。然后,商汤和中国信通院共同开展研究,发布了《可信虚拟人白皮书(2023》。随后商汤又牵头完成了虚拟数字人领域首项国家标准——《信息技术客服型虚拟数字人通用技术要求》(GB/T 46483-2025)的起草与制定。这是伦理部门和业务部门合作的典型案例,伦理视角的介入带来了业务回报,使得商汤在数字人领域处于领先状态。
南方周末:对其他企业开展AI伦理治理有什么建议?
梅莹:第一,守住底线,同时不止于底线。数据安全、隐私保护、系统可靠性这些是必须坚守的基础,但如果只停留在合规层面,伦理的价值是发挥不出来的。企业还需要进一步思考,如何通过技术更好地回应社会需求、提升公共价值,研发AI新技术新应用不能只有商业视角。
第二,从组织和机制入手,而不是只停留在理念层面。企业决策者要起到带头作用,至少把AI伦理相关的治理机制先搭建起来,让员工看到管理层对伦理问题的重视,这样一线的技术研发人员、产品经理才可能在伦理视角下功夫。
最后,把伦理治理转化为一种能力,而不是成本负担。伦理治理部门要有“治理即服务,伦理即创新”这样的理念,不能把伦理治理和业务对立起来,从实践看,伦理可以帮助企业更早识别风险、优化产品设计,并在市场中建立更高的信任度。长远看,这是企业竞争力的一部分。
简单来说,就是让伦理从“外在约束”变成“内生能力”,真正融入企业的发展逻辑中。
校对:赵立宇