全国人大代表、科大讯飞董事长刘庆峰:不能用快消品的逻辑来做医疗
如果因为AI给出的错误建议,导致用户身体受到伤害,这个责任该由谁来承担?
不能用快消品的逻辑来做医疗,反对以流量为导向、忽略医生与医学的底线。
责任编辑:顾策
AI健康助手在过去一年迎来集中爆发,“大病小病先问 AI”逐渐成为不少人的新习惯。事实上,早在2016年,科大讯飞就创办了讯飞医疗,率先将人工智能技术引入医疗场景。2024年,讯飞医疗科技(02506.HK)在港股上市,被称为“医疗大模型第一股”。
连任五届全国人大代表的科大讯飞董事长刘庆峰今年带来了7份建议,其中有两项围绕AI医疗展开。
他提出,应将AI相关服务纳入基本公共卫生服务体系。例如,将AI健康画像、智能随访、健康咨询、风险评估等服务纳入全国基本公共卫生服务目录,并明确服务对象和服务标准。同时,将AI应用情况与基层绩效评价体系衔接,引导基层医疗机构积极推广应用,从而整体提升公共卫生服务质量。
他的另一项建议是设立“AI+罕见病”国家专项,打通从诊断到药物研发的关键环节,同时开展“AI+罕见病”应用试点,推动实现“早筛查、早发现、早诊治”。
围绕AI医疗的未来发展,刘庆峰在今年两会期间接受了南方周末记者的专访。

全国人大代表、科大讯飞董事长刘庆峰。受访者供图
“潜在风险必须高度重视”
南方周末:AI 技术在医疗场景中的应用有哪些特殊性?为什么你认为必须建立明确的准入门槛和测评体系?
刘庆峰:这个问题很关键。医疗可以说是大模型所有落地场景中对专业性、准确性和可靠性要求最严苛的领域。
做一个“能聊健康问题的AI”其实不难,但要做一个“真正具备专科级能力、敢辅助临床决策、能对用户健康负责的医疗AI”,这里面的鸿沟是非常大的。
首先,真实医疗场景极其复杂。患者不会按教科书生病,往往是多病共存、病史交叉。所以医疗决策不是简单的模式识别,它要结合生理、病理、心理甚至社会因素,还必须要符合真实的临床路径。
一个小小的误判,都可能影响患者安全,医疗AI必须经过真实场景的反复验证,具备极高的专业性和适应性。
其次,医疗AI需要长期的能力和数据积累,没法“冷启动”,医学知识本身是高度结构化的,疾病诊疗有严格的临床逻辑,必须在真实环境中不断打磨。
第三,医疗数据具有高度敏感性。医疗数据是我们每个人隐私的核心,必须严格、合规。正因为这些特殊性,为医疗AI建立明确的准入门槛和科学的测评体系,不是限制发展,而是守护行业的“生命线”。
第四,通过明确的技术标准和临床验证要求,确保AI产品的安全、有效和稳定,最终保护的是患者权益,也能让用户更信任、更敢使用。同时,这套体系也会引
登录后获取更多权限
校对:星歌