从“造模型”到“造算力”:Token工厂之战

“几家大模型公司互飙起来,均推出不同程度的限时免费政策,都在争第一。”

随着AI训练和推理需求快速增长,算力负载越来越高,电力已经从成本因素逐渐变成决定数据中心布局的重要变量。

真正决定竞争力的,不只是低成本电力,还受到芯片与集群能力、模型能力以及开源生态影响力的共同作用。

责任编辑:冯叶

在英伟达GTC 2026大会上,英伟达CEO黄仁勋首次提出“Token经济学”。视觉中国/图

在英伟达GTC 2026大会上,英伟达CEO黄仁勋首次提出“Token经济学”。视觉中国/图

在刚闭幕的AI行业风向标——英伟达GTC 2026大会上,英伟达CEO黄仁勋首次提出“Token经济学”:推理已成为AI最核心的工作负载,Token则是新的大宗商品。

Token是大语言模型处理信息的基本单位,也是计费单元,可以粗略理解为AI处理或生成的文字片段,一个汉字大约对应1到2个Token。

过去两年,大模型竞争的核心叙事是模型能力:谁更聪明,谁在 ARC(推理基准)、SWE-Bench(软件工程基准)这类 benchmark(基准测试)上能拿更高分,谁就更接近 AGI(通用人工智能)。参数规模、推理深度、复杂任务完成率,构成了行业主要竞争指标。

但是2026年春节过后,Agent AI(智能体人工智能)的核心叙事是持续完成任务,包括写代码、调试、调用工具、读取文件、再迭代,Token消耗从人机对话升级为机器自循环。以OpenClaw(龙虾)为例,用户仅需下达目标,它即可自主拆解任务、调用模型/工具/接口完成全流程,一次任务甚至就要消耗数十万至百万级Token。

这意味着,Token正成为AI时代的“石油”。黄仁勋断言,数据中心已从文件存储设施演变为Token生产工厂,未来每家公司都将以“AI工厂效率”来衡量自身竞争力。

与此同时,一组来自面向AI应用开发者的全球大模型聚合路由平台——OpenRouter的数据,在海内外都引起了关注。3月16日,其发布的数据显示,中国大模型周调用量已连续两周超过美国大模型。

3月9日当周,全球模型Token调用量排名前十名中,公开明确的中国模型占四席,并包揽前三名,分别是MiniMax M2.5、阶跃星辰模型Step 3.5 Flash、DeepSeek V3.2,Kimi K2.5位列第九。中国模型Token周调用量约4.69万亿,较上周的4.194万亿环比上涨11.82%。相比之下,美国AI大模型周调用量为3.294万亿Token,环比下滑9.33%。

OpenRouter的用户主要由海外开发者构成。该平台整合了包括GPT-4、Claude等二十余种主流大语言模型,提供统一的API(应用程序编程接口)和交互界面。其核心功能包括多模型聚合、统一API调用、性能基准测试、智能路由优化及开发者工具支持,支持按需付费与部分模型免费试用。由于每天处理海量真实调用,其LLM(大语言模型)排行榜已成为开发者社区的重要参考。

在这场新的AI战役中,包括芯片厂商、大模型厂商、算力供应商在内的多位业内受访者,均给出一致看法:“Token确实已经开始出海。”

极致性价比

Token出海,与中国多采用开源大模型有关。

中国开源模型是推动全球模型开源的重要力量。开源模型开放代码与权重,可本地部署定制但技术门槛高;闭源模型仅开放调用接口,易用稳定但无法修改底层。

2025年12月5日,硅谷风险投资基金a16z和OpenRouter联合发布了《人工智能现状》报告,对近100万亿的Tok

登录后获取更多权限

立即登录

校对:星歌

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}