大模型“tokens通胀”加速,智谱GLM-5-Turbo专注智能体优化;API价格相应调整。
大模型行业正经历显著的成本压力与定价调整,随着智能体应用的兴起,tokens消耗呈现明显结构性增长趋势。智谱AI近日推出专为智能体任务优化的基座模型GLM-5-Turbo,该模型针对复杂工作流进行深度强化,同时伴随API价格的相应上调。这一动态反映出行业从基础对话向实际执行能力的转变,用户在调用过程中面临的资源消耗已大幅提升。

智谱作为国内领先的大模型提供商,此次推出的GLM-5-Turbo专注于OpenClaw等智能体场景的实际执行需求。相较于通用模型,该版本在工具调用、指令严格遵循、多轮状态管理以及长链路任务持续性等方面获得显著增强。这些优化旨在解决真实Agent应用中常见的响应不稳定、任务中断等问题,从而让模型更可靠地处理动态、复杂的多步工作。业内观察显示,这种针对性升级虽带来更高的开发投入,却也为用户提供了更高效的“干活”能力。
在行业整体层面,tokens作为核心计量单位,其消耗量正随应用形态演进而快速攀升。从单纯的问答交互转向涉及任务拆解、外部工具集成以及持续执行的智能体流程,每次调用所需的tokens数量往往呈现倍数增长。这种变化直接影响模型厂商的运营成本,包括算力、能源与带宽等多方面的资源支出。多家企业已观察到类似趋势,用户规模扩大与单用户深度使用共同推动了整体消耗的结构性上升。
智谱的此次调整并非孤例,此前多家云服务商与模型提供方也对部分产品进行了价格优化。背后的逻辑在于,高质量推理服务已从低成本的流量型模式转向高价值的生产资料型供给。厂商需要在维持技术领先的同时,确保可持续的资源投入,以支持模型的持续迭代与服务稳定性。对于开发者与企业用户而言,选择更强的模型虽能带来明显的效率改善,但也需适应tokens消耗增加带来的使用成本变化。
展望未来,随着智能体在办公、运营、内容创作等领域的渗透加深,tokens消耗预计将保持强劲增长势头。相关研究指出,中国市场活跃智能体规模有望实现高速扩张,伴随任务复杂度的提升,单位消耗也将出现显著跃升。这一进程将推动整个AI生态向更成熟的商业模式演进,强调价值定价与资源高效利用。智谱GLM-5-Turbo的发布与价格调整,正是这一大趋势下的典型体现,标志着大模型行业进入注重实际生产力与可持续发展的全新阶段。
