智谱AI发布最新GLM 4.5旗舰大模型: 更高的参数效率、低成本、高速度
近日,智谱AI发布了GLM-4.5旗舰模型,一起来看看官方对旗舰GLM-4.5的评价:
GLM-4.5 和 GLM-4.5-Air 是我们最新的旗舰模型系列,专为智能体应用打造的基础模型。GLM-4.5 和 GLM-4.5-Air 均使用了混合专家(Mixture-of-Experts)架构。GLM-4.5 总参数达 3550 亿,激活参数为 320 亿; GLM-4.5-Air 采用更精简的设计,总参数为 1060 亿,激活参数为 120 亿。
GLM-4.5 和 GLM-4.5-Air 使用了相似的训练流程:首先在15万亿令牌的通用数据上进行了预训练。然后在代码、推理、智能体等领域的数据上进行了针对性训练,并将上下文长度扩展到 128k,最后通过强化学习进一步增强了模型的推理、代码与智能体能力。
GLM-4.5 和 GLM-4.5-Air 在工具调用、网页浏览、软件工程、前端编程领域进行了优化,可以接入 Claude Code、Roo Code 等代码智能体中使用,也可以通过工具调用接口支持任意的智能体应用。
GLM-4.5 和 GLM-4.5-Air 均采用混合推理模式,提供两种模式:用于复杂推理和工具使用的思考模式,以及用于即时响应的非思考模式。可通过 thinking.type 参数启用或关闭(支持 enabled 和 disabled 两种设置),默认开启动态思考功能。
GLM-4.5 系列模型
能力支持
总览
衡量 AGI 的第一性原理,是在不损失原有能力的前提下融合更多通用智能能力,GLM-4.5 是我们对此理念的首次完整呈现。GLM-4.5 融合更多复杂推理、代码和智能体等多种通用能力并有幸取得技术突破,首次在单个模型中实现将推理、编码和 Agent能力原生融合,以满足 Agent 应用的复杂需求。
为综合衡量模型的通用能力,我们选择了最具有代表性的12个评测基准,包括MMLU Pro、AIME24、MATH 500、SciCode、GPQA 、HLE、LiveCodeBench、SWE-Bench、Terminal-bench、TAU-Bench、BFCL v3和BrowseComp。综合平均分,GLM-4.5 取得了全球模型第二、国产模型第一,开源模型第一。
更高的参数效率
GLM-4.5 参数量为 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但同样在多项标准基准测试中表现得更为出色,这得益于GLM模型的更高参数效率。值得注意的是,GLM-4.5-Air 以 106B 总参数 / 12B 激活参数实现了重要突破,在 Artificial Analysis 等推理基准上超越 Gemini 2.5 Flash、Qwen3-235B、Claude 4 Opus 等模型,性能位列国产前三。
在 SWE-Bench Verified 等图谱中,GLM-4.5 系列位于性能/参数比帕累托前沿,这表明在相同规模下,GLM-4.5 系列实现了最佳性能。
低成本、高速度
在性能优化之外,GLM-4.5 系列也在成本和效率上实现突破,由此带来远低于主流模型定价:API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens
同时,高速版本实测生成速度超过 100 tokens/秒,支持低延迟、高并发的实际部署需求,兼顾成本效益与交互体验。
真实体验
真实场景表现比榜单更重要。为了评测GLM-4.5在真实场景Agent Coding中的效果,我们接入Claude Code与Claude-4-Sonnet、Kimi-K2、Qwen3-Coder进行对比测试。测试采用52个编程开发任务,涵盖六大开发领域,在独立容器环境中进行多轮交互测试。
实测结果显示(如下图),GLM-4.5相对其他开源模型展现出强劲竞争优势,特别在工具调用可靠性和任务完成度方面表现突出。GLM-4.5相比Claude-4-Sonnet仍有提升空间,在大部分场景中可以实现平替的效果。为确保评测透明度,我们公布了52道题目及Agent轨迹,供业界验证复现。
文章来源: https://docs.bigmodel.cn/cn/guide/models/text/glm-4.5
END