扬帆创投微信小程序
更聚焦的出海投融资平台
精准高效领先的融资对接服务
微信扫一扫进入小程序

GLM-4.5 与 GLM-4.5-Air 同步在 Hugging Face / ModelScope 开源,MIT 协议,355 B/1.06 B 参数 MoE,支持思考/非思考双模式。

摘要
12 项基准综合均分全球第三、国产第一、开源第一;在官方 CC-Bench(52 个真实 Agent Coding 任务)中工具调用成功率 90.6%,居四款模型之首。
官方接入 Claude Code,与 Claude-4-Sonnet、Kimi-K2、Qwen3-Coder 同场竞技,数据集与轨迹全公开,可一键复现。
API 0.8 元进/2 元出/百万 tokens,高速版 100 tokens/s;同等性能下参数量仅为 DeepSeek-R1 一半,成本/效率双杀。
兼容 Claude Code、Cline、Roo Code 等主流智能体,国内 BigModel.cn / chatglm.cn、海外 Z.ai 均提供满血体验,智谱也被 OpenAI 点名“全球显著进展”。
国产大模型厂商的开源浪潮,还在提速。
就在刚刚,智谱正式发布最新旗舰模型 GLM-4.5。按照智谱官方说法,这是一款专为 Agent 应用打造的基础模型。
延续一贯的开源原则,目前这款模型已经在 Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License。
图片
省流版:
 
GLM-4.5 在推理、代码、智能体综合能力达到开源模型 SOTA 水平
 
GLM-4.5 采用混合专家(MoE)架构,3550 亿总参数/320 亿激活参数;GLM-4.5-Air:总参数量 1060 亿,激活参数为 120 亿
 
两个版本均已全面开源,支持 MIT License
 
均支持混合推理模式:用于复杂推理和工具使用的思考模式,以及用于即时响应的非思考模式
 
API 调用价格输入 0.8 元/百万tokens、输出 2 元/百万tokens;高速版最高可达 100 tokens/秒
GLM-4.5 这次比较大的技术亮点,是首次在单个模型原生融合了推理、编码和智能体能力。别人家的模型要么擅长推理,要么擅长写代码,要么擅长当助手,而 GLM-4.5 说自己全都要。
图片
老规矩,先来看看新模型「跑分」环节。
智谱选了 12 个最具代表性的评测基准来「秀肌肉」,包括 MMLU Pro、AIME 24、MATH 500、SciCode、GPQA、HLE 等等,这些也都是我们的「老熟人」了。结果综合平均分,GLM-4.5 交出了一份全球模型第三、国产模型第一、开源模型第一的成绩单。
图片
图片
当然,光跑分没用,还是更实战的测试才有说服力。为了证明 GLM-4.5 在真实场景 Agent Coding 中的实力,智谱干脆直接接入了 Claude Code,与 Claude-4-Sonnet、Kimi-K2、Qwen3-Coder 等模型一较高下。
测试方案相当硬核:总共 52个编程开发任务,涵盖六大开发领域,全部在独立容器环境中进行多轮交互测试,主打一个真刀真枪地干。
结果显示,虽然在面对 Claude-4-Sonnet 时仍有较大的提升空间,但 GLM-4.5 在工具调用可靠性和任务完成度方面的表现还是相当突出。
图片
甚至智谱还把测试题目和 Agent 轨迹全部公开了https://huggingface.co/datasets/zai-org/CC-Bench-trajectories,给我一种欢迎同行来「打假」的即视感。
再来看看几个比较有说服力的 Demo,含金量也不低。在 z.ai 官方网站简单输入提示词「做一个 Google 搜索网站。」,GLM-4.5 真就能一句话生成一个真的能用的搜索引擎。
图片
由 GLM-4.5 打造的量子功能箱各项功能齐全,充分展示了模型的综合能力。
图片
更复杂一点的,还能让它生成一个可点击缩放的 3D 地球页面。用户可以点击地点查看详情,并伴有平滑的缩放动画。
图片
提示词:Build a webpage using Three.js and JavaScript that creates a 3D world displaying places I've visited, based on an array. Clicking markers on the 3D globe will animate a zoom effect and open detailed trip information with photos.
与传统 AI PPT 工具使用模板填充信息不同,GLM-4.5 会自主搜索资料、寻找配图,根据实际材料直接以 HTML 形式编写图文。
除了常规的 16:9 比例,还能灵活支持社媒封面、长图、甚至个人简历。
开发者体验这块,国产厂商也开始「卷起来」了。比如 GLM-4.5 就兼容 Claude Code、Cline、Roo Code 等主流代码智能体。完整使用指南看这里:
国内用户:

https://docs.bigmodel.cn/cn/guide/develop/claude

海外用户:

https://docs.z.ai/scenario-example/develop-tools/claude

如果说前面都是「面子」,那技术内核才是 GLM-4.5 真正的「里子」。
冷知识,GLM-4.5 的参数量仅为 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但性能却不打折,而这背后正是归功于 GLM 模型更高的参数效率。
尤其是 GLM-4.5-Air,用 106B 总参数 / 12B 激活参数,在推理评测中已经逼近 Gemini 2.5 Flash 与 Claude 4 Sonnet。
在 SWE-bench Verified 榜单上,它还位列性能/参数比的帕累托前沿——换句话说,用更少的体量,跑出了更优的性价比。
图片
性能提升的背后,则离不开训练过程的「大力出奇迹」。GLM-4.5 和 GLM-4.5-Air 使用了相似的训练流程:首先在 15 万亿 token 的通用数据上进行了预训练。
接着在代码、推理、Agent 等领域的 8 万亿 token 数据上进行了针对性训练,最后通过强化学习进一步增强了模型的推理、代码与智能体能力。有钱有资源,确实可以为所欲为。
图片
此外,GLM-4.5 在成本和效率上的突破可能更具杀伤力。
API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens,同时,高速版本实测生成速度最高可至 100 tokens/秒,支持低延迟、高并发的实际部署需求,真·价格屠夫。
目前,API 已上线开放平台 BigModel.cn,一键兼容 Claude Code 框架。普通用户也可以上智谱清言 (chatglm.cn) 和 Z.ai 体验满血版 GLM-4.5。
值得一提的是,上个月,OpenAI 在旗下的 Global Affairs 账号发表的报告中,也是直接点名智谱,称其在全球 AI 竞赛中取得了显著进展,语气可以说是罕见直白。
回过头来看,智谱算是增长势头比较稳定的厂商。节奏一直没乱,模型迭代跟得上、开源尺度放得开,方向感也不飘。
这么看来,它能成为「AI 六小龙」中第一个启动 IPO 的玩家,也就不那么意外了。

原文链接:点击前往 >

文章作者:APPSO

版权申明:文章来源于APPSO。该文观点仅代表作者本人,扬帆出海平台仅提供信息存储空间服务,不代表扬帆出海官方立场。因本文所引起的纠纷和损失扬帆出海均不承担侵权行为的连带责任,如若转载请联系原文作者。 更多资讯关注扬帆出海官网:https://www.yfchuhai.com/

{{likeNum}}

好文章,需要你的鼓励

请前往扬帆出海小程序完成个人认证
认证通过后即可申请入驻
扫码添加小助手
微信扫描二维码,添加小助手
微信号:yfch24
扫码添加小助手
微信扫描二维码,添加小助手
微信号:yfch24
APP
小程序
微信公众号
微信小程序
扬帆出海APP
扬帆出海APP
微信
公众号
微信公众号
关注扬帆出海
专注服务互联网出海!
出海人
社群
微信公众号
扫码进群
与10万+出海人同行!