2026年2月11日,中国AI实验室智谱AI(现已更名为Z.ai)发布了GLM-5,一个在编码、推理和智能体基准测试中直接与Claude Opus 4.5、GPT-5.2和Gemini 3 Pro竞争的新开源大语言模型。
市场反应强烈,智谱在香港的股票在发布当天飙升28.7%。有趣的是,在正式公告之前,一个名为"Pony Alpha"的神秘模型已经在OpenRouter上获得了最高分。原来它就是以不同名字运行的GLM-5。
什么是GLM-5?
GLM-5是智谱AI的第五代大语言模型。智谱AI于2019年从清华大学分拆出来,2026年1月在香港完成IPO,筹集约5.58亿美元。
模型基于混合专家(MoE)架构,总参数7440亿,每次推理仅400亿参数活跃。集成DeepSeek Sparse Attention (DSA),支持最长200K tokens的上下文。
GLM-5概览
| 规格 | 详情 |
|---|---|
| 总参数 | 744B |
| 活跃参数 | 40B |
| 架构 | MoE,256专家,每token 8个活跃 |
| 预训练数据 | 28.5万亿tokens |
| 上下文窗口 | 200K tokens |
| 许可证 | MIT |
| 训练硬件 | 华为昇腾芯片 |
完全在华为昇腾芯片上使用MindSpore框架训练,实现了对美国制造硬件的完全独立。
基准测试性能
编码
| 基准 | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| SWE-bench Verified | 77.8% | 80.9% | 80.0% | 76.2% | 73.1% | 76.8% |
| SWE-bench Multilingual | 73.3% | 77.5% | 72.0% | 65.0% | 70.2% | 73.0% |
推理
| 基准 | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| HLE | 30.5 | 28.4 | 35.4 | 37.2 | 25.1 | 31.5 |
| HLE(含工具) | 50.4 | 43.4 | 45.5 | 45.8 | 40.8 | 51.8 |
GLM-5在Humanity's Last Exam上超越了Claude Opus 4.5。在BrowseComp上超越所有比较模型(75.9)。
幻觉:创纪录低比率
AA-Omniscience指数为**-1**,比前代提升35分。在该类别中领先OpenAI、Anthropic和Google的所有测试模型。
定价:比Claude Opus便宜6倍
| 模型 | 输入(每百万tokens) | 输出(每百万tokens) |
|---|---|---|
| GLM-5 | ~$0.80 | ~$2.56 |
| GPT-5.2 | $2.50 | $10.00 |
| Claude Opus 4.6 | $5.00 | $25.00 |
文档生成
原生**"智能体模式"可直接生成.docx、.pdf或.xlsx文件。兼容Claude Code、OpenCode、Roo Code和OpenClaw**。
本地运行GLM-5
docker pull vllm/vllm-openai:nightly
vllm serve zai-org/GLM-5-FP8 --tensor-parallel-size 8 --gpu-memory-utilization 0.95
模型权重在HuggingFace上可用:zai-org/GLM-5
中国的开源AI浪潮
中国AI模型历史上落后美国约七个月,GLM-5将这一差距缩短至约三个月。
该试试GLM-5吗?
- GDPR下需要数据主权的自托管推理
- 大批量工作负载节省成本(~$0.80/百万输入tokens)
- 编码和智能体任务性能与专有模型相当
在chat.z.ai试用,或从HuggingFace下载权重。


