2026年2月11日、中国のAI研究所Zhipu AI(現在Z.aiに改名)がGLM-5をリリースしました。Claude Opus 4.5、GPT-5.2、Gemini 3 Proとコーディング、推論、エージェントベンチマークで直接競合する新しいオープンソース大規模言語モデルです。
市場は強く反応し、Zhipuの香港株は発表日に**28.7%**急騰しました。興味深いことに、公式発表前に「Pony Alpha」という謎のモデルがOpenRouterでトップスコアを記録していました。それは別名で動作するGLM-5でした。
GLM-5とは?
GLM-5はZhipu AIの第5世代大規模言語モデルです。同社は2019年に清華大学からスピンオフし、2026年1月に香港でIPOを完了、約5億5800万ドルを調達しました。
Mixture-of-Experts (MoE)アーキテクチャで、合計7440億パラメータのうち推論ごとに400億のみがアクティブです。DeepSeek Sparse Attention (DSA)を統合し、最大200Kトークンの長文コンテキストをサポートします。
GLM-5概要
| 仕様 | 詳細 |
|---|---|
| 合計パラメータ | 744B |
| アクティブパラメータ | 40B |
| アーキテクチャ | MoE、256エキスパート、トークンあたり8アクティブ |
| 事前学習データ | 28.5兆トークン |
| コンテキストウィンドウ | 200Kトークン |
| ライセンス | MIT |
| 訓練ハードウェア | Huawei Ascendチップ |
Huawei AscendチップのみでMindSporeフレームワークを使用して訓練されました。
ベンチマーク性能
コーディング
| ベンチマーク | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| SWE-bench Verified | 77.8% | 80.9% | 80.0% | 76.2% | 73.1% | 76.8% |
| SWE-bench Multilingual | 73.3% | 77.5% | 72.0% | 65.0% | 70.2% | 73.0% |
| Terminal-Bench 2.0 | 56.2 | 59.3 | 54.0 | 54.2 | 39.3 | 50.8 |
推論
| ベンチマーク | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| HLE | 30.5 | 28.4 | 35.4 | 37.2 | 25.1 | 31.5 |
| HLE(ツール使用) | 50.4 | 43.4 | 45.5 | 45.8 | 40.8 | 51.8 |
| AIME 2026 I | 92.7 | 93.3 | - | 90.6 | 92.7 | 92.5 |
GLM-5はHumanity's Last ExamでClaude Opus 4.5を上回りました。
エージェントタスク
| ベンチマーク | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| BrowseComp | 75.9 | 67.8 | 65.8 | 59.2 | 67.6 | 74.9 |
| t2-Bench | 89.7 | 91.6 | 85.5 | 90.7 | 85.3 | 80.2 |
BrowseCompではGLM-5が全モデルを上回りました。
ハルシネーション: 記録的低率
AA-Omniscience指数で**-1を記録、前世代から35ポイント改善**。OpenAI、Anthropic、Googleの全テスト済みモデルをリードしています。
価格: Claude Opusの6分の1
| モデル | 入力(100万トークン) | 出力(100万トークン) |
|---|---|---|
| GLM-5 | ~$0.80 | ~$2.56 |
| GPT-5.2 | $2.50 | $10.00 |
| Claude Opus 4.6 | $5.00 | $25.00 |
ドキュメント生成
ネイティブ**「エージェントモード」**で.docx、.pdf、.xlsxファイルを直接生成。Claude Code、OpenCode、Roo Code、OpenClawと互換性あり。
GLM-5をローカルで実行
docker pull vllm/vllm-openai:nightly
vllm serve zai-org/GLM-5-FP8 --tensor-parallel-size 8 --gpu-memory-utilization 0.95
モデルの重み: zai-org/GLM-5
中国のオープンソースAIの波
中国のAIモデルは歴史的に米国の約7か月遅れでしたが、GLM-5はその遅れを約3か月に半減させました。
GLM-5を試すべきか?
- GDPRの下でのデータ主権を持つセルフホスト推論
- 大量ワークロードの低コスト運用(~$0.80/100万入力トークン)
- コーディングとエージェントタスクでプロプライエタリモデルに匹敵
chat.z.aiで試すか、HuggingFaceから重みをダウンロードしてください。


