- února 2026 čínská AI laboratoř Zhipu AI (nyní přejmenovaná na Z.ai) vydala GLM-5, nový open-source velký jazykový model, který přímo konkuruje Claude Opus 4.5, GPT-5.2 a Gemini 3 Pro v kódování, uvažování a agentových benchmarcích.
Trh reagoval silně. Akcie Zhipu v Hongkongu vyskočily o 28,7 % v den vydání. Zajímavé je, že před oficiálním oznámením záhadný model s názvem "Pony Alpha" již dosahoval nejvyšších skóre na OpenRouter. Ukázalo se, že to byl GLM-5 běžící pod jiným názvem.
Zde je to, co je uvnitř a jak se srovnává.
Co je GLM-5?
GLM-5 je pátá generace velkého jazykového modelu od Zhipu AI, společnosti, která vznikla na Univerzitě Tsinghua v roce 2019 a dokončila IPO v Hongkongu v lednu 2026, přičemž získala přibližně 558 milionů dolarů.
Model je postaven na architektuře Mixture-of-Experts (MoE) se 744 miliardami celkových parametrů, z nichž je pouze 40 miliard aktivních na jednu inferenci. To je téměř dvojnásobek velikosti jeho předchůdce GLM-4.5, který měl 355 miliard parametrů.
GLM-5 integruje DeepSeek Sparse Attention (DSA) ke snížení nákladů na nasazení při zachování kapacity pro dlouhý kontext až 200K tokenů.
GLM-5 ve zkratce
| Specifikace | Podrobnosti |
|---|---|
| Celkové parametry | 744B |
| Aktivní parametry (na token) | 40B |
| Architektura | Mixture-of-Experts (MoE), 256 expertů, 8 aktivních na token |
| Předtrénovací data | 28,5 bilionu tokenů |
| Kontextové okno | 200K tokenů |
| Mechanismus pozornosti | DeepSeek Sparse Attention (DSA) |
| Licence | MIT |
| Tréningový hardware | Čipy Huawei Ascend (plně domácí) |
| Dostupnost | HuggingFace, Z.ai API, OpenRouter |
GLM-5 byl trénován výhradně na čipech Huawei Ascend pomocí frameworku MindSpore, čímž dosáhl úplné nezávislosti na hardwaru vyráběném v USA.
Výkon v benchmarcích
Kódování a inženýrství
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| SWE-bench Verified | 77,8 % | 80,9 % | 80,0 % | 76,2 % | 73,1 % | 76,8 % |
| SWE-bench Multilingual | 73,3 % | 77,5 % | 72,0 % | 65,0 % | 70,2 % | 73,0 % |
| Terminal-Bench 2.0 | 56,2 | 59,3 | 54,0 | 54,2 | 39,3 | 50,8 |
Claude Opus 4.5 stále vede v kódování, ale GLM-5 není daleko a je open-source a zdarma.
Uvažování
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| HLE (Humanity's Last Exam) | 30,5 | 28,4 | 35,4 | 37,2 | 25,1 | 31,5 |
| HLE s nástroji | 50,4 | 43,4 | 45,5 | 45,8 | 40,8 | 51,8 |
| AIME 2026 I | 92,7 | 93,3 | - | 90,6 | 92,7 | 92,5 |
| GPQA-Diamond | 86,0 | 87,0 | 92,4 | 91,9 | 82,4 | 87,6 |
GLM-5 překonává Claude Opus 4.5 v Humanity's Last Exam (textová verze i s nástroji).
Agentové úlohy
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| BrowseComp (s kontextem) | 75,9 | 67,8 | 65,8 | 59,2 | 67,6 | 74,9 |
| τ²-Bench | 89,7 | 91,6 | 85,5 | 90,7 | 85,3 | 80,2 |
| MCP-Atlas | 67,8 | 65,2 | 68,0 | 66,6 | 62,2 | 63,8 |
| Vending Bench 2 | $4 432 | $4 967 | $3 591 | $5 478 | $1 034 | $1 198 |
V BrowseComp GLM-5 překonává každý model ve srovnání, včetně proprietárních.
Halucinace: Rekordně nízká míra
GLM-5 dosáhl -1 na indexu Artificial Analysis AA-Omniscience, což představuje 35bodové zlepšení oproti předchůdci. V současnosti vede mezi všemi testovanými modely od OpenAI, Anthropic a Google.
Ceny: 6x levnější než Claude Opus
| Model | Vstup (za 1M tokenů) | Výstup (za 1M tokenů) |
|---|---|---|
| GLM-5 | ~$0,80 | ~$2,56 |
| GPT-5.2 | $2,50 | $10,00 |
| Claude Opus 4.6 | $5,00 | $25,00 |
To je přibližně 6x levnější na vstupu a téměř 10x levnější na výstupu ve srovnání s Claude Opus 4.6.
Generování dokumentů: Za hranicí chatu
GLM-5 zavádí nativní schopnosti "Agent Mode". Model může přímo vytvořit hotový soubor .docx, .pdf nebo .xlsx. Platforma Z.ai (chat.z.ai) má tento režim zabudovaný.
Model je také kompatibilní s populárními kódovacími agenty jako Claude Code, OpenCode a Roo Code, jakož i s OpenClaw, frameworkem pro meziaplikační agentové workflow.
Spusťte GLM-5 lokálně
GLM-5 podporuje nasazení přes vLLM, SGLang a xLLM.
Použití vLLM (Docker)
docker pull vllm/vllm-openai:nightly
Nasazení
vllm serve zai-org/GLM-5-FP8 \
--tensor-parallel-size 8 \
--gpu-memory-utilization 0.95
Použití SGLang (Docker)
# Pro Hopper GPU
docker pull lmsysorg/sglang:glm5-hopper
# Pro Blackwell GPU
docker pull lmsysorg/sglang:glm5-blackwell
Váhy modelu jsou dostupné na HuggingFace: zai-org/GLM-5
Čínská vlna open-source AI
GLM-5 nevzniká izolovaně. Podle studie Stanfordu čínské AI modely historicky zaostávaly asi sedm měsíců za americkými. GLM-5 přišel jen asi tři měsíce po nejnovějších vydáních od Anthropic, Google a OpenAI, čímž efektivně zkrátil toto zpoždění na polovinu.
Kimi K2.5 od Moonshot AI volí jiný architektonický přístup s využitím rojů agentů. Mezitím DeepSeek-V3.2 nyní zaostává za GLM-5 i Kimi K2.5 ve více benchmarcích.
Měli byste vyzkoušet GLM-5?
- Lokální inference s datovou suverenitou. Pokud působíte pod GDPR, GLM-5 s licencí MIT a lokálním nasazením je jednou z nejsilnějších dostupných možností.
- Vysokoobjemové zátěže s omezeným rozpočtem. Při ~$0,80/1M vstupních tokenů mohou týmy výrazně snížit náklady ve srovnání s Claude nebo GPT.
- Kódování a agentové úlohy. Výsledky GLM-5 v SWE-bench a BrowseComp ho řadí do stejné ligy jako proprietární modely.
Vyzkoušejte ho na chat.z.ai nebo si stáhněte váhy z HuggingFace.
Zdroje:


