Em 11 de fevereiro de 2026, o laboratório chinês de IA Zhipu AI (agora rebatizado como Z.ai) lançou o GLM-5, um novo modelo de linguagem grande open-source que compete diretamente com Claude Opus 4.5, GPT-5.2 e Gemini 3 Pro em benchmarks de codificação, raciocínio e tarefas agentivas.
O mercado reagiu fortemente. As ações da Zhipu em Hong Kong subiram 28,7% no dia do lançamento. Curiosamente, antes do anúncio oficial, um modelo misterioso chamado "Pony Alpha" já estava postando as melhores pontuações no OpenRouter. Descobriu-se que era o GLM-5 rodando sob um nome diferente.
O que é o GLM-5?
GLM-5 é o modelo de linguagem grande de quinta geração da Zhipu AI, uma empresa que surgiu da Universidade Tsinghua em 2019 e completou um IPO em Hong Kong em janeiro de 2026, levantando aproximadamente $558 milhões.
O modelo usa uma arquitetura Mixture-of-Experts (MoE) com 744 bilhões de parâmetros totais, dos quais apenas 40 bilhões estão ativos por inferência. Os dados de pré-treinamento saltaram de 23 trilhões para 28,5 trilhões de tokens. Integra DeepSeek Sparse Attention (DSA) para contexto longo de até 200K tokens.
GLM-5 em resumo
| Especificação | Detalhes |
|---|---|
| Parâmetros totais | 744B |
| Parâmetros ativos (por token) | 40B |
| Arquitetura | MoE, 256 especialistas, 8 ativos por token |
| Dados de pré-treinamento | 28,5 trilhões de tokens |
| Janela de contexto | 200K tokens |
| Licença | MIT |
| Hardware de treinamento | Chips Huawei Ascend |
Treinado inteiramente em chips Huawei Ascend, alcançando independência total de hardware fabricado nos EUA.
Performance em benchmarks
Codificação
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| SWE-bench Verified | 77,8% | 80,9% | 80,0% | 76,2% | 73,1% | 76,8% |
| SWE-bench Multilingual | 73,3% | 77,5% | 72,0% | 65,0% | 70,2% | 73,0% |
| Terminal-Bench 2.0 | 56,2 | 59,3 | 54,0 | 54,2 | 39,3 | 50,8 |
Raciocínio
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| HLE | 30,5 | 28,4 | 35,4 | 37,2 | 25,1 | 31,5 |
| HLE com ferramentas | 50,4 | 43,4 | 45,5 | 45,8 | 40,8 | 51,8 |
| AIME 2026 I | 92,7 | 93,3 | - | 90,6 | 92,7 | 92,5 |
| GPQA-Diamond | 86,0 | 87,0 | 92,4 | 91,9 | 82,4 | 87,6 |
GLM-5 supera Claude Opus 4.5 no Humanity's Last Exam.
Tarefas agentivas
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| BrowseComp | 75,9 | 67,8 | 65,8 | 59,2 | 67,6 | 74,9 |
| t2-Bench | 89,7 | 91,6 | 85,5 | 90,7 | 85,3 | 80,2 |
| MCP-Atlas | 67,8 | 65,2 | 68,0 | 66,6 | 62,2 | 63,8 |
No BrowseComp, GLM-5 supera todos os modelos na comparação.
Alucinação: Taxa recorde
GLM-5 obteve -1 no Índice AA-Omniscience, uma melhoria de 35 pontos. Lidera todos os modelos testados de OpenAI, Anthropic e Google nesta categoria.
Preços: 6x mais barato que Claude Opus
| Modelo | Entrada (por 1M tokens) | Saída (por 1M tokens) |
|---|---|---|
| GLM-5 | ~$0,80 | ~$2,56 |
| GPT-5.2 | $2,50 | $10,00 |
| Claude Opus 4.6 | $5,00 | $25,00 |
Geração de documentos
GLM-5 introduz "Modo Agente" nativo para produzir arquivos .docx, .pdf ou .xlsx diretamente. Compatível com Claude Code, OpenCode, Roo Code e OpenClaw.
Execute GLM-5 localmente
docker pull vllm/vllm-openai:nightly
vllm serve zai-org/GLM-5-FP8 --tensor-parallel-size 8 --gpu-memory-utilization 0.95
Pesos do modelo no HuggingFace: zai-org/GLM-5
A onda open-source da China
O atraso histórico de sete meses em relação aos modelos americanos foi reduzido para cerca de três meses.
Você deveria experimentar o GLM-5?
- Inferência auto-hospedada com soberania de dados sob GDPR.
- Cargas de trabalho de alto volume a ~$0,80/1M tokens de entrada.
- Codificação e tarefas agentivas no nível dos modelos proprietários.
Experimente em chat.z.ai ou baixe os pesos do HuggingFace.
Fontes:


