GLM-5: O gigante open-source da China que rivaliza com Claude e GPT

    5 min de leitura
    Ing. Patrik Kelemen
    GLM-5: O gigante open-source da China que rivaliza com Claude e GPT

    O GLM-5 da Zhipu AI vem com 744 bilhões de parâmetros, é distribuído sob licença MIT e seus benchmarks estão próximos de Claude Opus 4.5 e GPT-5.2. Treinado inteiramente em chips Huawei e com preço cerca de 6x menor que seus rivais proprietários, é um dos modelos open-source mais fortes disponíveis hoje.

    Namiru AI

    Suporte ao cliente com IA para o seu site

    Cole sua URL. Tenha um agente de suporte em 30 segundos.

    Em 11 de fevereiro de 2026, o laboratório chinês de IA Zhipu AI (agora rebatizado como Z.ai) lançou o GLM-5, um novo modelo de linguagem grande open-source que compete diretamente com Claude Opus 4.5, GPT-5.2 e Gemini 3 Pro em benchmarks de codificação, raciocínio e tarefas agentivas.

    O mercado reagiu fortemente. As ações da Zhipu em Hong Kong subiram 28,7% no dia do lançamento. Curiosamente, antes do anúncio oficial, um modelo misterioso chamado "Pony Alpha" já estava postando as melhores pontuações no OpenRouter. Descobriu-se que era o GLM-5 rodando sob um nome diferente.


    O que é o GLM-5?

    GLM-5 é o modelo de linguagem grande de quinta geração da Zhipu AI, uma empresa que surgiu da Universidade Tsinghua em 2019 e completou um IPO em Hong Kong em janeiro de 2026, levantando aproximadamente $558 milhões.

    O modelo usa uma arquitetura Mixture-of-Experts (MoE) com 744 bilhões de parâmetros totais, dos quais apenas 40 bilhões estão ativos por inferência. Os dados de pré-treinamento saltaram de 23 trilhões para 28,5 trilhões de tokens. Integra DeepSeek Sparse Attention (DSA) para contexto longo de até 200K tokens.

    GLM-5 em resumo

    EspecificaçãoDetalhes
    Parâmetros totais744B
    Parâmetros ativos (por token)40B
    ArquiteturaMoE, 256 especialistas, 8 ativos por token
    Dados de pré-treinamento28,5 trilhões de tokens
    Janela de contexto200K tokens
    LicençaMIT
    Hardware de treinamentoChips Huawei Ascend

    Treinado inteiramente em chips Huawei Ascend, alcançando independência total de hardware fabricado nos EUA.


    Performance em benchmarks

    Codificação

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    SWE-bench Verified77,8%80,9%80,0%76,2%73,1%76,8%
    SWE-bench Multilingual73,3%77,5%72,0%65,0%70,2%73,0%
    Terminal-Bench 2.056,259,354,054,239,350,8

    Raciocínio

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    HLE30,528,435,437,225,131,5
    HLE com ferramentas50,443,445,545,840,851,8
    AIME 2026 I92,793,3-90,692,792,5
    GPQA-Diamond86,087,092,491,982,487,6

    GLM-5 supera Claude Opus 4.5 no Humanity's Last Exam.

    Tarefas agentivas

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    BrowseComp75,967,865,859,267,674,9
    t2-Bench89,791,685,590,785,380,2
    MCP-Atlas67,865,268,066,662,263,8

    No BrowseComp, GLM-5 supera todos os modelos na comparação.


    Alucinação: Taxa recorde

    GLM-5 obteve -1 no Índice AA-Omniscience, uma melhoria de 35 pontos. Lidera todos os modelos testados de OpenAI, Anthropic e Google nesta categoria.


    Preços: 6x mais barato que Claude Opus

    ModeloEntrada (por 1M tokens)Saída (por 1M tokens)
    GLM-5~$0,80~$2,56
    GPT-5.2$2,50$10,00
    Claude Opus 4.6$5,00$25,00

    Geração de documentos

    GLM-5 introduz "Modo Agente" nativo para produzir arquivos .docx, .pdf ou .xlsx diretamente. Compatível com Claude Code, OpenCode, Roo Code e OpenClaw.


    Execute GLM-5 localmente

    bash
    docker pull vllm/vllm-openai:nightly
    vllm serve zai-org/GLM-5-FP8 --tensor-parallel-size 8 --gpu-memory-utilization 0.95
    

    Pesos do modelo no HuggingFace: zai-org/GLM-5


    A onda open-source da China

    O atraso histórico de sete meses em relação aos modelos americanos foi reduzido para cerca de três meses.


    Você deveria experimentar o GLM-5?

    • Inferência auto-hospedada com soberania de dados sob GDPR.
    • Cargas de trabalho de alto volume a ~$0,80/1M tokens de entrada.
    • Codificação e tarefas agentivas no nível dos modelos proprietários.

    Experimente em chat.z.ai ou baixe os pesos do HuggingFace.


    Fontes:

    Criado por Namiru.ai - chat IA plug-and-play para o seu site.

    Patrik Kelemen
    Author
    Ing. Patrik Kelemen
    Founder of Namiru.aiSlovakia, EU

    Senior software engineer with 10+ years of experience, specializing in AI chat widgets and automation. Building Namiru.ai to help businesses leverage AI without complexity.

    AI AgentsAngularReactNodeJSAWSAzure
    Gostou deste artigo?

    Veja o que a IA pode fazer pelo seu site

    Cole sua URL e veja seu agente de IA ganhar vida em segundos.

    Seus clientes recebem respostas instantaneas. Voce ganha leads, analises e seu tempo de volta.

    Sem cartao de credito

    Namiru.ai

    AI chat for your website