GLM-5: El gigante open-source de China que rivaliza con Claude y GPT

    10 min de lectura
    Ing. Patrik Kelemen
    GLM-5: El gigante open-source de China que rivaliza con Claude y GPT

    GLM-5 de Zhipu AI cuenta con 744 mil millones de parámetros, se distribuye bajo licencia MIT y sus benchmarks están a corta distancia de Claude Opus 4.5 y GPT-5.2. Entrenado completamente en chips Huawei y con un precio aproximadamente 6 veces menor que sus rivales propietarios, es uno de los modelos open-source más potentes disponibles hoy.

    Namiru AI

    Soporte al cliente con IA para tu sitio web

    Pega tu URL. Obtiene un agente de soporte en 30 segundos.

    El 11 de febrero de 2026, el laboratorio chino de IA Zhipu AI (ahora rebautizado como Z.ai) lanzó GLM-5, un nuevo modelo de lenguaje grande open-source que compite directamente con Claude Opus 4.5, GPT-5.2 y Gemini 3 Pro en benchmarks de codificación, razonamiento y tareas agentivas.

    El mercado reaccionó con fuerza. Las acciones de Zhipu en Hong Kong subieron un 28,7% el día del lanzamiento. Curiosamente, antes del anuncio oficial, un modelo misterioso llamado "Pony Alpha" ya estaba publicando las mejores puntuaciones en OpenRouter. Resultó ser GLM-5 funcionando bajo un nombre diferente.

    Aquí está lo que contiene y cómo se compara.


    ¿Qué es GLM-5?

    GLM-5 es el modelo de lenguaje grande de quinta generación de Zhipu AI, una empresa que se desprendió de la Universidad de Tsinghua en 2019 y completó una salida a bolsa en Hong Kong en enero de 2026, recaudando aproximadamente $558 millones.

    El modelo está construido sobre una arquitectura de Mezcla de Expertos (MoE) con 744 mil millones de parámetros totales, de los cuales solo 40 mil millones están activos por inferencia. Esto es casi el doble del tamaño de su predecesor GLM-4.5, que tenía 355 mil millones de parámetros. Los datos de pre-entrenamiento también saltaron de 23 billones a 28,5 billones de tokens.

    GLM-5 integra DeepSeek Sparse Attention (DSA), una técnica originalmente desarrollada por DeepSeek, para reducir los costos de implementación mientras preserva la capacidad de contexto largo hasta 200K tokens.

    GLM-5 de un vistazo

    EspecificaciónDetalles
    Parámetros totales744B
    Parámetros activos (por token)40B
    ArquitecturaMezcla de Expertos (MoE), 256 expertos, 8 activos por token
    Datos de pre-entrenamiento28,5 billones de tokens
    Ventana de contexto200K tokens
    Mecanismo de atenciónDeepSeek Sparse Attention (DSA)
    LicenciaMIT
    Hardware de entrenamientoChips Huawei Ascend (totalmente doméstico)
    DisponibilidadHuggingFace, API de Z.ai, OpenRouter

    GLM-5 fue entrenado completamente en chips Huawei Ascend usando el framework MindSpore, logrando independencia total del hardware fabricado en EE.UU. Dadas las restricciones de exportación actuales de EE.UU. sobre chips de IA avanzados, este es un hito estratégico significativo para el ecosistema de IA de China.


    Rendimiento en benchmarks: ¿Cómo se compara GLM-5?

    Zhipu AI posiciona GLM-5 como el modelo open-source más capaz disponible, y los números de los benchmarks respaldan eso en gran medida. Así se compara con los modelos frontera actuales.

    Codificación e ingeniería

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    SWE-bench Verified77,8%80,9%80,0%76,2%73,1%76,8%
    SWE-bench Multilingual73,3%77,5%72,0%65,0%70,2%73,0%
    Terminal-Bench 2.056,259,354,054,239,350,8

    Claude Opus 4.5 todavía lidera en codificación, pero GLM-5 no está lejos, y es open-source y gratuito.

    Razonamiento

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    HLE (Humanity's Last Exam)30,528,435,437,225,131,5
    HLE con herramientas50,443,445,545,840,851,8
    AIME 2026 I92,793,3-90,692,792,5
    GPQA-Diamond86,087,092,491,982,487,6

    GLM-5 supera a Claude Opus 4.5 en Humanity's Last Exam (tanto solo texto como con herramientas) y se mantiene firme frente a GPT-5.2 y Gemini 3 Pro en benchmarks matemáticos.

    Tareas agentivas

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    BrowseComp (con contexto)75,967,865,859,267,674,9
    t2-Bench89,791,685,590,785,380,2
    MCP-Atlas67,865,268,066,662,263,8
    Vending Bench 2$4.432$4.967$3.591$5.478$1.034$1.198

    Los benchmarks agentivos merecen una mirada más cercana. En BrowseComp (búsqueda web basada en agentes y gestión de contexto), GLM-5 supera a todos los modelos en la comparación, incluyendo los propietarios.


    Alucinación: Una tasa récord baja

    GLM-5 obtuvo -1 en el Índice AA-Omniscience de Artificial Analysis, lo que representa una mejora de 35 puntos sobre su predecesor. Esto lo convierte en el modelo con mejor rendimiento en cuanto a reconocer los límites de su propio conocimiento y abstenerse de generar información falsa. Actualmente lidera todos los modelos evaluados de OpenAI, Anthropic y Google en esta categoría.

    Para casos de uso empresarial donde la precisión importa más que la creatividad, esta es una ventaja significativa.


    Precios: 6 veces más barato que Claude Opus

    GLM-5 está disponible en OpenRouter y la API de Z.ai a precios competitivos:

    ModeloEntrada (por 1M tokens)Salida (por 1M tokens)
    GLM-5~$0,80~$2,56
    GPT-5.2$2,50$10,00
    Claude Opus 4.6$5,00$25,00

    Eso es aproximadamente 6 veces más barato en entrada y casi 10 veces más barato en salida comparado con Claude Opus 4.6.


    Generación de documentos: Más allá del chat

    GLM-5 introduce capacidades nativas de "Modo Agente" que van más allá del chat tradicional. En lugar de solo devolver texto, el modelo puede tomar un prompt y producir un archivo .docx, .pdf o .xlsx terminado directamente. La plataforma Z.ai (chat.z.ai) tiene este modo integrado.

    El modelo también es compatible con agentes de codificación populares como Claude Code, OpenCode y Roo Code, así como OpenClaw, un framework para flujos de trabajo agentivos entre aplicaciones y dispositivos.


    Ejecuta GLM-5 localmente

    Una de las mayores ventajas de un modelo con licencia MIT: puedes ejecutarlo tú mismo. GLM-5 soporta despliegue via vLLM, SGLang y xLLM.

    Usando vLLM (Docker)

    bash
    docker pull vllm/vllm-openai:nightly
    

    Despliegue

    bash
    vllm serve zai-org/GLM-5-FP8      --tensor-parallel-size 8      --gpu-memory-utilization 0.95
    

    Usando SGLang (Docker)

    bash
    # Para GPUs Hopper
    docker pull lmsysorg/sglang:glm5-hopper
    
    # Para GPUs Blackwell
    docker pull lmsysorg/sglang:glm5-blackwell
    

    La versión cuantizada FP8 se recomienda para despliegues en producción. Los pesos del modelo están disponibles en HuggingFace: zai-org/GLM-5


    La ola open-source de IA de China

    GLM-5 no está ocurriendo en aislamiento. Es parte de una ola acelerada de lanzamientos de IA open-source de China. Según un estudio de Stanford, los modelos de IA chinos históricamente han ido aproximadamente siete meses detrás de sus contrapartes estadounidenses. GLM-5 llegó solo unos tres meses después de los últimos lanzamientos de Anthropic, Google y OpenAI, reduciendo ese retraso a la mitad.

    Para desarrolladores y empresas, esto se traduce en más opciones, precios más bajos y presión creciente sobre los modelos propietarios para justificar sus precios premium.


    ¿Deberías probar GLM-5?

    GLM-5 tiene más sentido si necesitas un modelo capaz pero no puedes o no quieres depender de APIs propietarias. Algunos escenarios donde destaca:

    • Inferencia auto-alojada con soberanía de datos. Si operas bajo GDPR o regulaciones similares y necesitas control total sobre dónde van tus datos, GLM-5 con licencia MIT y despliegue local es una de las opciones más fuertes disponibles ahora.
    • Cargas de trabajo de alto volumen con presupuesto. A ~$0,80/1M tokens de entrada, los equipos que ejecutan miles de solicitudes diarias pueden reducir costos significativamente comparado con Claude o GPT.
    • Codificación y tareas agentivas. Las puntuaciones de GLM-5 en SWE-bench y BrowseComp lo ponen en la misma liga que los modelos propietarios.

    Las advertencias habituales aplican: las puntuaciones de benchmarks no siempre se traducen en usabilidad del mundo real. Pero la brecha se está reduciendo, y GLM-5 eleva el estándar de lo disponible como modelo libre y abierto.

    Pruébalo en chat.z.ai o descarga los pesos desde HuggingFace.


    Fuentes:

    Creado por Namiru.ai - chat IA plug-and-play para tu sitio web.

    Patrik Kelemen
    Author
    Ing. Patrik Kelemen
    Founder of Namiru.aiSlovakia, EU

    Senior software engineer with 10+ years of experience, specializing in AI chat widgets and automation. Building Namiru.ai to help businesses leverage AI without complexity.

    AI AgentsAngularReactNodeJSAWSAzure
    Te gusto este articulo?

    Descubre lo que la IA puede hacer por tu sitio web

    Pega tu URL y observa como tu agente de IA cobra vida en segundos.

    Tus clientes obtienen respuestas al instante. Tu obtienes leads, analisis y recuperas tu tiempo.

    Sin tarjeta de credito

    Namiru.ai

    AI chat for your website