GLM-5 : Le géant open-source chinois qui rivalise avec Claude et GPT

    6 min de lecture
    Ing. Patrik Kelemen
    GLM-5 : Le géant open-source chinois qui rivalise avec Claude et GPT

    Le GLM-5 de Zhipu AI compte 744 milliards de paramètres, est distribué sous licence MIT et ses benchmarks sont à portée de Claude Opus 4.5 et GPT-5.2. Entraîné entièrement sur des puces Huawei et environ 6 fois moins cher que ses rivaux propriétaires, c'est l'un des modèles open-source les plus puissants disponibles aujourd'hui.

    Namiru AI

    Support client IA pour votre site web

    Collez votre URL. Obtenez un agent de support en 30 secondes.

    Le 11 février 2026, le laboratoire chinois d'IA Zhipu AI (désormais rebaptisé Z.ai) a lancé GLM-5, un nouveau modèle de langage open-source qui concurrence directement Claude Opus 4.5, GPT-5.2 et Gemini 3 Pro sur les benchmarks de codage, de raisonnement et de tâches agentiques.

    Le marché a fortement réagi. Les actions de Zhipu à Hong Kong ont bondi de 28,7% le jour du lancement. Fait intéressant, avant l'annonce officielle, un modèle mystérieux appelé "Pony Alpha" affichait déjà les meilleurs scores sur OpenRouter. Il s'est avéré que c'était GLM-5 sous un autre nom.

    Voici ce qu'il contient et comment il se compare.


    Qu'est-ce que GLM-5 ?

    GLM-5 est le modèle de langage de cinquième génération de Zhipu AI, une entreprise issue de l'Université Tsinghua en 2019 qui a réalisé son introduction en bourse à Hong Kong en janvier 2026, levant environ 558 millions de dollars.

    Le modèle repose sur une architecture Mixture-of-Experts (MoE) avec 744 milliards de paramètres au total, dont seulement 40 milliards sont actifs par inférence. C'est presque le double de son prédécesseur GLM-4.5 (355 milliards de paramètres). Les données de pré-entraînement sont passées de 23 trillions à 28,5 trillions de tokens.

    GLM-5 intègre DeepSeek Sparse Attention (DSA) pour réduire les coûts de déploiement tout en préservant la capacité de contexte long jusqu'à 200K tokens.

    GLM-5 en un coup d'oeil

    SpécificationDétails
    Paramètres totaux744B
    Paramètres actifs (par token)40B
    ArchitectureMixture-of-Experts (MoE), 256 experts, 8 actifs par token
    Données de pré-entraînement28,5 trillions de tokens
    Fenêtre de contexte200K tokens
    Mécanisme d'attentionDeepSeek Sparse Attention (DSA)
    LicenceMIT
    Matériel d'entraînementPuces Huawei Ascend (entièrement domestique)
    DisponibilitéHuggingFace, API Z.ai, OpenRouter

    GLM-5 a été entraîné entièrement sur des puces Huawei Ascend avec le framework MindSpore, atteignant une indépendance totale vis-à-vis du matériel fabriqué aux États-Unis.


    Performance des benchmarks

    Codage & Ingénierie

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    SWE-bench Verified77,8%80,9%80,0%76,2%73,1%76,8%
    SWE-bench Multilingual73,3%77,5%72,0%65,0%70,2%73,0%
    Terminal-Bench 2.056,259,354,054,239,350,8

    Raisonnement

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    HLE (Humanity's Last Exam)30,528,435,437,225,131,5
    HLE avec outils50,443,445,545,840,851,8
    AIME 2026 I92,793,3-90,692,792,5
    GPQA-Diamond86,087,092,491,982,487,6

    GLM-5 surpasse Claude Opus 4.5 sur Humanity's Last Exam et tient tête à GPT-5.2 et Gemini 3 Pro.

    Tâches agentiques

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    BrowseComp (avec contexte)75,967,865,859,267,674,9
    t2-Bench89,791,685,590,785,380,2
    MCP-Atlas67,865,268,066,662,263,8
    Vending Bench 2$4.432$4.967$3.591$5.478$1.034$1.198

    Sur BrowseComp, GLM-5 surpasse tous les modèles de la comparaison, y compris les propriétaires.


    Hallucination : Un taux record

    GLM-5 a obtenu -1 sur l'indice AA-Omniscience d'Artificial Analysis, soit une amélioration de 35 points. Il mène tous les modèles testés d'OpenAI, Anthropic et Google dans cette catégorie.


    Tarification : 6 fois moins cher que Claude Opus

    ModèleEntrée (par 1M tokens)Sortie (par 1M tokens)
    GLM-5~$0,80~$2,56
    GPT-5.2$2,50$10,00
    Claude Opus 4.6$5,00$25,00

    Génération de documents

    GLM-5 introduit un "Mode Agent" natif. Le modèle peut produire des fichiers .docx, .pdf ou .xlsx directement. Compatible avec Claude Code, OpenCode, Roo Code et OpenClaw.


    Exécuter GLM-5 localement

    bash
    docker pull vllm/vllm-openai:nightly
    vllm serve zai-org/GLM-5-FP8 --tensor-parallel-size 8 --gpu-memory-utilization 0.95
    

    Poids du modèle sur HuggingFace : zai-org/GLM-5


    La vague open-source chinoise

    GLM-5 fait partie d'une vague accélérée de publications IA open-source chinoises. L'écart historique de sept mois avec les modèles américains a été réduit à environ trois mois.


    Faut-il essayer GLM-5 ?

    • Inférence auto-hébergée avec souveraineté des données sous GDPR.
    • Charges de travail à haut volume à ~$0,80/1M tokens d'entrée.
    • Codage et tâches agentiques au niveau des modèles propriétaires.

    Essayez-le sur chat.z.ai ou téléchargez les poids depuis HuggingFace.


    Sources :

    Cree par Namiru.ai - chat IA plug-and-play pour votre site web.

    Patrik Kelemen
    Author
    Ing. Patrik Kelemen
    Founder of Namiru.aiSlovakia, EU

    Senior software engineer with 10+ years of experience, specializing in AI chat widgets and automation. Building Namiru.ai to help businesses leverage AI without complexity.

    AI AgentsAngularReactNodeJSAWSAzure
    Vous avez aime cet article ?

    Decouvrez ce que l'IA peut faire pour votre site web

    Collez votre URL et regardez votre agent IA prendre vie en quelques secondes.

    Vos clients obtiennent des reponses instantanees. Vous obtenez des leads, des analyses et du temps libre.

    Sans carte de credit

    Namiru.ai

    AI chat for your website