GLM-5: Chiński open-source'owy gigant, który rywalizuje z Claude i GPT

    6 min czytania
    Ing. Patrik Kelemen
    GLM-5: Chiński open-source'owy gigant, który rywalizuje z Claude i GPT

    GLM-5 od Zhipu AI ma 744 miliardy parametrów, jest wydany na licencji MIT i w benchmarkach osiąga wyniki bliskie Claude Opus 4.5 i GPT-5.2. Wytrenowany w całości na chipach Huawei i wyceniony mniej więcej 6 razy taniej niż jego własnościowi rywale, jest jednym z najsilniejszych dostępnych modeli open-source.

    Namiru AI

    Obsluga klienta AI dla Twojej strony

    Wklej swoj URL. Otrzymaj agenta wsparcia w 30 sekund.

    11 lutego 2026 roku chińskie laboratorium AI Zhipu AI (obecnie przemianowane na Z.ai) wydało GLM-5, nowy model językowy open-source, który bezpośrednio konkuruje z Claude Opus 4.5, GPT-5.2 i Gemini 3 Pro w benchmarkach kodowania, rozumowania i zadań agentowych.

    Rynek zareagował silnie. Akcje Zhipu w Hongkongu wzrosły o 28,7% w dniu wydania. Co ciekawe, przed oficjalnym ogłoszeniem tajemniczy model o nazwie "Pony Alpha" już osiągał najwyższe wyniki na OpenRouter. Okazało się, że to GLM-5 działający pod inną nazwą.

    Oto co jest w środku i jak się porównuje.


    Czym jest GLM-5?

    GLM-5 to piąta generacja dużego modelu językowego od Zhipu AI, firmy, która powstała z Uniwersytetu Tsinghua w 2019 roku i przeprowadziła IPO w Hongkongu w styczniu 2026, pozyskując około 558 milionów dolarów.

    Model oparty jest na architekturze Mixture-of-Experts (MoE) z 744 miliardami łącznych parametrów, z których tylko 40 miliardów jest aktywnych na inferencję. To prawie dwukrotnie więcej niż jego poprzednik GLM-4.5, który miał 355 miliardów parametrów. Dane treningowe wzrosły z 23 bilionów do 28,5 biliona tokenów.

    GLM-5 integruje DeepSeek Sparse Attention (DSA), technikę pierwotnie opracowaną przez DeepSeek, aby zmniejszyć koszty wdrożenia przy zachowaniu pojemności długiego kontekstu do 200K tokenów.

    GLM-5 w skrócie

    SpecyfikacjaSzczegóły
    Łączne parametry744 mld
    Aktywne parametry (na token)40 mld
    ArchitekturaMixture-of-Experts (MoE), 256 ekspertów, 8 aktywnych na token
    Dane treningowe28,5 biliona tokenów
    Okno kontekstu200K tokenów
    Mechanizm uwagiDeepSeek Sparse Attention (DSA)
    LicencjaMIT
    Sprzęt treningowyChipy Huawei Ascend (w pełni krajowe)
    DostępnośćHuggingFace, Z.ai API, OpenRouter

    GLM-5 został wytrenowany w całości na chipach Huawei Ascend z użyciem frameworka MindSpore, osiągając pełną niezależność od sprzętu wyprodukowanego w USA.


    Wyniki benchmarków

    Kodowanie i inżynieria

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    SWE-bench Verified77,8%80,9%80,0%76,2%73,1%76,8%
    SWE-bench Multilingual73,3%77,5%72,0%65,0%70,2%73,0%
    Terminal-Bench 2.056,259,354,054,239,350,8

    Rozumowanie

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    HLE (Humanity's Last Exam)30,528,435,437,225,131,5
    HLE z narzędziami50,443,445,545,840,851,8
    AIME 2026 I92,793,3-90,692,792,5
    GPQA-Diamond86,087,092,491,982,487,6

    GLM-5 przewyższa Claude Opus 4.5 w Humanity's Last Exam (zarówno samym tekstem, jak i z narzędziami).

    Zadania agentowe

    BenchmarkGLM-5Claude Opus 4.5GPT-5.2Gemini 3 ProDeepSeek-V3.2Kimi K2.5
    BrowseComp (z kontekstem)75,967,865,859,267,674,9
    τ²-Bench89,791,685,590,785,380,2

    W BrowseComp GLM-5 przewyższa każdy model w porównaniu, włącznie z własnościowymi.


    Halucynacja: Rekordowo niski poziom

    GLM-5 uzyskał -1 w indeksie AA-Omniscience od Artificial Analysis, co oznacza poprawę o 35 punktów w porównaniu z poprzednikiem. Aktualnie prowadzi wśród wszystkich testowanych modeli od OpenAI, Anthropic i Google w tej kategorii.


    Ceny: 6 razy tańszy niż Claude Opus

    ModelWejście (za 1M tokenów)Wyjście (za 1M tokenów)
    GLM-5~0,80 $~2,56 $
    GPT-5.22,50 $10,00 $
    Claude Opus 4.65,00 $25,00 $

    To około 6 razy taniej na wejściu i prawie 10 razy taniej na wyjściu w porównaniu z Claude Opus 4.6.


    Czy warto wypróbować GLM-5?

    GLM-5 ma największy sens, gdy potrzebujesz wydajnego modelu, ale nie możesz lub nie chcesz polegać na własnościowych API:

    • Samodzielnie hostowana inferencja z suwerennością danych. Jeśli działasz pod RODO i potrzebujesz pełnej kontroli nad tym, dokąd trafiają Twoje dane, GLM-5 z licencją MIT i lokalnym wdrożeniem jest jedną z najsilniejszych dostępnych opcji.
    • Duże wolumeny przy ograniczonym budżecie. Przy ~0,80 $/1M tokenów wejściowych zespoły z tysiącami dziennych zapytań mogą znacząco obniżyć koszty.
    • Kodowanie i zadania agentowe. Wyniki GLM-5 w SWE-bench i BrowseComp plasują go w tej samej lidze co modele własnościowe.

    Wypróbuj na chat.z.ai lub pobierz wagi z HuggingFace.


    Źródła:

    Stworzone przez Namiru.ai - plug-and-play czat AI dla Twojej strony.

    Patrik Kelemen
    Author
    Ing. Patrik Kelemen
    Founder of Namiru.aiSlovakia, EU

    Senior software engineer with 10+ years of experience, specializing in AI chat widgets and automation. Building Namiru.ai to help businesses leverage AI without complexity.

    AI AgentsAngularReactNodeJSAWSAzure
    Spodobal ci sie ten artykul?

    Zobacz, co AI moze zrobic dla Twojej strony

    Wklej swoj URL i obserwuj, jak Twoj agent AI ozywia sie w kilka sekund.

    Twoi klienci otrzymuja natychmiastowe odpowiedzi. Ty zyskujesz leady, analizy i swoj czas z powrotem.

    Bez karty kredytowej

    Namiru.ai

    AI chat for your website