11 Şubat 2026'da Çinli AI laboratuvarı Zhipu AI (şimdi Z.ai olarak yeniden markalanmış) GLM-5'i yayınladı. Bu yeni açık kaynak büyük dil modeli, kodlama, muhakeme ve ajantik benchmarklarda doğrudan Claude Opus 4.5, GPT-5.2 ve Gemini 3 Pro ile rekabet ediyor.
Piyasa güçlü tepki verdi. Zhipu'nun Hong Kong hisseleri yayın gününde %28,7 yükseldi. İlginç bir şekilde, resmi duyurudan önce "Pony Alpha" adlı gizemli bir model OpenRouter'da zaten en yüksek puanları alıyordu. Bunun farklı bir isim altında çalışan GLM-5 olduğu ortaya çıktı.
İşte içeriği ve karşılaştırması.
GLM-5 Nedir?
GLM-5, 2019'da Tsinghua Üniversitesi'nden ayrılarak kurulan ve Ocak 2026'da Hong Kong'da halka arz gerçekleştirerek yaklaşık 558 milyon dolar toplayan Zhipu AI'ın beşinci nesil büyük dil modelidir.
Model, 744 milyar toplam parametreli bir Mixture-of-Experts (MoE) mimarisi üzerine inşa edilmiştir ve bunların yalnızca 40 milyarı çıkarım başına aktiftir. Bu, 355 milyar parametreli önceli GLM-4.5'in neredeyse iki katıdır. Ön eğitim verileri de 23 trilyondan 28,5 trilyon tokene yükseldi.
GLM-5, dağıtım maliyetlerini düşürürken 200K tokene kadar uzun bağlam kapasitesini korumak için DeepSeek tarafından geliştirilen DeepSeek Sparse Attention (DSA) tekniğini entegre eder.
GLM-5 Bir Bakışta
| Özellik | Detaylar |
|---|---|
| Toplam Parametreler | 744 Milyar |
| Aktif Parametreler (token başına) | 40 Milyar |
| Mimari | Mixture-of-Experts (MoE), 256 uzman, token başına 8 aktif |
| Ön Eğitim Verileri | 28,5 trilyon token |
| Bağlam Penceresi | 200K token |
| Dikkat Mekanizması | DeepSeek Sparse Attention (DSA) |
| Lisans | MIT |
| Eğitim Donanımı | Huawei Ascend çipleri (tamamen yerli) |
| Erişim | HuggingFace, Z.ai API, OpenRouter |
GLM-5, MindSpore çerçevesi kullanılarak tamamen Huawei Ascend çiplerinde eğitilmiştir ve ABD yapımı donanımdan tam bağımsızlık elde etmiştir.
Benchmark Performansı
Kodlama ve Mühendislik
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| SWE-bench Verified | %77,8 | %80,9 | %80,0 | %76,2 | %73,1 | %76,8 |
| SWE-bench Multilingual | %73,3 | %77,5 | %72,0 | %65,0 | %70,2 | %73,0 |
| Terminal-Bench 2.0 | 56,2 | 59,3 | 54,0 | 54,2 | 39,3 | 50,8 |
Muhakeme
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| HLE (Humanity's Last Exam) | 30,5 | 28,4 | 35,4 | 37,2 | 25,1 | 31,5 |
| HLE Araçlarla | 50,4 | 43,4 | 45,5 | 45,8 | 40,8 | 51,8 |
GLM-5 Humanity's Last Exam'da Claude Opus 4.5'i geçiyor (hem salt metin hem de araçlarla).
Ajantik Görevler
| Benchmark | GLM-5 | Claude Opus 4.5 | GPT-5.2 | Gemini 3 Pro | DeepSeek-V3.2 | Kimi K2.5 |
|---|---|---|---|---|---|---|
| BrowseComp (Bağlamla) | 75,9 | 67,8 | 65,8 | 59,2 | 67,6 | 74,9 |
| τ²-Bench | 89,7 | 91,6 | 85,5 | 90,7 | 85,3 | 80,2 |
BrowseComp'ta GLM-5, tescilli olanlar dahil karşılaştırmadaki her modeli geçiyor.
Halüsinasyon: Rekor Düşük Oran
GLM-5, Artificial Analysis AA-Omniscience İndeksi'nde -1 puan aldı ve bu, önceline göre 35 puanlık bir iyileşmeyi temsil ediyor. Şu anda bu kategoride OpenAI, Anthropic ve Google'dan test edilen tüm modelleri geçiyor.
Fiyatlandırma: Claude Opus'tan 6 Kat Ucuz
| Model | Giriş (1M token başına) | Çıkış (1M token başına) |
|---|---|---|
| GLM-5 | ~0,80 $ | ~2,56 $ |
| GPT-5.2 | 2,50 $ | 10,00 $ |
| Claude Opus 4.6 | 5,00 $ | 25,00 $ |
Bu, Claude Opus 4.6 ile karşılaştırıldığında girişte yaklaşık 6 kat, çıkışta ise neredeyse 10 kat daha ucuz.
GLM-5'i Denemeli misiniz?
GLM-5, yetenekli bir modele ihtiyaç duyduğunuz ancak tescilli API'lere bağımlı olamadığınız veya olmak istemediğiniz durumlarda en mantıklıdır:
- Veri egemenliğiyle kendi kendine barındırılan çıkarım. GDPR veya benzeri düzenlemeler altında çalışıyorsanız ve verilerinizin nereye gittiği üzerinde tam kontrol istiyorsanız, MIT lisanslı GLM-5 ve yerel dağıtım en güçlü seçeneklerden biridir.
- Bütçeyle yüksek hacimli iş yükleri. ~0,80 $/1M giriş tokeninde, günlük binlerce istek çalıştıran ekipler kalitede büyük düşüş olmadan maliyetleri önemli ölçüde azaltabilir.
- Kodlama ve ajantik görevler. GLM-5'in SWE-bench ve BrowseComp'taki benchmark puanları onu tescilli modellerle aynı ligaya koyuyor.
chat.z.ai adresinde deneyin veya ağırlıkları HuggingFace'ten alın.
Kaynaklar:


