Chiński startup Z.ai wprowadza na rynek potężną rodzinę modeli GLM-4.5 z otwartym kodem źródłowym, stworzoną w programie PowerPoint

Chcesz otrzymywać mądrzejsze informacje w swojej skrzynce odbiorczej? Zapisz się na nasz cotygodniowy newsletter, aby otrzymywać tylko to, co istotne dla liderów w dziedzinie sztucznej inteligencji, danych i bezpieczeństwa w przedsiębiorstwach. Subskrybuj teraz
Rozpoczął się kolejny tydzień lata 2025 roku, a wraz z nim, kontynuując trend z ubiegłego tygodnia , pojawiają się wydajniejsze chińskie modele sztucznej inteligencji typu open source.
Mało znany (przynajmniej nam na Zachodzie) chiński startup Z.ai zaprezentował dwa nowe programy typu LLM o otwartym kodzie źródłowym — GLM-4.5 i GLM-4.5-Air — przedstawiając je jako rozwiązania do wnioskowania w zakresie sztucznej inteligencji, zachowań agentowych i kodowania.
Według wpisu na blogu Z.ai , modelki te plasują się w czołówce innych liderów w dziedzinie praw autorskich LLM w USA
Przykładowo, flagowy model GLM-4.5 dorównuje lub przewyższa wiodące zastrzeżone modele, takie jak Claude 4 Sonnet , Claude 4 Opus i Gemini 2.5 Pro w testach BrowseComp , AIME24 i SWE-bench Verified , zajmując jednocześnie trzecie miejsce w klasyfikacji ogólnej kilkunastu konkurencyjnych testów.
Seria AI Impact powraca do San Francisco – 5 sierpnia
Nadchodzi kolejny etap sztucznej inteligencji – czy jesteś gotowy? Dołącz do liderów z Block, GSK i SAP, aby zobaczyć na wyłączność, jak autonomiczni agenci zmieniają przepływy pracy w przedsiębiorstwach – od podejmowania decyzji w czasie rzeczywistym po kompleksową automatyzację.
Zarezerwuj sobie miejsce już teraz – liczba miejsc ograniczona: https://bit.ly/3GuuPLF
Jego lżejszy odpowiednik, GLM-4.5-Air, również plasuje się w pierwszej szóstce, oferując solidne wyniki w porównaniu do swojej mniejszej skali.
Oba modele oferują dwa tryby pracy: tryb myślenia, przeznaczony do złożonego rozumowania i korzystania z narzędzi, oraz tryb bezmyślności, umożliwiający natychmiastowe reagowanie w scenariuszach. Mogą automatycznie generować kompletne prezentacje PowerPoint z jednego tytułu lub polecenia, co czyni je przydatnymi do przygotowywania spotkań, prowadzenia szkoleń i raportowania wewnętrznego.
Oferują również kreatywne pisanie, copywriting uwzględniający emocje oraz tworzenie scenariuszy, aby tworzyć treści firmowe do mediów społecznościowych i internetu. Co więcej, z.ai zapewnia, że wspiera wirtualny rozwój postaci i systemy dialogowe oparte na turach do obsługi klienta, odgrywania ról, angażowania fanów lub tworzenia cyfrowych historii postaci.
Chociaż oba modele obsługują wnioskowanie, kodowanie i funkcje agentowe, GLM-4.5-Air został zaprojektowany dla zespołów poszukujących lżejszej i bardziej ekonomicznej alternatywy z szybszym wnioskowaniem i mniejszym zapotrzebowaniem na zasoby.
Firma Z.ai wymienia również w swoim interfejsie API kilka wyspecjalizowanych modeli z rodziny GLM-4.5 , w tym GLM-4.5-X i GLM-4.5-AirX służące do ultraszybkiego wnioskowania oraz GLM-4.5-Flash , darmową odmianę zoptymalizowaną pod kątem zadań związanych z kodowaniem i wnioskowaniem.
Są one już dostępne bezpośrednio w Z.ai oraz za pośrednictwem interfejsu programowania aplikacji (API) Z.ai, umożliwiając programistom łączenie się z aplikacjami innych firm. Ich kod jest dostępny w HuggingFace i ModelScope. Firma oferuje również wiele ścieżek integracji, w tym obsługę wnioskowania za pośrednictwem vLLM i SGLang.
GLM-4.5 i GLM-4.5-Air są udostępniane na licencji Apache 2.0 , która jest liberalną i przyjazną komercyjnie licencją typu open source.
Dzięki temu deweloperzy i organizacje mogą swobodnie używać, modyfikować, hostować na własnym serwerze, dostrajać i rozpowszechniać modele zarówno w celach badawczych, jak i komercyjnych.
Dla tych, którzy nie chcą pobierać kodu modelu lub wag i samodzielnie ich hostować lub wdrażać, oparty na chmurze interfejs API firmy z.ai oferuje model w następujących cenach.
- GLM-4.5 :
- 0,60 USD / 2,20 USD za 1 milion tokenów wejściowych/wyjściowych
- GLM-4.5-Powietrze :
- 0,20 USD / 1,10 USD za 1 mln tokenów wejściowych/wyjściowych
W artykule CNBC na temat tych modeli podano, że z.ai będzie pobierać opłatę w wysokości zaledwie 0,11/0,28 USD za milion tokenów wejściowych/wyjściowych, co potwierdza również chińska grafika, którą firma zamieściła w dokumentacji API dla „modelu Air”.

Wydaje się jednak, że dotyczy to jedynie wprowadzenia maksymalnie 32 000 tokenów i wyprowadzenia 200 tokenów na raz. (Przypomnijmy, że tokeny to oznaczenia numeryczne, których LLM używa do reprezentowania różnych pojęć semantycznych i składników słów, języka ojczystego LLM, przy czym każdy token tłumaczy się na słowo lub jego część).
W rzeczywistości chińska grafika ujawnia znacznie bardziej szczegółowe ceny dla obu modeli, w przeliczeniu na partie wprowadzonych/wyprowadzonych tokenów. Postarałem się to przetłumaczyć poniżej:

Kolejna uwaga: ponieważ z.ai ma siedzibę w Chinach, osoby na Zachodzie, którym zależy na suwerenności danych, będą chciały zachować należytą staranność, stosując wewnętrzne zasady, aby móc korzystać z interfejsu API, ponieważ może on podlegać ograniczeniom dotyczącym treści w języku chińskim.

GLM-4.5 zajmuje trzecie miejsce w 12 branżowych testach mierzących wydajność agentów, wnioskowania i kodowania — ustępując jedynie OpenAI GPT-4 i xAI Grok 4. Jego bardziej kompaktowy odpowiednik, GLM-4.5-Air, plasuje się na szóstej pozycji.
W ocenach agentowych GLM-4.5 dorównuje Claude 4 Sonnet pod względem wydajności i przewyższa Claude 4 Opus w zadaniach internetowych. Osiąga 26,4% dokładności w teście BrowseComp, w porównaniu z 18,8% w Claude 4 Opus. W kategorii rozumowania, GLM-4.5 osiąga konkurencyjne wyniki w zadaniach takich jak MATH 500 (98,2%), AIME24 (91,0%) i GPQA (79,1%).
W przypadku kodowania, GLM-4.5 osiąga 64,2% wskaźnik sukcesu w SWE-bench Verified i 37,5% w Terminal-Bench. W porównaniach parami przewyższa Qwen3-Coder z 80,8% wskaźnikiem sukcesu i pokonuje Kimi K2 w 53,9% zadań. Jego możliwości kodowania agentowego są wzmocnione dzięki integracji z narzędziami takimi jak Claude Code, Roo Code i CodeGeex.
Model ten jest także liderem pod względem niezawodności wywoływania narzędzi, ze wskaźnikiem powodzenia wynoszącym 90,6%, wyprzedzając Claude 4 Sonnet i nowszy Kimi K2.
Wydanie GLM-4.5 nastąpiło po fali wprowadzania na rynek konkurencyjnych modeli open source w Chinach, w szczególności autorstwa zespołu Qwen z Alibaby .
W ciągu jednego tygodnia firma Qwen wydała cztery nowe otwarte oprogramowanie LLM , w tym skoncentrowany na rozumowaniu model Qwen3-235B-A22B-Thinking-2507 , który obecnie przewyższa lub dorównuje wiodącym modelom, takim jak o4-mini firmy OpenAI i Gemini 2.5 Pro firmy Google, w testach porównawczych dotyczących rozumowania, takich jak AIME25, LiveCodeBench i GPQA.
W tym tygodniu Alibaba kontynuowała ten trend, udostępniając Wan 2.2 , nowy, wydajny model wideo z otwartym kodem źródłowym.
Nowe modele Alibaby, podobnie jak z.ai, są objęte licencją Apache 2.0 , co pozwala na ich komercyjne wykorzystanie, samodzielny hosting i integrację z zastrzeżonymi systemami.
Szeroka dostępność i liberalne licencjonowanie oferty Alibaby oraz chińskiego startupu Moonshot, który wyprzedził ją ze swoim modelem Kimi K2, odzwierciedlają trwające strategiczne wysiłki chińskich firm zajmujących się sztuczną inteligencją, mające na celu pozycjonowanie infrastruktury open source jako realnej alternatywy dla zamkniętych modeli opartych na USA.
Wywiera to również presję na amerykańskiego dostawcę modeli, który stara się konkurować w obszarze open source. Meta rozpoczęła intensywne poszukiwania pracowników po tym, jak na początku tego roku zadebiutowała rodzina modeli Llama 4, co spotkało się z mieszanym odzewem ze strony społeczności AI, w tym z ostrą krytyką za to, co niektórzy zaawansowani użytkownicy AI uznali za testowe granie i niestabilną wydajność.
Tymczasem współzałożyciel i dyrektor generalny OpenAI, Sam Altman, ogłosił niedawno, że długo oczekiwany i rozgłaszany pionierski program typu open source LLM firmy OpenAI — pierwszy od czasu uruchomienia ChatGPT pod koniec 2022 r. — zostanie przesunięty z pierwotnie planowanego na lipiec na późniejszy, jak dotąd nieokreślony termin.
GLM-4.5 ma 355 miliardów parametrów całkowitych i 32 miliardy aktywnych. Jego odpowiednik, GLM-4.5-Air, oferuje lżejszą konstrukcję o 106 miliardach parametrów całkowitych i 12 miliardach aktywnych.
Oba rozwiązania wykorzystują architekturę Mixture-of-Experts (MoE), zoptymalizowaną pod kątem bezstratnego routingu równoważącego, bramkowania sigmoidalnego i zwiększonej głębokości w celu usprawnienia wnioskowania.
Blok samouwagi obejmuje funkcję Grouped-Query Attention i większą liczbę głowic uwagi. Warstwa Multi-Token Prediction (MTP) umożliwia dekodowanie spekulatywne podczas wnioskowania.
Wstępne szkolenie obejmuje 22 biliony tokenów podzielonych między korpusy ogólnego przeznaczenia oraz korpusy kodu/rozumowania. W trakcie szkolenia dodaje się 1,1 biliona tokenów z danych kodu na poziomie repozytorium, danych wejściowych z wnioskowania syntetycznego oraz źródeł długokontekstowych/agentowych.
Proces przeprowadzania treningu po GLM-4.5 przez Z.ai opierał się na fazie uczenia wzmacniającego obsługiwanej przez wewnętrzną infrastrukturę RL, slime , która oddziela procesy generowania danych i trenowania modelu w celu optymalizacji przepustowości zadań agentowych.
Wśród zastosowanych przez nich technik znalazły się wdrożenia o mieszanej precyzji i adaptacyjne uczenie się programu nauczania. Pierwsze z nich pomagają modelowi trenować szybciej i wydajniej, wykorzystując obliczenia o niższej precyzji podczas generowania danych, bez znacznego obniżenia dokładności.
Tymczasem adaptacyjny program nauczania oznacza, że model zaczyna od zadań łatwiejszych i stopniowo przechodzi do trudniejszych, co pomaga mu stopniowo uczyć się zadań bardziej złożonych z czasem.
Architektura GLM-4.5 stawia na wydajność obliczeniową. Według CNBC , prezes Z.ai, Zhang Peng, stwierdził, że model działa na zaledwie ośmiu procesorach graficznych Nvidia H20 – specjalnie zaprojektowanych układach scalonych na rynek chiński, aby spełnić wymogi amerykańskiej kontroli eksportu. To mniej więcej połowa wymagań sprzętowych porównywalnych modeli DeepSeek.
W swoim wpisie na blogu Z.ai przedstawia obszary demonstracyjne, takie jak tworzenie pełnego stosu oprogramowania, tworzenie slajdów i generowanie interaktywnych artefaktów.
Przykładami są klon gry Flappy Bird, aplikacja internetowa Pokémon Pokédex oraz prezentacje zbudowane z dokumentów strukturalnych lub zapytań internetowych.

Użytkownicy mogą korzystać z tych funkcji na platformie czatu Z.ai lub poprzez integrację API.
Według doniesień CNBC , firma Z.ai została założona w 2019 roku pod nazwą Zhipu i od tego czasu stała się jednym z najsłynniejszych chińskich startupów zajmujących się sztuczną inteligencją.
Firma pozyskała ponad 1,5 miliarda dolarów od inwestorów, do których należeli Alibaba, Tencent, Qiming Venture Partners, a także od funduszy miejskich z Hangzhou i Chengdu. Dodatkowe wsparcie zapewnił powiązany z Aramco fundusz Prosperity7 Ventures.
Premiera GLM-4.5 zbiega się ze Światową Konferencją Sztucznej Inteligencji w Szanghaju, gdzie wiele chińskich firm zaprezentowało swoje osiągnięcia. Firma Z.ai została również wymieniona w czerwcowym raporcie OpenAI, podkreślającym chińskie postępy w dziedzinie sztucznej inteligencji, a następnie została wpisana na amerykańską listę podmiotów ograniczających współpracę z amerykańskimi firmami.
Dla starszych inżynierów AI, inżynierów danych i liderów koordynacji AI, których zadaniem jest tworzenie, wdrażanie lub skalowanie modeli językowych w środowisku produkcyjnym, wydanie rodziny GLM-4.5 na licencji Apache 2.0 oznacza znaczącą zmianę opcji.
Model ten oferuje wydajność porównywalną z najlepszymi zastrzeżonymi systemami pod względem rozumowania, kodowania i testów porównawczych agentów — a jednocześnie zapewnia pełny dostęp, prawa do użytkowania komercyjnego i elastyczne ścieżki wdrażania, obejmujące środowiska chmurowe, prywatne lub lokalne.
Dla osób zarządzających cyklami życia LLM — niezależnie od tego, czy kierują dostrajaniem modeli, koordynują wieloetapowe procesy czy integrują modele z wewnętrznymi narzędziami — GLM-4.5 i GLM-4.5-Air redukują bariery utrudniające testowanie i skalowanie.
Modele obsługują standardowe interfejsy w stylu OpenAI i formaty wywoływania narzędzi, co ułatwia ich ocenę w środowiskach testowych lub integrację z istniejącymi strukturami agentów.
GLM-4.5 obsługuje również strumieniowanie danych wyjściowych, buforowanie kontekstu i ustrukturyzowane odpowiedzi JSON , umożliwiając płynniejszą integrację z systemami korporacyjnymi i interfejsami czasu rzeczywistego. Tryb głębokiego myślenia zapewnia zespołom tworzącym narzędzia autonomiczne bardziej precyzyjną kontrolę nad wieloetapowym rozumowaniem.
Dla zespołów z ograniczonym budżetem lub tych, które chcą uniknąć uzależnienia od dostawcy, struktura cenowa przebija główne, zastrzeżone alternatywy, takie jak DeepSeek i Kimi K2. Ma to znaczenie dla organizacji, w których wolumen użycia, zadania o długim kontekście lub wrażliwość danych sprawiają, że otwarte wdrożenie jest strategiczną koniecznością.
Dla specjalistów zajmujących się infrastrukturą i orkiestracją AI, takich jak osoby wdrażające potoki CI/CD, monitorujące modele w środowisku produkcyjnym czy zarządzające klastrami GPU, obsługa przez GLM-4.5 vLLM, SGLang i wnioskowania o mieszanej precyzji jest zgodna z obecnymi najlepszymi praktykami w zakresie wydajnego i skalowalnego serwowania modeli. W połączeniu z infrastrukturą RL typu open source (Slime) i modułowym stosem szkoleniowym, konstrukcja modelu oferuje elastyczność w zakresie dostrajania lub rozszerzania w środowiskach specyficznych dla danej domeny.
Krótko mówiąc, wprowadzenie GLM-4.5 na rynek zapewnia zespołom korporacyjnym funkcjonalny, wydajny model bazowy, który można kontrolować, dostosowywać i skalować , bez konieczności korzystania z zastrzeżonych interfejsów API czy struktur cenowych. To atrakcyjna opcja dla zespołów, które szukają równowagi między innowacyjnością, wydajnością i ograniczeniami operacyjnymi.
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Przedstawiamy Ci informacje z pierwszej ręki na temat tego, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz podzielić się swoimi spostrzeżeniami, aby zmaksymalizować zwrot z inwestycji (ROI).
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Więcej newsletterów VB znajdziesz tutaj .
Wystąpił błąd.

venturebeat