La startup china Z.ai lanza la potente familia de modelos GLM-4.5 de código abierto con creación de PowerPoint

¿Quieres recibir información más inteligente en tu bandeja de entrada? Suscríbete a nuestros boletines semanales para recibir solo lo que importa a los líderes empresariales en IA, datos y seguridad. Suscríbete ahora.
Ha comenzado otra semana del verano de 2025 y, continuando la tendencia de la semana pasada , llegan modelos de inteligencia artificial de código abierto chinos más potentes.
La empresa emergente china Z.ai, poco conocida (al menos para nosotros aquí en Occidente), ha presentado dos nuevos LLM de código abierto , GLM-4.5 y GLM-4.5-Air , presentándolos como soluciones ideales para el razonamiento de IA, el comportamiento agente y la codificación.
Y según la publicación del blog de Z.ai , los modelos se desempeñan cerca del tope de otros líderes LLM propietarios en los EE. UU.
Por ejemplo, el buque insignia GLM-4.5 iguala o supera a los modelos propietarios líderes como Claude 4 Sonnet , Claude 4 Opus y Gemini 2.5 Pro en evaluaciones como BrowseComp , AIME24 y SWE-bench Verified , mientras que ocupa el tercer lugar en general en una docena de pruebas competitivas.
La serie AI Impact regresa a San Francisco - 5 de agosto
La siguiente fase de la IA ya está aquí: ¿estás listo? Únete a los líderes de Block, GSK y SAP para descubrir en exclusiva cómo los agentes autónomos están transformando los flujos de trabajo empresariales, desde la toma de decisiones en tiempo real hasta la automatización integral.
Reserva tu lugar ahora - el espacio es limitado: https://bit.ly/3GuuPLF
Su hermano más liviano, el GLM-4.5-Air, también se desempeña dentro de los seis primeros, ofreciendo resultados sólidos en relación con su escala más pequeña.
Ambos modelos cuentan con dos modos de funcionamiento: un modo de pensamiento para razonamiento complejo y uso de herramientas, y un modo sin pensamiento para escenarios de respuesta instantánea. Pueden generar automáticamente presentaciones de PowerPoint completas a partir de un solo título o mensaje, lo que los hace útiles para la preparación de reuniones, la formación y la elaboración de informes internos.
Además, ofrecen servicios de escritura creativa, copywriting con conciencia emocional y generación de guiones para crear contenido de marca para redes sociales y la web. Además, z.ai afirma apoyar el desarrollo de personajes virtuales y sistemas de diálogo por turnos para atención al cliente, juegos de rol, interacción con fans o narrativa digital.
Si bien ambos modelos admiten razonamiento, codificación y capacidades de agencia, GLM-4.5-Air está diseñado para equipos que buscan una alternativa más liviana y rentable con inferencia más rápida y menores requisitos de recursos.
Z.ai también incluye varios modelos especializados de la familia GLM-4.5 en su API , incluidos GLM-4.5-X y GLM-4.5-AirX para inferencia ultrarrápida, y GLM-4.5-Flash , una variante gratuita optimizada para tareas de codificación y razonamiento.
Ya están disponibles para su uso directo en Z.ai y a través de la interfaz de programación de aplicaciones (API) de Z.ai para que los desarrolladores se conecten a aplicaciones de terceros. Su código está disponible en HuggingFace y ModelScope. La empresa también ofrece múltiples vías de integración, incluyendo compatibilidad con inferencia mediante vLLM y SGLang.
GLM-4.5 y GLM-4.5-Air se publican bajo la licencia Apache 2.0 , una licencia de código abierto permisiva y comercialmente amigable.
Esto permite a los desarrolladores y organizaciones usar, modificar, alojar ellos mismos, ajustar y redistribuir libremente los modelos tanto para fines de investigación como comerciales.
Para aquellos que no desean descargar el código del modelo o los pesos y alojarlo o implementarlo por su cuenta, la API basada en la nube de z.ai ofrece el modelo a los siguientes precios.
- GLM-4.5 :
- $0,60 / $2,20 por cada millón de tokens de entrada/salida
- GLM-4.5-Aire :
- $0,20 / $1,10 por 1 millón de tokens de entrada/salida
Un artículo de CNBC sobre los modelos informó que z.ai cobraría solo $0,11/$0,28 por millón de tokens de entrada/salida, lo que también está respaldado por un gráfico chino que la compañía publicó en su documentación API para el “modelo Air”.

Sin embargo, esto parece ocurrir solo al introducir hasta 32 000 tokens y emitir 200 tokens simultáneamente. (Los tokens de recuperación son las designaciones numéricas que el LLM utiliza para representar diferentes conceptos semánticos y componentes de palabras, su idioma nativo, y cada token se traduce a una palabra o parte de ella).
De hecho, el gráfico chino revela precios mucho más detallados para ambos modelos por lotes de tokens ingresados/salidos. He intentado traducirlo a continuación:

Otra nota: dado que z.ai tiene su sede en China, aquellos en Occidente que se centran en la soberanía de los datos querrán realizar la debida diligencia a través de políticas internas para continuar utilizando la API, ya que puede estar sujeta a restricciones de contenido chino.

GLM-4.5 ocupa el tercer lugar en 12 puntos de referencia de la industria que miden el rendimiento de la agencia, el razonamiento y la codificación, solo detrás de GPT-4 de OpenAI y Grok 4 de xAI. GLM-4.5-Air, su hermano más compacto, se ubica en la sexta posición.
En evaluaciones de agencia, GLM-4.5 iguala el rendimiento de Claude 4 Sonnet y supera a Claude 4 Opus en tareas web. Alcanza una precisión del 26,4 % en el benchmark BrowseComp, frente al 18,8 % de Claude 4 Opus. En la categoría de razonamiento, obtiene una puntuación competitiva en tareas como MATH 500 (98,2 %), AIME24 (91,0 %) y GPQA (79,1 %).
En cuanto a la codificación, GLM-4.5 registra una tasa de éxito del 64,2 % en SWE-bench Verified y del 37,5 % en Terminal-Bench. En comparaciones por pares, supera a Qwen3-Coder con una tasa de éxito del 80,8 % y supera a Kimi K2 en el 53,9 % de las tareas. Su capacidad de codificación agéntica se ve reforzada por la integración con herramientas como Claude Code, Roo Code y CodeGeex.
El modelo también es líder en confiabilidad en la llamada de herramientas, con una tasa de éxito del 90,6%, superando a Claude 4 Sonnet y al nuevo Kimi K2.
El lanzamiento de GLM-4.5 llega en medio de un aumento de lanzamientos de modelos de código abierto competitivos en China, especialmente del equipo Qwen de Alibaba .
En el lapso de una sola semana, Qwen lanzó cuatro nuevos LLM de código abierto , incluido el Qwen3-235B-A22B-Thinking-2507 centrado en el razonamiento, que ahora supera o iguala a los modelos líderes como o4-mini de OpenAI y Gemini 2.5 Pro de Google en puntos de referencia de razonamiento como AIME25, LiveCodeBench y GPQA.
Esta semana, Alibaba continuó la tendencia con el lanzamiento de Wan 2.2 , un nuevo y poderoso modelo de video de código abierto.
Los nuevos modelos de Alibaba, como z.ai, están licenciados bajo Apache 2.0 , lo que permite el uso comercial, el autohospedaje y la integración en sistemas propietarios.
La amplia disponibilidad y las licencias permisivas de las ofertas de Alibaba y de la startup china Moonshot antes que ella con su modelo Kimi K2 reflejan un esfuerzo estratégico continuo por parte de las empresas de inteligencia artificial chinas para posicionar la infraestructura de código abierto como una alternativa viable a los modelos cerrados con sede en Estados Unidos.
Esto también presiona al proveedor de modelos estadounidense para competir en código abierto. Meta ha estado en plena campaña de contratación tras el debut de su familia de modelos Llama 4 a principios de este año, ante una respuesta mixta de la comunidad de IA, incluyendo fuertes críticas por lo que algunos usuarios expertos de IA consideraron juegos de referencia y un rendimiento inconsistente.
Mientras tanto, el cofundador y director ejecutivo de OpenAI, Sam Altman, anunció recientemente que el tan esperado y publicitado LLM de código abierto fronterizo de OpenAI (el primero desde antes del lanzamiento de ChatGPT a fines de 2022) se retrasaría desde su lanzamiento originalmente planeado para julio hasta una fecha posterior aún no especificada.
El GLM-4.5 cuenta con 355 mil millones de parámetros totales y 32 mil millones de parámetros activos. Su homólogo, el GLM-4.5-Air, ofrece un diseño más ligero con 106 mil millones de parámetros totales y 12 mil millones de parámetros activos.
Ambos utilizan una arquitectura de mezcla de expertos (MoE), optimizada con enrutamiento de equilibrio sin pérdidas, puerta sigmoidea y mayor profundidad para un razonamiento mejorado.
El bloque de autoatención incluye Atención de Consulta Agrupada y un mayor número de cabezas de atención. Una capa de Predicción Multi-Token (MTP) permite la decodificación especulativa durante la inferencia.
El preentrenamiento abarca 22 billones de tokens, divididos entre corpus de propósito general y de código/razonamiento. El entrenamiento intermedio añade 1,1 billones de tokens provenientes de datos de código a nivel de repositorio, entradas de razonamiento sintético y fuentes de contexto largo/agentísticas.
El proceso de post-entrenamiento de Z.ai para GLM-4.5 se basó en una fase de aprendizaje de refuerzo impulsada por su infraestructura de RL interna, slime , que separa los procesos de generación de datos y entrenamiento de modelos para optimizar el rendimiento en tareas de agencia.
Entre las técnicas que utilizaron se encuentran los despliegues de precisión mixta y el aprendizaje curricular adaptativo. Los primeros ayudan a que el modelo se entrene más rápido y de manera más eficiente al usar matemáticas de menor precisión al generar datos, sin sacrificar mucha precisión.
Mientras tanto, el aprendizaje curricular adaptativo significa que el modelo comienza con tareas más fáciles y gradualmente pasa a otras más difíciles, lo que lo ayuda a aprender tareas más complejas gradualmente con el tiempo.
La arquitectura de GLM-4.5 prioriza la eficiencia computacional. Según CNBC , el director ejecutivo de Z.ai, Zhang Peng, declaró que el modelo funciona con tan solo ocho GPU Nvidia H20 : silicio personalizado diseñado para el mercado chino para cumplir con los controles de exportación estadounidenses. Esto representa aproximadamente la mitad de los requisitos de hardware de los modelos comparables de DeepSeek.
Z.ai destaca el desarrollo full-stack, la creación de diapositivas y la generación de artefactos interactivos como áreas de demostración en su publicación de blog .
Los ejemplos incluyen un clon de Flappy Bird, una aplicación web de Pokémon Pokédex y presentaciones creadas a partir de documentos estructurados o consultas web.

Los usuarios pueden interactuar con estas funciones en la plataforma de chat Z.ai o mediante la integración de API.
Z.ai se fundó en 2019 con el nombre de Zhipu y desde entonces se ha convertido en una de las empresas emergentes de inteligencia artificial más destacadas de China, según CNBC .
La empresa ha recaudado más de 1.500 millones de dólares de inversores, incluidos Alibaba, Tencent, Qiming Venture Partners y fondos municipales de Hangzhou y Chengdu, con respaldo adicional de Prosperity7 Ventures, vinculada a Aramco.
Su lanzamiento en GLM-4.5 coincide con la Conferencia Mundial de Inteligencia Artificial en Shanghái, donde varias empresas chinas presentaron sus avances. Z.ai también fue mencionada en un informe de OpenAI de junio que destaca el progreso chino en IA, y desde entonces se ha añadido a una lista de entidades estadounidenses que limita los negocios con empresas estadounidenses.
Para los ingenieros senior de IA, los ingenieros de datos y los líderes de orquestación de IA encargados de crear, implementar o escalar modelos de lenguaje en producción, el lanzamiento de la familia GLM-4.5 bajo la licencia Apache 2.0 presenta un cambio significativo en las opciones.
El modelo ofrece un rendimiento que rivaliza con los mejores sistemas propietarios en razonamiento, codificación y puntos de referencia de agencia, pero viene con acceso total, derechos de uso comercial y rutas de implementación flexibles, incluidos entornos en la nube, privados o locales.
Para quienes gestionan los ciclos de vida de LLM (ya sea que estén a cargo del ajuste fino de modelos, de la orquestación de procesos de múltiples etapas o de la integración de modelos con herramientas internas), GLM-4.5 y GLM-4.5-Air reducen las barreras para las pruebas y el escalamiento.
Los modelos admiten interfaces estándar de estilo OpenAI y formatos de llamada de herramientas, lo que facilita la evaluación en entornos aislados o la integración en marcos de agentes existentes.
GLM-4.5 también admite salida en streaming, almacenamiento en caché de contexto y respuestas JSON estructuradas , lo que facilita una integración más fluida con sistemas empresariales e interfaces en tiempo real. Para equipos que desarrollan herramientas autónomas, su modo de pensamiento profundo proporciona un control más preciso sobre el comportamiento del razonamiento multipaso.
Para equipos con presupuestos limitados o que buscan evitar la dependencia de un proveedor, la estructura de precios es inferior a las principales alternativas propietarias, como DeepSeek y Kimi K2. Esto es importante para organizaciones donde el volumen de uso, las tareas de contexto extenso o la confidencialidad de los datos hacen que la implementación abierta sea una necesidad estratégica.
Para profesionales de la infraestructura y orquestación de IA, como quienes implementan pipelines de CI/CD, supervisan modelos en producción o gestionan clústeres de GPU, la compatibilidad de GLM-4.5 con vLLM, SGLang e inferencia de precisión mixta se alinea con las mejores prácticas actuales para la gestión eficiente y escalable de modelos. En combinación con la infraestructura de aprendizaje automático de código abierto (slime) y una pila de entrenamiento modular, el diseño del modelo ofrece flexibilidad para su ajuste o ampliación en entornos específicos del dominio.
En resumen, el lanzamiento de GLM-4.5 ofrece a los equipos empresariales un modelo de base viable y de alto rendimiento que pueden controlar, adaptar y escalar , sin estar sujetos a API propietarias ni estructuras de precios. Es una opción atractiva para equipos que buscan un equilibrio entre innovación, rendimiento y limitaciones operativas.
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Te ofrecemos información exclusiva sobre lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, para que puedas compartir tus conocimientos y maximizar el retorno de la inversión.
Lea nuestra Política de Privacidad
Gracias por suscribirte. Consulta más boletines de VB aquí .
Se produjo un error.

venturebeat