Tout savoir sur Z.ai

En moins de sept ans, Z.ai (ex-Zhipu AI) est passé des couloirs de la Tsinghua University à une cotation à la Hong Kong Stock Exchange, tout en poussant sa série de modèles General Language Model (GLM) vers l’« agentic AI ». Depuis janvier 2026, son introduction en bourse sous le nom de Knowledge Atlas Technology et, en février 2026, le lancement de GLM-5 ont accéléré sa visibilité hors de Chine, sur fond de compétition frontale avec OpenAI et Anthropic. Pour les entreprises françaises, la question n’est plus seulement “qui a le meilleur Large Language Model ?”, mais “quel modèle peut s’industrialiser, sur quel matériel, avec quels risques, et à quel coût ?”.


À retenir

  • Z.ai (anciennement Zhipu AI) est fondé en 2019 par Tang Jie et Li Juanzi, avec un ADN académique issu de la Tsinghua University.
  • La société a levé plus de 2,5 milliards de yuans auprès d’acteurs comme Alibaba, Tencent, Xiaomi et Meituan.
  • En janvier 2026, elle devient le premier acteur “LLM” à entrer en bourse à Hong Kong (entité Knowledge Atlas Technology), avec une valorisation d’environ 6,5 milliards USD (≈ 5,6 milliards €).
  • GLM-4.7 s’appuie sur une architecture Mixture-of-Experts (MoE) et annonce 358 milliards de paramètres : une approche “équipe de spécialistes” plutôt qu’un seul cerveau monolithique.
  • GLM-5 (lancé en février 2026) renforce le codage et les tâches agentiques (Agentic AI) : planifier, enchaîner des actions, tenir un objectif.
  • Positionnement open source (licence MIT) et optimisation pour des puces chinoises (Huawei Ascend, Cambricon), tout en restant compatible NVIDIA.
  • Produits phares : Z-Chat (conversationnel), AutoGLM (agent mobile à la voix), génération vidéo avec Ying, et outils pro (rédaction, présentations).
  • Point de vigilance : la géopolitique et la conformité. Z.ai a été inscrit sur la Entity List américaine en 2025, ce qui pèse sur certains déploiements et partenariats.

De la recherche au marché : l’effet “campus” qui devient une machine à croître

Z.ai illustre une trajectoire typique des années 2020 : un laboratoire qui se transforme en produit, puis en plateforme, puis en actif coté.

Quand Tsinghua fabrique des entreprises, pas seulement des papiers

La genèse compte, car elle explique la culture technique. Fondée en 2019 par Tang Jie et Li Juanzi, Z.ai naît comme une émanation de la Tsinghua University. Autrement dit, l’entreprise ne “découvre” pas l’IA : elle part d’un socle de recherche et d’ingénierie, avec des réflexes de publication, de benchmark et de progression par itérations rapides.

Pour un lecteur français, c’est comme si un grand laboratoire universitaire passait en quelques années du prototype à l’industrialisation, tout en conservant sa vitesse d’apprentissage. Ce modèle a un avantage net : la R&D n’est pas un département, c’est la colonne vertébrale de l’entreprise.

Chercheurs et ingénieurs de Tsinghua University travaillant ensuite dans un open space aux couleurs de Z.ai, illustrant le passage de la recherche académique au marché.
Des couloirs de Tsinghua University au plateau de startup, Z.ai transforme la recherche en moteur de croissance industrielle.

Le financement en mode consortium : Alibaba, Tencent, Xiaomi, Meituan

La croissance de Z.ai a été portée par un financement massif : plus de 2,5 milliards de yuans levés auprès de grands groupes technologiques chinois. Ce point est décisif pour comprendre son rythme de sortie produit : sur les LLM, la performance n’est pas seulement une affaire d’algorithmes. C’est aussi une affaire de capacité de calcul, de volume de données, d’équipes d’infrastructure et d’optimisation “jusqu’au métal”.

Cette logique ressemble à une Formule 1 : vous pouvez avoir un excellent pilote (le modèle), mais sans moteur, pneus, ingénieurs et logistique (l’écosystème), vous ne gagnez pas la saison. Pour les DSI, le choix d’un modèle renvoie donc aussi au choix de tout un environnement industriel.

Janvier 2026 : la bourse comme déclaration d’intention

En janvier 2026, Z.ai devient la première entreprise de modèles de langage à entrer en bourse à Hong Kong, sous le nom de Knowledge Atlas Technology, avec une valorisation avoisinant 6,5 milliards de dollars (≈ 5,6 milliards d’euros). Une IPO n’est pas qu’un événement financier : c’est un signal adressé aux marchés, aux régulateurs et aux clients.

Pour l’Europe, cela change le cadre : le marché des modèles n’oppose plus seulement des acteurs américains à un “reste du monde” diffus. La Chine aligne désormais des entreprises capitalisées, structurées, capables d’exporter leurs modèles et leurs services, malgré des frictions politiques bien identifiées.

GLM, ou l’art de faire travailler une équipe de cerveaux à la demande

La marque technologique de Z.ai, c’est la série General Language Model : des LLM conçus pour passer de la conversation à l’action, et de l’action à l’automatisation.

GLM-4.7 : Mixture-of-experts, 358 milliards de paramètres et une promesse d’efficacité

GLM-4.7 met en avant une architecture Mixture-of-Experts (MoE) et 358 milliards de paramètres. La MoE, concrètement, c’est une organisation du modèle en “experts” spécialisés. Au lieu d’activer tout le réseau à chaque requête, le système sélectionne une partie des experts selon la tâche. Sur le papier, cela permet une meilleure efficacité : vous mobilisez les bonnes compétences au bon moment.

En entreprise, le parallèle est direct : un bon service client ne convoque pas tout le comité de direction pour répondre à “où est mon colis ?”. Il route la question vers la bonne personne. La MoE applique ce principe au calcul, avec un impact potentiel sur le coût d’inférence et la latence.

GLM-5 : l’agentic AI comme produit, pas comme démo

En février 2026, GLM-5 renforce deux axes qui comptent vraiment pour l’automatisation : le codage et les tâches “agentiques”. L’Agentic AI (IA agentique), ce n’est pas “un chatbot plus bavard”. C’est un système qui peut découper un objectif en étapes, choisir des outils, exécuter des actions, vérifier, puis recommencer.

Cette évolution est structurante : un LLM qui rédige est utile. Un LLM qui exécute devient un opérateur. Et dès qu’on parle d’opérateur, on parle aussi de contrôle, de permissions, de journalisation et de sécurité, avec des arbitrages proches de ceux appliqués aux comptes à privilèges.

Open source, context window et matériel : l’équation industrielle

Z.ai revendique une approche open source sous licence MIT. Pour une DSI, c’est un levier de praticité : audit possible, adaptation, intégration dans une chaîne interne, et réduction du risque de dépendance à une API unique. L’entreprise met aussi en avant des fenêtres de contexte allant jusqu’à 128K tokens, ce qui change la nature des usages : on passe du “Q/R sur un document” à la “gestion de dossiers entiers” (contrats, tickets, spécifications, historiques).

Côté infrastructure, Z.ai optimise pour des puces chinoises comme Huawei Ascend et Cambricon, tout en restant compatible avec des GPU NVIDIA. En pratique, la stratégie n’est pas “un seul fournisseur”, mais “un maximum de surfaces de déploiement”. C’est exactement ce que recherchent les organisations soucieuses de résilience et de continuité d’activité.

Du chatbot à l’agent sur smartphone : l’automatisation devient un geste

Les modèles comptent, mais les produits font la différence : ce sont eux qui transforment une capacité technique en habitude, puis en productivité mesurable.

Z-Chat : le produit d’appel qui banalise le LLM

Z-Chat est présenté comme une plateforme conversationnelle gratuite. Ce type de produit joue un rôle clé : il crée un réflexe d’usage au quotidien. Il sert aussi de laboratoire à grande échelle pour tester les parcours, les formats de réponse, la robustesse et les attentes des utilisateurs.

Pour un public français, Z-Chat fonctionne comme une “rampe d’accès” : l’utilisateur n’achète pas un General Language Model. Il adopte un comportement (“je demande d’abord à l’IA”), puis seulement ensuite il migre vers des fonctionnalités premium, du codage ou des agents spécialisés.

Jeune professionnel dans un café utilisant un smartphone affichant une interface d’assistant IA de Z.ai capable de commander et réserver automatiquement, illustrant le passage du chatbot à l’agent mobile.
Avec Z-Chat et AutoGLM, Z.ai fait passer l’IA du simple chatbot textuel à un agent capable d’agir depuis un smartphone.

AutoGLM : la voix comme interface d’exécution

AutoGLM est l’exemple le plus parlant d’une IA qui sort du texte. L’agent peut exécuter des tâches complexes sur smartphone via commande vocale : commander un repas, réserver un hôtel, gérer un déplacement. La promesse est directe : “dites ce que vous voulez, je m’occupe du reste”.

Concrètement, on passe d’un LLM qui conseille à un agent qui agit. C’est pratique, mais cela déplace le risque : si l’agent peut cliquer, payer, confirmer, il faut des garde-fous. Qui valide ? Quelle étape nécessite une confirmation ? Que se passe-t-il si une page web change ? L’automatisation donne de la puissance, et cette puissance doit être encadrée comme n’importe quel processus critique.

Ying, multimodal et vision-language model : la chaîne de contenu s’industrialise

Z.ai propose aussi des outils de création : présentations, rédaction assistée, et génération de vidéos via le modèle Ying. C’est là que le multimodal entre en scène : texte, image, vidéo. Dans cette famille, on parle souvent de vision-language model (modèle vision-langage), capable de relier ce qu’il “voit” et ce qu’il “décrit”, pour produire ou transformer des contenus.

Pour les équipes marketing, formation ou documentation, l’intérêt est immédiat : produire plus vite, décliner plus facilement, tester davantage de variantes. En contrepartie, la discipline doit suivre : traçabilité des sources, contrôle des droits et charte de marque. Sans cela, la vitesse se traduit vite en désordre et en risques juridiques.

Souveraineté, sécurité et géopolitique : le vrai mode d’emploi pour l’Europe

Si Z.ai impressionne par sa vitesse, il oblige aussi à penser les “conditions réelles” : partenaires, contraintes réglementaires et gouvernance du risque.

Alibaba Cloud : la bataille des agents se joue en plateforme

Z.ai a conclu un partenariat majeur avec Alibaba Cloud pour lancer un agent IA tout-en-un sur PC et mobile. Ce type d’alliance n’est pas un détail : il transforme un modèle en service “clé en main”, avec distribution, facturation, déploiement, et souvent un catalogue d’outils déjà intégrés.

Ainsi, la question “quel LLM choisir ?” se convertit en “quel écosystème choisir ?”. Comme pour les smartphones, ce n’est pas seulement l’appareil qui compte, mais aussi l’App Store, les services, les habitudes d’usage et les intégrations avec le système d’information existant.

Expansion internationale sous tension : Moyen-Orient, Asie du Sud-Est… et la Entity List

Z.ai est présent au Moyen-Orient et en Asie du Sud-Est et cherche à rivaliser avec les leaders américains. Mais l’entreprise a aussi subi un choc politique : son inscription sur la Entity List du Department of Commerce des États-Unis en 2025. Pour une organisation européenne, l’impact est concret : certaines chaînes d’approvisionnement, certains partenariats et certaines intégrations peuvent devenir plus compliqués.

Dans le même temps, l’écosystème mondial se recompose. Z.ai collabore avec des acteurs comme The Ventures pour soutenir des startups IA en Corée et ailleurs. Et, dans les discussions sectorielles, ces dynamiques sont souvent rapprochées d’autres figures et initiatives, de Zhang Peng aux référentiels de connaissances type AMiner : la bataille se joue autant sur les communautés et les briques de savoir que sur le modèle lui-même.

La checklist d’une DSI française : efficacité oui, aveuglement non

Pour décider lucidement, mieux vaut revenir à des questions simples. Où tournent les modèles ? Qui accède aux prompts et aux fichiers ? Comment sont gérées les clés ? Quels logs sont conservés ? Et surtout : que peut faire l’agent, exactement, dans le système d’information ?

En pratique, imposez une approche “caisse noire contrôlée” : un bac à sable (sandbox), des permissions minimales, une validation humaine sur les actions irréversibles (paiement, envoi externe, suppression) et une mesure systématique des erreurs. Ajoutez une défense contre les attaques modernes (prompt injection, exfiltration, détournement d’outils). L’agentic AI devient alors un super-pouvoir sous contrôle, gouverné comme un collaborateur… mais un collaborateur qui travaille à la vitesse de la machine.

Enfin, ne négligez pas la donnée structurée. Les organisations qui progressent vite utilisent des listes d’entités (Entity List métier : produits, clients, fournisseurs, lieux) pour contraindre et fiabiliser les sorties. C’est moins spectaculaire qu’un benchmark de LLM, mais souvent plus décisif pour passer de la démo à une automatisation robuste et auditable.


Les actus IA de Z.AI:

17 Mar 2026
Salle serveurs moderne avec un écran montrant des workflows d’agents OpenClaw et le lancement du modèle GLM-5-Turbo de Z AI.

Z AI lance GLM‑5‑Turbo optimisé pour OpenClaw

Le 15 mars 2026, Z AI a présenté GLM‑5‑Turbo, la version ultra‑rapide de son modèle phare, conçue dès l’entraînement pour l’écosystème OpenClaw. Ce lancement fait passer la plateforme d’une simple interface de chat à un moteur d’automatisation de tâches complexes, avec à la clé des workflows agents plus fluides. Les abonnés…

12 Fév 2026
Ingénieur chinois dans un centre de données moderne devant des serveurs illuminés symbolisant GLM-5, modèle d’IA open-source entraîné sans puces Nvidia et dix fois moins cher.

GLM-5 défie Claude et Gemini avec un token 5 à 15 fois moins cher

Alors que les laboratoires d’intelligence artificielle chinois s’affrontent dans une course effrénée avant les congés du Nouvel An lunaire, Zhipu AI vient de frapper un grand coup en dévoilant GLM-5, un modèle open source qui pousse plus loin l’agentic engineering. Contrairement à ses prédécesseurs, ce géant de 744 milliards de paramètres…

Laisser un commentaire