Les Skills de Claude en passe de devenir un standard

·

·

Photo conceptuelle montrant deux agents IA holographiques se faisant face au-dessus d’une table en verre, reliés par un schéma lumineux représentant des fichiers SKILL.md, pour illustrer la convergence des Skills entre Anthropic et OpenAI.
Résumer cet article avec :

La convergence silencieuse entre Anthropic et OpenAI n’est pas une simple curiosité technique. Elle marque l’émergence d’un cadre partagé qui promet de réduire la charge du fine‑tuning massif tout en favorisant un écosystème interopérable. Le Skills Framework ouvre ainsi la voie à une standardisation susceptible de transformer la manière dont les agents IA apprennent, coopèrent et exécutent des tâches en production.


À retenir

  • Anthropic a lancé les “Skills” en octobre 2025 ; OpenAI les a intégrés en décembre 2025.
  • Les “Skills” reposent sur un fichier Markdown, nommé SKILL.md, qui décrit des instructions légères et structurées.
  • La progressive disclosure charge le code uniquement lorsque la tâche l’exige, ce qui économise la fenêtre de contexte.
  • L’Agentic AI Foundation (AAIF) supervise trois projets de standardisation : MCP, AGENTS.md et Goose.
  • Les principaux risques de sécurité concernent le sandbox d’exécution et les possibles injections de prompt.
  • Les “Skills” favorisent la portabilité des outils d’entreprise et une meilleure collaboration sur GitHub.

Thèse : un standard partagé pour l’avenir des agents IA

L’adoption quasi simultanée d’un même format de Skill interopérable par deux géants, Anthropic et OpenAI, est un signal fort. Cette convergence acte que la communauté reconnaît désormais le coût et la lenteur du fine‑tuning traditionnel, et lui préfère un modèle plus léger, modulaire et facilement diffusable. Au‑delà d’un simple accord technique, elle ouvre la voie à une gouvernance plus ouverte, incarnée par la création de l’Agentic AI Foundation.

Photo d’un ingénieur IA et d’un chef de produit en France analysant un schéma de Skills standardisés pour agents IA sur un grand écran transparent dans un bureau moderne.
Cette scène illustre la thèse de l’article : l’émergence d’un standard partagé de Skills et d’une gouvernance ouverte autour de l’Agentic AI Foundation pour structurer l’avenir des agents IA.

Pourquoi l’architecture « Skills » est-elle structurante ?

Contrairement aux outils impératifs d’OpenAI qui appellent des fonctions via RPC, les Skills adoptent une approche plus déclarative. Le modèle lit un fichier SKILL.md contenant des métadonnées, des étapes et des instructions d’usage. Cette lisibilité permet aux développeurs de partager, versionner et réutiliser ces « manuels d’exécution » comme des packages NPM, créant un écosystème d’interopérabilité inédit entre plateformes, équipes et organisations.

Le rôle de la « progressive disclosure » dans l’efficacité opérationnelle

En encapsulant les instructions dans des dossiers et en ne chargeant que les fichiers pertinents lors de l’exécution, la fenêtre de contexte est utilisée avec davantage de précision. Cette mécanique réduit les coûts d’inférence, limite le bruit dans les prompts et permet aux modèles de gérer des tâches plus complexes sans dépasser leur capacité mémoire. À l’échelle d’une grande entreprise, cette optimisation se traduit par des économies substantielles et une meilleure prévisibilité des performances.

La gouvernance de l’AAIF comme moteur d’une standardisation ouverte

Co‑fondée par Anthropic, OpenAI et Block, l’Agentic AI Foundation (AAIF) fédère des acteurs majeurs comme Amazon Web Services, Google et Microsoft. Leur engagement à soutenir le Model Context Protocol (MCP), AGENTS.md et Goose signale une volonté de privilégier la compatibilité plutôt que le lock‑in propriétaire. En pratique, cette gouvernance peut accélérer l’émergence de bonnes pratiques communes, tout en donnant aux entreprises un cadre plus clair pour déployer des agents IA en production.

Faits et arguments : une convergence technique qui gagne du terrain

La chronologie montre que l’implémentation d’OpenAI a rapidement suivi le lancement d’Anthropic. En décembre 2025, le développeur Elias Judin a découvert, dans le répertoire /home/oai/skills, des dossiers dédiés aux PDF et aux feuilles de calcul, attestant de l’adoption directe du format. Cette proximité temporelle laisse penser que les deux entreprises anticipaient déjà la nécessité d’un socle commun pour leurs futurs agents.

Les “Skills” : architecture et mise en œuvre

Chaque Skill est un dossier contenant un fichier SKILL.md, un Markdown qui décrit le flux de travail attendu. Les métadonnées précisent le nom du Skill, sa version, ses dépendances clés et parfois ses garde‑fous de sécurité. L’exemple de l’outil Code Interpreter de ChatGPT illustre concrètement le mécanisme : le modèle peut charger dynamiquement un Skill lorsque la tâche nécessite l’accès à un fichier, à une API ou à un environnement d’exécution spécifique, sans modifier les poids du modèle sous‑jacent.

Comparaison avec le fine‑tuning et les plugins OpenAI

Le fine‑tuning demande des ressources de calcul massives et un cycle de formation long, ce qui limite son adoption en continu. Les Skills, à l’inverse, sont légers, portables et ne nécessitent aucun ré‑entraînement du modèle. Ils restent plus expressifs que de simples plugins, car ils offrent un cadre complet d’instructions, de vérifications d’état et de gestion de dépendances. Pour les entreprises, cela signifie une mise à jour fonctionnelle plus rapide et une meilleure traçabilité des comportements imposés aux agents.

Adoption par l’industrie et impact économique

Selon les chiffres communiqués, plus de 10 000 serveurs publient déjà le MCP, et près de 60 000 projets open source référencent AGENTS.md. De son côté, Claude Code, intégré à Slack, rapporterait un revenu annuel d’environ 1 milliard de dollars, signe de la viabilité commerciale de cette approche par Skills. En facilitant la portabilité d’un environnement à l’autre, ces standards permettent d’encoder les normes internes au même endroit et de les appliquer de manière cohérente sur l’ensemble des outils IA d’une organisation.

Contre‑argumentation : les limites et les risques d’une standardisation trop tôt

Comme toute innovation structurante, les Skills comportent leurs angles morts. Leur dépendance à un environnement d’exécution sandbox pose des enjeux de sécurité et de robustesse, qui ne sont pas encore complètement résolus et pourraient freiner certaines applications critiques.

Photo d’un spécialiste cybersécurité en France surveillant sur plusieurs écrans les sandboxes d’agents IA, avec un visuel d’alerte symbolisant un risque d’injection de prompt.
L’image met en scène la fragilité potentielle du sandbox et les enjeux de sécurité autour des injections de prompt, au cœur des limites du standard Skills discutées dans l’article.

Le sandbox : un maillon fragile face aux injections de prompt

Les Skills s’exécutent dans le sandbox de Claude, mais la sécurisation contre les attaques par prompt injection reste un sujet sensible. Les développeurs doivent vérifier que les fichiers Markdown ne contiennent pas de commandes malveillantes et que le modèle ne peut pas être détourné via du contenu externe. Sans outils de validation automatisés, la surface d’attaque demeure importante, notamment dans les environnements où les utilisateurs chargent eux‑mêmes des données.

Interopérabilité vs concurrence : une pression accrue sur les startups

La compatibilité structurelle peut placer certaines startups d’outils de codage IA, comme Cursor, dans une position délicate. Soit elles se conforment au standard, au risque de perdre une partie de leur différenciation, soit elles persistent avec des solutions propriétaires moins faciles à intégrer. À terme, cette dynamique pourrait renforcer les acteurs déjà installés et rendre plus difficile l’émergence de modèles économiques alternatifs autour des agents IA.

La convergence distributionnelle et la qualité des réponses

Sans instructions précises, un modèle généraliste tend à produire des réponses standardisées, effet souvent décrit comme une « convergence distributionnelle ». Les Skills permettent de corriger partiellement ce biais en imposant des procédures et des attentes explicites. Mais cette précision suppose un effort soutenu de rédaction et de maintenance de la documentation, qui reste à la charge des équipes humaines et peut devenir un coût caché important pour les organisations les plus intensives en IA.

Verdict : vers une gouvernance et une pratique d’IA plus ouvertes

La convergence des “Skills” entre Anthropic et OpenAI indique que la communauté mise désormais sur l’interopérabilité des agents et la démocratisation des briques techniques. Les risques liés au sandbox et à la sécurité exigent toutefois des normes de vérification plus strictes, ainsi qu’une gouvernance claire des mises à jour de standard. Si cette standardisation tient ses promesses, elle pourrait accélérer l’adoption des agents IA en entreprise, tout en offrant un meilleur équilibre entre innovation rapide, efficacité opérationnelle et exigences de sûreté.


Sur le même Thème :