Aux États-Unis, l’IA s’est installée dans la conduite des opérations, mais la question de fond reste entière : qui décide réellement de la façon dont elle est employée en guerre. Entre le Pentagone, la Maison Blanche et des entreprises capables de fournir des systèmes “foundation models”, le contrôle se joue dans les détails—et souvent dans l’ombre, à cause du problème de la “boîte noire”. Dans ce nouvel équilibre, la directive du DoD rappelle un principe simple : garder des niveaux appropriés de jugement humain, même quand la technologie accélère la décision.
À retenir
- Le “black-box problem” limite la compréhension interne des modèles.
- La DoD Directive 3000.09 encadre les armes autonomes.
- Les human-in-the-loop restent nécessaires pour les décisions létales.
- Le risque d’AI hallucinations peut mener à des erreurs de ciblage.
- Plus de 50 pays ont adhéré à une déclaration politique de 2023.
L’IA est devenue un outil de sécurité nationale à part entière, mais son usage militaire reste chargé d’incertitudes. L’opacité des systèmes et le risque d’erreurs peuvent aller plus vite que la gouvernance, surtout en situation de crise. Derrière le débat technique se pose une question politique : qui tient vraiment les rênes entre le Pentagone, la Maison Blanche et les contractants ? Pour les décideurs et les équipes d’ingénierie, le cadre du DoD et les pratiques human-in-the-loop servent aujourd’hui de garde-fous opérationnels.
Le brouillard de l’algorithme : quand la guerre n’attend pas
Ce qui complique la gouvernance de l’IA ne tient pas qu’à sa complexité technique. Son fonctionnement interne reste souvent opaque, même pour les concepteurs. Dans des opérations militaires, cette zone d’ombre devient un angle mort potentiellement dangereux.

Pourquoi la “boîte noire” complique l’évaluation
Une grande partie des systèmes d’IA engagés sur des missions avancées repose sur des foundation models. Leurs sorties paraissent souvent cohérentes, mais le cheminement interne reste difficile à décrire : c’est le black-box problem. Concrètement, les équipes voient un résultat s’afficher sans pouvoir expliquer rapidement pourquoi il surgit ni à quel moment le système s’écarte des attentes. En contexte militaire, cette opacité se heurte à une obligation : démontrer que l’outil reste fiable dans le temps et dans des scénarios très variés.
De l’Ukraine à la capture de Maduro : cas d’usage et limites
Malgré ces limites, l’IA a déjà été engagée en soutien d’opérations réelles. Dans la défense de l’Ukraine, des systèmes d’analyse automatisée ont renforcé la sécurité et le renseignement. Dans le même registre, l’IA a appuyé le Pentagone lors d’une opération sensible liée à la capture de Nicolás Maduro. Le constat est constant : la technologie devient un atout stratégique face à l’adversaire. Mais ce recours ne dit pas si les décisions reposent sur un modèle solide ou sur une réponse simplement plausible.
Les architectes de la guerre digitale : Pentagone, Maison Blanche, agences
Décider de l’usage de l’IA ne relève pas d’une seule signature. La décision résulte d’un enchevêtrement d’autorités où le “qui” change selon le niveau : stratégie, conformité, sécurité opérationnelle.
Le CDAO : la stratégie numérique sous contrôle interne
Au sein du Pentagone, Douglas Matty, Chief Digital and AI Officer (CDAO), pilote les orientations numériques et d’IA. Sa fonction sert de point d’équilibre : traduire des décisions politiques en exigences techniques et en priorités de déploiement. La gouvernance cherche ainsi à éviter un empilement opportuniste de modèles disponibles et à organiser les choix selon l’efficacité et la sécurité. En arrière-plan, l’objectif reste l’operational resilience : maintenir les capacités malgré les chocs et les imprévus.
Maison Blanche et agences : le pont vers l’axe Silicon Valley–Pentagone
Au niveau politique, David Sacks est présenté comme le “czar” de l’IA et de la crypto à la Maison Blanche. Son rôle consiste à servir de relais avec la Silicon Valley pour intégrer rapidement des technologies, y compris celles du secteur privé. En parallèle, des agences comme la CIA, sous l’impulsion de Lakshmi Raman, mettent en place leurs propres conseils de gouvernance pour cadrer les normes éthiques et de sécurité. La question posée par les sources reste simple : privilégier la “meilleure valeur” pour l’armée, ou accepter des limites liées aux choix propriétaires des entreprises ?
Cadre juridique et jugement humain : la ligne rouge du DoD
Face à l’ambition d’accélérer la décision, le droit cherche à ralentir là où c’est nécessaire. La DoD Directive 3000.09 sert ici de garde-fou structurant pour les armes autonomes.
DoD Directive 3000.09 : pas d’interdiction totale, mais des conditions
La Directive 3000.09 du Département de la Défense, mise à jour en janvier 2023, constitue le socle réglementaire actuel. Elle n’interdit pas les Lethal Autonomous Weapon Systems (LAWS), mais impose que les systèmes permettent aux commandants d’exercer des appropriate levels of human judgment. L’exigence n’est pas théorique : elle vise la conception et l’emploi, pour éviter que l’autonomie ne retire toute capacité d’arbitrage humain au moment décisif.
Human-in-the-loop et révision avant développement et déploiement
Pour les systèmes qui ne répondent pas aux exceptions prévues, la directive impose une révision par des hauts responsables : le Secrétaire adjoint à la Défense et le Chef d’état-major interarmées. Cette étape agit comme un filtre institutionnel avant le passage du laboratoire au théâtre opérationnel. Le point central reste la logique human-in-the-loop, c’est-à-dire un circuit où l’humain conserve un rôle direct dans la décision, et pas seulement dans la surveillance. Pour les équipes, la conformité ne se résume donc pas à “brancher” un modèle : elle implique des mécanismes de décision, de validation et de contrôle clairement définis.
La tension privée : quand les contractants pèsent sur la politique
Le débat ne se joue pas uniquement dans les textes. Il naît aussi de la relation entre acheteurs publics et fournisseurs privés, où l’outil peut finir par orienter la doctrine d’emploi.
Anthropic, OpenAI et les contrats : valeurs et restrictions
Les sources décrivent une tension entre les valeurs affichées par les entreprises et les besoins militaires. Anthropic aurait été exclu de certains contrats après des différends liés aux restrictions d’usage, notamment la surveillance domestique et l’usage d’armes autonomes. À l’inverse, OpenAI a obtenu des contrats massifs, ce qui montre à quel point les critères d’adoption peuvent varier entre les acteurs. Cette différence de traitement nourrit une inquiétude : si l’État dépend de fournisseurs déterminés, il peut perdre une partie de sa marge de cadrage, surtout lorsque les capacités disponibles deviennent stratégiquement nécessaires.
Palantir et Anduril : l’économie de la défense accélère le choix
Des entreprises comme Palantir, via le Maven Smart System, et Anduril, avec des drones autonomes, seraient devenues des acteurs majeurs, avec des revenus records en 2025. L’argument est simple : si les systèmes fonctionnent dans des conditions proches du réel, ils attirent les budgets. Mais des experts alertent sur un risque : laisser les contractants dicter de fait la politique de défense nationale. Dans cette configuration, la question devient moins “qui gouverne ?” que “qui fournit les briques” qui finiront par structurer la doctrine.
Paradoxe technique : hallucinations, biais et fragilité en combat
Le cœur du problème reste technique. Les AI hallucinations produisent des sorties factuellement incorrectes mais formulées avec confiance, pouvant mener à des erreurs de ciblage tragiques. En parallèle, l’algorithmic bias peut conduire à des discriminations entre groupes ethniques ou entre civils et non-civils. Les sources ajoutent la brittleness, terme désignant la difficulté d’un système à s’adapter à des situations de combat inédites. Enfin, l’IA pousse à accélérer la boucle OODA Loop—Observer, Orienter, Décider, Agir—ce qui peut créer une dépendance excessive et déshumaniser des arbitrages de vie ou de mort.
L’IA peut fournir un résultat avec confiance, même si le contenu est faux.
Alerte récurrente dans les analyses techniques sur les hallucinations et le ciblage.
Diplomatie et normes : exporter la responsabilité plutôt que l’autonomie
Quand les systèmes franchissent les frontières, le droit national ne suffit plus. C’est le constat porté par la diplomatie américaine, qui cherche à encadrer l’usage militaire de l’IA par des règles communes plutôt que par des interdictions unilatérales.

Déclaration politique sur l’usage militaire responsable lancée en 2023
Le Département d’État a lancé une Political Declaration on Responsible Military Use en 2023. Le cadre vise à créer un consensus autour de principes non contraignants : transparence, auditabilité et respect du droit international humanitaire. Les sources indiquent que plus de 50 pays ont adhéré à cette déclaration. L’objectif affiché est double : éviter une course aux armements incontrôlée et garantir que l’IA reste sous un commandement humain responsable, même lorsque l’automatisation paraît attractive pour des raisons de vitesse et d’efficacité.
Vers un contrôle des comportements : transparence et auditabilité
La logique de cette déclaration n’est pas de “contrôler le modèle” dans l’absolu. Elle cherche à encadrer le comportement d’emploi : comment un système est évalué, comment ses résultats peuvent être vérifiés, et comment les décisions critiques restent imputables. Pour les autorités, ce sont des conditions de durabilité et de sécurité : sans auditabilité, la boîte noire redevient une zone grise. Sans transparence, la confiance opérationnelle se transforme en pari.
Contrepoint : “plus vite” et “plus humain” sont-ils compatibles ?
On peut objecter que l’accélération de la boucle OODA améliore l’efficacité et réduit les erreurs humaines. Cet argument revient souvent dans les organisations qui cherchent à gagner du temps de décision. La réponse institutionnelle présentée dans les sources passe par une contrainte : les appropriate levels of human judgment et les mécanismes human-in-the-loop de la DoD Directive 3000.09. Autrement dit, la vitesse n’est pas la règle générale : elle doit passer par des points d’arrêt décisionnels, faute de quoi l’opération bascule dans une dépendance à des sorties potentiellement fausses ou biaisées.
Kicker : L’IA change le rythme du champ de bataille, mais elle ne change pas la responsabilité juridique. Aux États-Unis, la lutte se joue entre opacité technique, contrats privés et cadre du DoD. Le prochain arbitrage devra être testable, traçable et pas seulement “convaincant”.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.