L'intelligence artificielle à usage militaire et la question des systèmes d'armes létales autonomes : cadre juridique international, européen et français à l'épreuve de la course technologique
Le 14 avril 2026, Anthropic a dévoilé le projet Glasswing, vaste initiative de cybersécurité associant AWS, Apple, Microsoft, Google et Cisco, qui a servi de cadre à la présentation d'un nouveau modèle non public baptisé Claude Mythos, présenté en interne comme le système d'IA le plus puissant jamais développé par la société. Cette annonce s'inscrit dans un contexte de redéfinition de la stratégie américaine d'IA militaire. Le département de la Défense poursuit des discussions avancées avec Google pour des usages de défense, après l'affrontement qui a opposé le Pentagone à Anthropic début 2026. La société de Dario Amodei avait alors refusé l'élargissement de son contrat de 200 millions de dollars (juin 2025) aux usages de surveillance de masse et d'armes entièrement autonomes, entraînant sa classification comme « supply chain risk » et une procédure contentieuse en cours devant les juridictions fédérales américaines. Parallèlement, les travaux du Groupe d'experts gouvernementaux sur les systèmes d'armes létales autonomes (GGE SALA), dont le mandat s'achève en novembre 2026, entrent dans leur phase finale à Genève, tandis que les 11 principes directeurs adoptés en 2019 dans le cadre de la Convention sur certaines armes classiques (CCAC) demeurent l'unique socle normatif partagé.
Le cadre préexistant du droit international humanitaire et l'obligation d'examen des armes nouvelles
Les systèmes d'armes intégrant de l'IA, qu'il s'agisse de simples fonctions d'appui à la décision ou de capacités autonomes létales (SALA), ne s'inscrivent pas dans un vide juridique. Ils demeurent soumis aux principes cardinaux du droit international humanitaire : principe de distinction, principe de proportionnalité et principe de précaution dans l'attaque, codifiés par le Protocole additionnel I aux Conventions de Genève du 8 juin 1977, notamment en ses articles 48, 51 et 57. L'article 36 du même Protocole impose aux États parties, lors de l'étude, de la mise au point ou de l'adoption d'une arme nouvelle, de déterminer si son emploi serait, dans certaines circonstances ou en toutes circonstances, interdit par le droit international. Cette obligation d'examen de licéité constitue la pierre angulaire de l'encadrement juridique du développement des armes dotées d'IA.
La question centrale reste celle du « contrôle humain significatif » (meaningful human control), notion forgée par la doctrine et reprise dans les principes directeurs adoptés en novembre 2019 par les États parties à la CCAC. Ces principes affirment que le droit international humanitaire s'applique pleinement aux systèmes d'armes dotés d'autonomie et que l'emploi de ces systèmes doit toujours dépendre d'une responsabilité humaine. Le Comité international de la Croix-Rouge, dans ses positions publiques successives, invite à prohiber les armes autonomes incontrôlables et à encadrer strictement celles qui demeurent utilisables sous supervision humaine.
Les travaux onusiens sur les SALA et les limites d'un cadre consensuel
La France a pris dès 2013 l'initiative d'inscrire la question des SALA à l'ordre du jour de la CCAC à Genève. L'Assemblée générale des Nations unies a adopté en 2024 la résolution 79/239, portée par l'Autriche, pour laquelle la France a voté en faveur. Des consultations informelles se sont tenues à New York les 12 et 13 mai 2025 et ont réuni 96 États. La position française, constamment réaffirmée dans les réponses ministérielles aux questions parlementaires, consiste à privilégier l'aboutissement des travaux du GGE SALA avant d'envisager un instrument juridiquement contraignant, afin d'éviter toute duplication susceptible de fragiliser le processus.
Cette approche prudente illustre la difficulté structurelle du cadre multilatéral : la règle du consensus applicable à la CCAC permet aux puissances militaires les plus avancées (États-Unis, Russie, Israël) de bloquer toute avancée normative contraignante. Le Parlement européen, par sa résolution du 12 septembre 2018 sur les systèmes d'armes autonomes, a pour sa part appelé à l'interdiction du développement, de la production et de l'utilisation d'armes entièrement autonomes dépourvues de contrôle humain significatif.
L'exclusion expresse des usages militaires par le règlement européen sur l'intelligence artificielle
Le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle, dit « AI Act », exclut expressément de son champ d'application les systèmes d'IA mis sur le marché ou utilisés, avec ou sans modification, exclusivement à des fins militaires, de défense ou de sécurité nationale (article 2, paragraphe 3). Cette exclusion, qui reflète la compétence résiduelle des États membres en matière de défense (article 4, paragraphe 2, du TUE), laisse aux droits nationaux et au droit international la charge d'encadrer l'IA militaire.
La Cour de justice de l'Union européenne a néanmoins, dans sa jurisprudence relative à la sécurité nationale, rappelé que l'exception de sécurité nationale ne saurait entraîner l'inapplicabilité intégrale du droit de l'Union, notamment s'agissant de la protection des données à caractère personnel (voir notamment l'arrêt La Quadrature du Net, C-511/18, C-512/18 et C-520/18 du 6 octobre 2020, qui encadre les dérogations au règlement général sur la protection des données dans les contextes de sécurité).
Le dispositif français : programmation militaire, éthique et examen de licéité
En droit interne, la loi n° 2023-703 du 1er août 2023 relative à la programmation militaire pour les années 2024 à 2030 consacre des engagements financiers majeurs au développement de l'IA de défense, tout en rappelant l'attachement de la France à un cadre éthique. Le Comité d'éthique de la défense, créé en 2019 auprès de la ministre des Armées, a publié en avril 2021 un avis consacré à l'intégration de l'autonomie dans les systèmes d'armes létaux, qui exclut le développement de SALA dits « pleinement autonomes » tout en admettant les « systèmes d'armes létaux intégrant de l'autonomie » (SALIA) sous contrôle humain. Cette doctrine a été confirmée à plusieurs reprises par les autorités françaises, notamment dans l'allocution du Président de la République sur la dissuasion nucléaire du 2 mars 2026, qui a réaffirmé la primauté de la décision humaine dans la chaîne d'emploi de la force.
Sur le terrain du contentieux, le Conseil d'État exerce un contrôle de légalité sur les actes réglementaires relatifs aux acquisitions d'armement. Sa jurisprudence, tout en reconnaissant un large pouvoir d'appréciation à l'exécutif en matière de secret de la défense nationale (article L. 2311-1 du code de la défense), demeure vigilante sur la conformité des actes aux engagements internationaux de la France. La jurisprudence tend à considérer que la responsabilité de l'État du fait de l'emploi d'armes nouvelles engagerait, le cas échéant, le régime classique de responsabilité administrative pour faute, voire sans faute pour risque, sans exclure l'engagement de la responsabilité pénale individuelle des opérateurs sur le fondement du code pénal et du statut de la Cour pénale internationale (Rome, 17 juillet 1998).
Enjeux pour les concours
Le candidat doit maîtriser trois niveaux d'analyse. En droit international, les principes de distinction, de proportionnalité et de précaution issus des articles 48, 51 et 57 du Protocole additionnel I de 1977, ainsi que l'obligation d'examen de licéité de l'article 36 du même Protocole, constituent le socle incontournable. La CCAC de 1980 et les 11 principes directeurs adoptés en 2019 sur les SALA doivent être cités, de même que la résolution 79/239 de l'AGNU (2024) et le calendrier du GGE SALA dont le mandat expire en novembre 2026.
En droit de l'Union européenne, la référence centrale est le règlement (UE) 2024/1689 du 13 juin 2024 (AI Act), dont l'article 2, paragraphe 3, exclut les usages militaires, lecture à articuler avec l'article 4, paragraphe 2, du TUE sur la compétence nationale en matière de défense. La résolution du Parlement européen du 12 septembre 2018 reste une référence politique utile.
En droit interne, il convient de citer la loi de programmation militaire n° 2023-703 du 1er août 2023, l'avis du Comité d'éthique de la défense d'avril 2021 distinguant SALA et SALIA, ainsi que les dispositions du code de la défense sur le secret de la défense nationale (article L. 2311-1). Le candidat doit enfin savoir problématiser la tension entre innovation stratégique (projet Glasswing, négociations Google/Pentagone, litige Anthropic), souveraineté technologique européenne et exigence d'un contrôle humain significatif, cette dernière notion constituant la clé de voûte de tout développement doctrinal sur la responsabilité juridique en matière d'IA militaire.