L'essor de l'intelligence artificielle agentique et la transformation de l'action publique : enjeux juridiques de l'automatisation décisionnelle, régulation européenne et modernisation de l'administration
Le rapport Tech Trends 2026 de la plateforme Malt, publié en avril 2026, révèle que la demande en compétences liées à l'IA agentique a bondi de 60 % en un an en France chez les freelances. L'intelligence artificielle est désormais la deuxième compétence la plus demandée sur cette plateforme, 22 % des missions, y compris non techniques, intégrant de manière obligatoire des expertises en IA. Les besoins se répartissent entre l'intégration de grands modèles de langage (45 %), les systèmes RAG (35 %), les agents IA et systèmes multi-agents (15 %) et le MLOps (7 %). La demande a plus que doublé dans les PME. Parallèlement, le Conseil de l'intelligence artificielle et du numérique (CIANum), instance consultative installée en juin 2025 en remplacement du Conseil national du numérique, a publié en février 2026 une note intitulée « Les intelligences artificielles à l'heure de la vague agentique : de quoi parle-t-on ? ». Cette note appelle à la prudence face aux agents autonomes, soulignant les risques en matière de cybersécurité, de décisions aberrantes et d'empreinte environnementale. En janvier 2026, le ministère de la Fonction publique a dévoilé sa feuille de route numérique, plaçant l'industrialisation de l'IA au cœur de la modernisation de l'État, avec le déploiement d'un assistant IA souverain fondé sur le modèle Mistral auprès des agents publics. Le rapport de l'OCDE « Gouverner avec l'intelligence artificielle » (septembre 2025) estime que 38 % des 5,7 millions d'agents publics français, soit environ 2,2 millions, seront impactés dans leurs tâches par le déploiement de l'IA.
L'IA agentique : définition technique et implications juridiques de l'autonomie décisionnelle
L'IA agentique désigne des systèmes d'intelligence artificielle capables d'exécuter des tâches complexes de manière autonome, en décomposant un objectif en sous-tâches, en mobilisant des outils logiciels, en interagissant avec leur environnement et en itérant jusqu'à l'atteinte du résultat visé, avec un degré variable de supervision humaine. Ces systèmes se distinguent des simples chatbots par leur capacité d'action : ils ne se contentent pas de produire du texte, mais exécutent des opérations concrètes (rédaction de documents, analyse de dossiers, gestion de procédures).
Cette autonomie soulève des questions juridiques majeures. En droit administratif français, le principe selon lequel les décisions administratives doivent être prises par une autorité compétente implique qu'un agent IA ne saurait se substituer à l'autorité administrative dans l'exercice de son pouvoir de décision. L'article L. 311-3-1 du code des relations entre le public et l'administration (CRPA), introduit par la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, impose une obligation de transparence lorsqu'une décision individuelle est prise sur le fondement d'un traitement algorithmique : l'administration doit informer l'intéressé et, à sa demande, lui communiquer les règles et les principales caractéristiques de mise en œuvre du traitement. Le Conseil d'État, dans son étude annuelle de 2022 consacrée à l'intelligence artificielle, a souligné la nécessité de garantir la « supervisabilité » humaine des systèmes d'IA utilisés par l'administration, en recommandant que toute décision individuelle fondée sur un traitement algorithmique fasse l'objet d'un contrôle humain effectif.
Le cadre réglementaire européen : le règlement sur l'IA et la classification des risques
Le règlement (UE) 2024/1689 sur l'intelligence artificielle (AI Act), adopté le 21 mai 2024, entre en application de manière progressive. Les dispositions relatives aux systèmes d'IA à haut risque, parmi lesquels figurent les systèmes utilisés dans l'administration de la justice, l'accès aux services publics essentiels et la gestion de l'emploi, seront pleinement applicables à compter du 2 août 2026.
Les agents IA déployés dans l'administration publique sont susceptibles de relever de la catégorie des systèmes à haut risque au sens de l'annexe III du règlement, dès lors qu'ils participent à l'évaluation de l'éligibilité à des prestations publiques, à l'instruction de demandes ou à la prise de décisions affectant les droits des administrés. Les obligations associées comprennent la mise en place d'un système de gestion des risques, la garantie de la qualité des données d'entraînement, la documentation technique, la traçabilité, la transparence vis-à-vis des utilisateurs et la supervision humaine effective (articles 9 à 15 du règlement). L'article 14 impose spécifiquement que les systèmes à haut risque soient conçus de manière à pouvoir être supervisés par des personnes physiques, ce qui traduit le principe de « human-in-the-loop » (humain dans la boucle) particulièrement pertinent pour l'IA agentique.
Ce cadre européen s'articule avec le RGPD (règlement (UE) 2016/679), dont l'article 22 consacre le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou l'affectant de manière significative, sauf exceptions encadrées. La combinaison de ces deux textes dessine un cadre exigeant pour le déploiement d'agents IA autonomes dans les services publics.
La transformation de la fonction publique : entre modernisation et garantie des droits des usagers
Le déploiement de l'IA dans l'administration française s'inscrit dans la continuité de la stratégie nationale pour l'intelligence artificielle et du programme de transformation numérique porté par la DINUM (Direction interministérielle du numérique). L'assistant IA intégré à la « Suite numérique » de l'État, fondé sur le modèle de l'entreprise française Mistral, a été testé par 10 000 agents ministériels depuis octobre 2025 et fait l'objet d'un déploiement progressif en 2026. La feuille de route ministérielle prévoit également le déploiement d'un logiciel d'IA pour l'analyse des réponses aux appels d'offres publics auprès de tous les acheteurs de l'État.
Cette transformation soulève des enjeux spécifiques au regard des principes du service public. Le principe d'égalité devant le service public, dégagé par la jurisprudence du Conseil d'État (CE, Sect., 9 mars 1951, Société des concerts du Conservatoire), impose que les agents IA ne produisent pas de discriminations algorithmiques dans le traitement des dossiers. Le principe de continuité du service public exige une fiabilité des systèmes déployés. Le principe de mutabilité (d'adaptation) légitime, quant à lui, l'introduction de ces technologies pour améliorer l'efficacité de l'action publique.
La Défenseure des droits a alerté sur les risques liés à l'usage croissant des algorithmes dans les services publics, en particulier pour les usagers vulnérables confrontés à la dématérialisation. Le CIANum souligne par ailleurs les risques environnementaux : selon l'ADEME, la généralisation des agents autonomes pourrait faire passer la part de l'IA de 20 % à 49 % de la consommation totale des centres de données d'ici fin 2026.
La souveraineté numérique : un enjeu de puissance publique
Le choix d'un modèle d'IA souverain (Mistral) pour équiper les agents publics traduit une préoccupation de souveraineté numérique, concept qui irrigue désormais les politiques publiques françaises et européennes. La dépendance aux modèles développés par des entreprises américaines (OpenAI, Google, Anthropic) soulève des questions de protection des données publiques, de continuité de service et d'autonomie stratégique. La consultation citoyenne organisée par le CIANum de décembre 2025 à janvier 2026 a confirmé cette préoccupation : les participants ont souligné la nécessité de réduire la dépendance aux acteurs non européens pour protéger la création de valeur, les données personnelles et les institutions démocratiques. Le règlement eIDAS 2 (règlement (UE) 2024/1183) et le déploiement du portefeuille européen d'identité numérique, attendu pour fin 2026, participent de cette même dynamique de construction d'une infrastructure numérique européenne souveraine.
Enjeux pour les concours
Le candidat doit maîtriser l'articulation entre transformation numérique de l'administration et garantie des droits fondamentaux des usagers. Les références essentielles sont l'article L. 311-3-1 du CRPA (transparence des algorithmes administratifs), l'article 22 du RGPD (droit de ne pas faire l'objet d'une décision exclusivement automatisée), et le règlement (UE) 2024/1689 sur l'IA (classification des risques, obligations de supervision humaine pour les systèmes à haut risque, applicable au 2 août 2026). L'étude annuelle du Conseil d'État de 2022 sur l'intelligence artificielle constitue un document de référence sur la « supervisabilité » des algorithmes publics. Le candidat retiendra que l'IA agentique, caractérisée par son autonomie décisionnelle, pose avec une acuité nouvelle la question du contrôle humain effectif dans l'administration, principe que la note du CIANum de février 2026 recommande de renforcer. Les trois lois du service public (égalité, continuité, mutabilité) fournissent le cadre d'analyse classique pour évaluer l'impact de ces technologies sur l'action publique. Enfin, la souveraineté numérique, illustrée par le choix de Mistral pour les agents publics, constitue un enjeu transversal articulant politique industrielle, protection des données et autonomie stratégique.