La concentration du marché de l'intelligence artificielle autour de quelques acteurs majeurs : enjeux de concurrence, de souveraineté numérique et de régulation à l'aune du règlement européen sur l'IA
L'investissement mondial dans l'intelligence artificielle a atteint 202,3 milliards de dollars en 2025, soit 50 % de l'ensemble du capital-risque déployé à l'échelle mondiale. Cette concentration financière sans précédent profite essentiellement à deux acteurs américains : OpenAI, dont la valorisation approche 730 milliards de dollars après une levée de fonds record de 110 milliards en février 2026, et Anthropic, dont le chiffre d'affaires annualisé est passé de 87 millions à près de 20 milliards de dollars en moins de trois ans. À eux deux, ces entreprises ont capté 14 % de l'ensemble du capital-risque mondial tous secteurs confondus en 2025. La concentration géographique est tout aussi frappante : les États-Unis ont absorbé 79 % des investissements mondiaux dans l'IA, la baie de San Francisco représentant à elle seule 122 milliards de dollars. En Europe, le programme InvestAI prévoit 200 milliards d'euros pour développer une filière européenne, tandis que le règlement (UE) 2024/1689 sur l'intelligence artificielle (AI Act), entré en vigueur le 1er août 2024, voit ses principales dispositions devenir applicables à partir du 2 août 2026, avec un report partiel voté par le Parlement européen le 26 mars 2026 dans le cadre du paquet Omnibus numérique. Les licenciements massifs chez Oracle au profit d'une réorientation vers l'IA illustrent par ailleurs les conséquences sociales de cette restructuration industrielle.
Le cadre juridique européen : le règlement sur l'intelligence artificielle et la régulation de la concentration
Le règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle constitue le premier cadre juridique global au monde en la matière. Fondé sur une approche par les risques, il distingue les systèmes d'IA à risque inacceptable (interdits), à haut risque (soumis à des obligations renforcées de transparence, de traçabilité et de gouvernance des données) et à risque limité ou minimal. Les modèles d'IA à usage général (GPAI), catégorie dans laquelle entrent les grands modèles de langage développés par OpenAI et Anthropic, sont soumis à des obligations spécifiques en matière de documentation technique, de respect du droit d'auteur et de transparence, applicables depuis le 2 août 2025. Les modèles à usage général présentant un risque systémique sont astreints à des obligations supplémentaires d'évaluation et de gestion des risques. Le Bureau européen de l'IA, créé en février 2024 au sein de la Commission européenne, assure la supervision de ces modèles. Les sanctions peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel. Cependant, le paquet Omnibus numérique, adopté en commission le 18 mars 2026, propose de reporter certaines échéances d'application des règles sur les systèmes à haut risque, les normes harmonisées du CEN-CENELEC accusant un retard considérable.
Droit de la concurrence et positions dominantes dans le secteur de l'IA
La concentration du marché de l'IA soulève des questions majeures au regard du droit européen de la concurrence. L'article 102 du TFUE interdit l'abus de position dominante, tandis que le règlement (CE) n° 139/2004 sur les concentrations permet à la Commission d'examiner les opérations susceptibles d'entraver significativement une concurrence effective. Les investissements croisés entre les grandes plateformes numériques et les laboratoires d'IA (Microsoft dans OpenAI, Amazon et Google dans Anthropic) créent des structures de financement circulaires qui brouillent les frontières entre partenariat commercial et contrôle actionnarial. La Commission européenne a d'ailleurs notifié en février 2026 à Meta des mesures provisoires possibles pour l'exclusion de concurrents de WhatsApp, illustrant sa vigilance sur les pratiques d'éviction. Le règlement (UE) 2022/1925 sur les marchés numériques (Digital Markets Act), applicable depuis mars 2024, complète ce dispositif en imposant aux contrôleurs d'accès (gatekeepers) des obligations d'interopérabilité et de non-discrimination qui pourraient s'étendre aux infrastructures de calcul nécessaires à l'entraînement des modèles d'IA.
Souveraineté numérique et dépendance technologique européenne
La domination des acteurs américains dans le secteur de l'IA pose la question de la souveraineté numérique européenne, thème central du FIC 2026 à Lille où l'ANSSI a réclamé moins de dépendance numérique. L'Union européenne ne dispose pas, à ce stade, d'un concurrent de taille comparable aux laboratoires américains, même si Mistral AI (France) participe au programme InvestAI doté de 200 milliards d'euros, incluant un fonds de 20 milliards destiné à la création de « giga-fabriques » d'entraînement de modèles. La stratégie européenne repose sur un triptyque : réguler (AI Act), investir (InvestAI, Horizon Europe, Europe numérique) et protéger les données (RGPD, règlement (UE) 2016/679). Le RGPD constitue d'ailleurs un levier indirect de régulation de l'IA, la CNIL ayant déjà sanctionné des pratiques de collecte massive de données biométriques pour l'entraînement de modèles. La complémentarité entre l'AI Act et le RGPD est explicitement prévue par le règlement, la CNIL s'étant positionnée comme autorité compétente pour articuler les deux corpus normatifs.
Conséquences sur l'emploi et transformation du service public
La concentration de l'IA autour de quelques acteurs majeurs accélère la transformation du marché du travail. Les licenciements chez Oracle, motivés par une réorientation stratégique vers l'IA, s'inscrivent dans un mouvement plus large : selon certaines analyses, les outils de codage automatisé ont atteint un niveau de performance qui modifie structurellement le marché de l'ingénierie logicielle. Pour le secteur public, l'utilisation de systèmes d'IA dans les domaines de l'accès aux services publics essentiels, de l'emploi ou de la justice relève de la catégorie « haut risque » au sens de l'annexe III du règlement (UE) 2024/1689, imposant des obligations de transparence, de contrôle humain et de gestion des biais. L'article 6 du règlement prévoit que ces systèmes doivent faire l'objet d'une évaluation de conformité préalable. L'article 57 impose à chaque État membre de mettre en place au moins un bac à sable réglementaire en matière d'IA d'ici le 2 août 2026, afin de permettre aux acteurs publics et privés de tester des solutions innovantes dans un cadre sécurisé.
Enjeux pour les concours
Le candidat doit maîtriser le règlement (UE) 2024/1689 du 13 juin 2024 sur l'intelligence artificielle (AI Act), premier cadre juridique global fondé sur une approche par les risques, dont les principales dispositions deviennent applicables le 2 août 2026, sous réserve du report partiel envisagé par le paquet Omnibus numérique. Il convient de connaître l'articulation entre l'AI Act et le RGPD (règlement (UE) 2016/679), ainsi que le rôle du Digital Markets Act (règlement (UE) 2022/1925) dans la régulation des positions dominantes des plateformes numériques investissant dans l'IA. Sur le plan du droit de la concurrence, l'article 102 TFUE (abus de position dominante) et le règlement (CE) n° 139/2004 sur les concentrations constituent les outils pertinents pour analyser les structures de marché oligopolistiques. Le candidat doit pouvoir situer la stratégie européenne de souveraineté numérique (programme InvestAI, bacs à sable réglementaires, rôle du Bureau européen de l'IA) face à la domination des acteurs américains. Enfin, la classification des systèmes d'IA à haut risque utilisés dans les services publics (annexe III du règlement) et les obligations afférentes de transparence, de contrôle humain et d'évaluation de conformité (articles 6, 9 et 14 du règlement) constituent des connaissances essentielles pour les épreuves portant sur la transformation numérique de l'administration.