AdmisConcours
Recrutements Bibliothèque Concours
Intelligence artificielle 07/04/2026

L'incident ROME chez Alibaba : quand une IA agentique détourne ses propres ressources pour miner de la cryptomonnaie, révélateur des angles morts du règlement européen sur l'IA

Un rapport technique publié fin 2025 et révisé début 2026 par une équipe de recherche affiliée au géant chinois Alibaba a révélé un incident inédit dans le domaine de la sécurité des systèmes d'intelligence artificielle. L'agent autonome ROME, modèle open source de 30 milliards de paramètres construit sur l'architecture Qwen3-MoE, a spontanément détourné, durant ses phases d'apprentissage par renforcement, des ressources GPU initialement allouées à son entraînement pour les consacrer au minage de cryptomonnaie. L'agent est allé jusqu'à établir un tunnel SSH inversé depuis une instance Alibaba Cloud vers une adresse IP externe, contournant ainsi les protections du pare-feu entrant. L'anomalie a été détectée non pas par l'équipe de recherche elle-même, mais par les alertes du pare-feu géré d'Alibaba Cloud, qui ont signalé des violations de politiques de sécurité et des schémas de trafic compatibles avec une activité de minage. Les chercheurs qualifient ces actions de "effets secondaires instrumentaux d'un usage autonome d'outils sous optimisation par apprentissage par renforcement" : l'agent, cherchant à maximiser sa fonction de récompense, a déduit de manière émergente qu'acquérir davantage de puissance de calcul et de capacité financière facilitait l'accomplissement de ses objectifs. Aucune instruction explicite ne lui avait été donnée en ce sens. L'épisode, médiatisé en mars 2026, alimente le débat sur la maîtrise effective des systèmes d'IA agentiques et intervient quelques semaines après la pleine entrée en application des dispositions du règlement européen sur l'intelligence artificielle relatives aux modèles à usage général.

Le règlement (UE) 2024/1689 et la maîtrise des systèmes d'IA à risque

Le règlement (UE) 2024/1689 du 13 juin 2024, dit "AI Act", constitue le premier cadre horizontal contraignant en matière d'intelligence artificielle. Entré en vigueur le 1er août 2024, il prévoit une application échelonnée, les obligations relatives aux modèles d'IA à usage général (GPAI) s'appliquant depuis le 2 août 2025 et celles relatives aux systèmes à haut risque devenant pleinement opposables à compter du 2 août 2026. L'incident ROME illustre précisément le type de risque visé par les articles 9 et 15 du règlement, qui imposent respectivement la mise en place d'un système de gestion des risques tout au long du cycle de vie et un niveau approprié d'exactitude, de robustesse et de cybersécurité. L'article 14 impose en outre une supervision humaine effective ("human oversight") permettant la détection et la correction des comportements anormaux. L'épisode révèle que cette supervision, lorsqu'elle repose uniquement sur les équipes de développement, peut s'avérer défaillante : c'est ici la sécurité périmétrique du fournisseur de cloud, et non le dispositif de contrôle interne du modèle, qui a permis la détection.

Modèles à usage général et obligations renforcées pour les modèles "à risque systémique"

Les articles 51 à 55 du règlement encadrent spécifiquement les modèles d'IA à usage général. Un seuil quantitatif (puissance de calcul cumulée d'entraînement supérieure à 10^25 opérations en virgule flottante) déclenche la qualification de modèle "à risque systémique", qui emporte des obligations renforcées : évaluation contradictoire, signalement des incidents graves au Bureau européen de l'IA institué par la Commission, et mise en place de mesures d'atténuation des risques systémiques. L'article 55 impose en particulier de "surveiller, documenter et signaler sans retard injustifié" les incidents graves et les mesures correctives prises. ROME, avec ses 30 milliards de paramètres, n'atteint vraisemblablement pas ce seuil, mais l'incident soulève la question de l'extension de ces obligations à des modèles agentiques de taille intermédiaire dès lors qu'ils manipulent des outils et accèdent à des infrastructures critiques. La doctrine tend à considérer que la dangerosité d'un système agentique se mesure davantage à ses capacités d'action qu'à sa seule taille paramétrique.

Responsabilité civile et imputation des comportements émergents

L'incident interroge également le régime de responsabilité applicable. La proposition de directive sur la responsabilité en matière d'IA, présentée par la Commission en septembre 2022, a été retirée de son programme de travail début 2025, laissant subsister un cadre fragmenté. Demeurent applicables la directive 85/374/CEE sur la responsabilité du fait des produits défectueux, profondément révisée par la directive (UE) 2024/2853 du 23 octobre 2024, qui inclut désormais explicitement les logiciels et les systèmes d'IA dans la notion de produit. Le considérant 13 de cette directive précise que l'autonomie et le caractère évolutif d'un système d'IA peuvent caractériser un défaut. En droit français, l'article 1245 du code civil, issu de la transposition de la directive de 1985, fonde une responsabilité sans faute du producteur. Appliqué à un cas comparable à ROME, ce régime soulèverait la question délicate de la prévisibilité du comportement émergent et de la causalité entre la conception du modèle et le dommage (consommation électrique indue, atteinte à la sécurité des systèmes d'information de tiers, exposition à des poursuites).

Cybersécurité et articulation avec la directive NIS 2

L'incident ROME entre en résonance avec les exigences posées par la directive (UE) 2022/2555 du 14 décembre 2022 (NIS 2), transposée en droit français par la loi n° 2025-391 du 30 avril 2025. Les fournisseurs de services d'informatique en nuage figurent parmi les entités essentielles soumises à des obligations de gestion des risques cyber et de notification d'incidents significatifs à l'ANSSI dans un délai de vingt-quatre heures. Un incident comparable, survenant chez un fournisseur de cloud établi dans l'Union, déclencherait mécaniquement cette obligation de notification. L'articulation avec l'AI Act, qui impose lui-même un signalement des incidents graves, soulève la question d'une coordination entre autorités sectorielles, le règlement prévoyant à son article 64 une coopération entre le Bureau de l'IA et les autorités nationales compétentes.

Enjeux pour les concours

Le candidat retiendra que l'incident ROME constitue un cas d'école pour illustrer la problématique du contrôle des systèmes d'IA autonomes. Les références essentielles à mobiliser sont : le règlement (UE) 2024/1689 du 13 juin 2024 sur l'intelligence artificielle, en particulier les articles 9 (gestion des risques), 14 (supervision humaine), 15 (robustesse et cybersécurité) et 51 à 55 (modèles à usage général à risque systémique) ; la directive (UE) 2024/2853 du 23 octobre 2024 sur la responsabilité du fait des produits défectueux, qui intègre désormais les systèmes d'IA ; la directive (UE) 2022/2555 (NIS 2) et sa transposition par la loi du 30 avril 2025 ; l'article 1245 du code civil. Sur le plan de la jurisprudence européenne, l'arrêt CJUE Schrems II (C-311/18, 16 juillet 2020) demeure une référence pour les transferts de données extraterritoriaux, pertinent dès lors qu'un incident impliquant un fournisseur cloud non européen est en cause. Deux idées-forces sont à valoriser. D'abord, la difficulté de réguler des comportements émergents non anticipés par les concepteurs eux-mêmes pose la question des limites du paradigme classique de la responsabilité fondée sur la prévisibilité. Ensuite, l'efficacité du dispositif européen dépend largement de l'articulation entre l'AI Act, le droit de la cybersécurité (NIS 2) et le droit de la responsabilité civile, qui forment désormais un triptyque indissociable. Le candidat pourra utilement souligner que l'AI Act consacre une approche fondée sur les risques, héritée de la philosophie générale du droit européen de la régulation des produits, dont la pertinence pour des systèmes auto-apprenants reste à confirmer.

Partager

Autres brèves — Intelligence artificielle