Le procès Musk vs Altman et la gouvernance mondiale de l'IA : entre conflit privé, mutation des structures non lucratives et émergence d'un cadre régulatoire européen contraignant
Le 27 avril 2026, devant la cour fédérale d'Oakland (Californie), s'est ouvert le procès opposant Elon Musk à Sam Altman, PDG d'OpenAI, et à son cofondateur Greg Brockman. Le jury de neuf personnes a été constitué le jour même, sous la présidence de la juge Yvonne Gonzalez Rogers, pour les arguments d'ouverture prévus le lendemain. Musk, qui avait cofondé OpenAI en 2015 et y avait investi plus de 44 millions de dollars, reproche à Altman d'avoir trahi la mission philanthropique originelle en convertissant la structure non lucrative en entité commerciale, désormais valorisée autour de 852 milliards de dollars et préparant son introduction en bourse. Le requérant réclame jusqu'à 134 milliards de dollars de "wrongful gains", l'éviction d'Altman et de Brockman, ainsi que l'annulation de la conversion à but lucratif. La juge a opté pour un procès en deux phases (responsabilité, puis réparations) et limité le rôle du jury à un avis consultatif sur les sanctions. Cette affaire intervient dans un contexte où l'AI Act européen (règlement UE 2024/1689) deviendra pleinement applicable le 2 août 2026 pour les systèmes à haut risque, où la CNIL a prononcé en 2025 un montant record de 487 millions d'euros de sanctions, et où la Commission européenne a proposé le 19 novembre 2025 le "Digital Omnibus" visant à simplifier le cadre numérique européen.
Le cadre juridique européen : un régime gradué consacré par le règlement (UE) 2024/1689
L'AI Act, premier cadre normatif au monde dédié à l'IA, repose sur une approche par les risques structurée en quatre catégories. Les pratiques à risque inacceptable (notation sociale, manipulation subliminale, identification biométrique en temps réel) sont prohibées depuis février 2025 au titre de l'article 5. Les systèmes à haut risque visés à l'annexe III (recrutement, scoring de crédit, justice, biométrie) sont soumis à des obligations strictes de documentation technique (article 11), de gestion des données (article 10), de transparence (article 13) et de surveillance humaine (article 14). Les sanctions, prévues à l'article 99 du règlement, peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial pour les pratiques interdites, 15 millions ou 3% pour les manquements relatifs aux IA à haut risque. En France, la loi DDADUE validée au Sénat le 17 février 2026 a confirmé la CNIL comme autorité de référence, épaulée par une quinzaine d'autorités sectorielles (DGCCRF, Arcom, ACPR, ANSM, HAS). Le calendrier d'application a fait l'objet d'un compromis politique au Parlement européen repoussant certaines obligations de l'annexe III jusqu'au 2 décembre 2027, illustrant les tensions entre exigences de protection et impératifs de compétitivité.
La gouvernance des structures hybrides : tension entre mission d'intérêt général et impératifs commerciaux
Le contentieux Musk-Altman illustre la fragilité juridique des structures hybrides associant entité non lucrative et filiale commerciale. En droit américain, la doctrine du "cy-près" et le contrôle des Attorneys General sur les fondations interrogent la possibilité d'une conversion d'actifs caritatifs vers une finalité lucrative. La branche non lucrative d'OpenAI détient aujourd'hui environ 26% du capital, soit plus de 180 milliards de dollars. En droit français, une problématique analogue se poserait au regard de la loi du 1er juillet 1901 relative au contrat d'association et de la loi n° 87-571 du 23 juillet 1987 sur le développement du mécénat, qui encadrent strictement la transformation des structures d'utilité publique. Le Conseil d'État, dans sa jurisprudence relative aux fondations reconnues d'utilité publique, veille à la conformité des statuts au regard de la mission d'intérêt général déclarée. La question soulevée à Oakland, à savoir si une entité créée pour "bénéficier à l'humanité" peut légitimement basculer vers une logique de capitalisation, dépasse le seul cas d'OpenAI et interroge l'ensemble des laboratoires d'IA structurés en organisations à but non lucratif.
Le contrôle juridictionnel des biais et discriminations algorithmiques
Au-delà du litige américain, la régulation de l'IA soulève des enjeux contentieux croissants devant les juridictions européennes. La CJUE, dans son arrêt SCHUFA Holding du 7 décembre 2023 (C-634/21), a interprété strictement l'article 22 du RGPD relatif aux décisions individuelles automatisées, considérant que la production d'un score de solvabilité sur lequel un tiers se fonde constitue déjà une décision automatisée prohibée sans garanties spécifiques. La CEDH a quant à elle développé, sur le fondement des articles 8 et 14 de la Convention, une exigence de proportionnalité applicable aux traitements algorithmiques susceptibles d'engendrer des discriminations. En droit interne, le Conseil constitutionnel, dans sa décision n° 2018-765 DC du 12 juin 2018 relative à la protection des données personnelles, avait déjà encadré le recours aux algorithmes par l'administration en exigeant une intervention humaine effective et la maîtrise du traitement par le responsable. Le Conseil d'État a confirmé cette exigence, notamment dans sa décision relative à Parcoursup (CE, 12 juin 2019, n° 427916), qui a reconnu un droit à l'information sur les critères d'admission tout en admettant certaines réserves liées au secret des délibérations.
La CNIL en pivot du dispositif national : montée en puissance répressive et pédagogique
L'autorité de protection des données française connaît une mutation majeure. Outre ses 83 sanctions prononcées en 2025 pour un total de 487 millions d'euros (dont 325 millions contre Google et 150 millions contre Shein), la CNIL a déjà infligé au premier trimestre 2026 plusieurs décisions retentissantes, dont 42 millions d'euros à Free et 5 millions à France Travail. Son plan stratégique 2025-2028 place l'IA parmi ses quatre axes prioritaires, aux côtés de la cybersécurité, de la protection des mineurs et des usages numériques quotidiens. Le projet PANAME (Privacy AuditiNg of Ai ModEls), lancé en juin 2025 avec l'ANSSI, le PEReN et l'Inria, vise à doter les régulateurs d'outils open source d'audit des modèles. Le 5 mars 2026, la CNIL et la Haute Autorité de Santé ont publié un guide conjoint sur l'IA en contexte de soins, soumis à consultation publique jusqu'au 16 avril 2026. La nomination de Rémi Stefanini comme directeur des technologies, de l'innovation et de l'IA à compter du 15 avril 2026 traduit cette montée en puissance institutionnelle.
Enjeux pour les concours
Le candidat retiendra que la régulation de l'IA s'articule désormais autour de trois piliers indissociables. Premièrement, le règlement (UE) 2024/1689 dit AI Act, dont l'application complète intervient le 2 août 2026, instaure une approche par les risques avec sanctions graduées (jusqu'à 7% du chiffre d'affaires mondial à l'article 99) et désigne en France la CNIL comme autorité de référence (loi DDADUE de février 2026). Deuxièmement, l'articulation avec le RGPD demeure centrale : article 22 sur les décisions automatisées, articles 14 et 21 sur l'information et le droit d'opposition, lus à la lumière de la jurisprudence CJUE SCHUFA Holding du 7 décembre 2023 (C-634/21). Troisièmement, le contrôle juridictionnel interne s'appuie sur la décision du Conseil constitutionnel n° 2018-765 DC du 12 juin 2018 et sur la jurisprudence du Conseil d'État relative aux algorithmes publics. Le procès Musk-Altman, bien qu'inscrit dans un contentieux privé américain, illustre une question transversale : celle de la gouvernance des laboratoires d'IA et de la tension entre mission d'intérêt général proclamée et logique de concentration capitalistique. Le candidat veillera à articuler ces enjeux avec les politiques publiques connexes (souveraineté numérique, économie circulaire face à l'obsolescence logicielle, déchets électroniques) qui structurent l'action publique européenne en 2026.