L'interdiction de l'IA sur Wikipédia : la régulation de l'intelligence artificielle dans la production de contenus informationnels, entre protection de la fiabilité et encadrement juridique européen
La version anglophone de Wikipédia, qui constitue la plus importante édition de l'encyclopédie collaborative libre, a décidé de bannir l'usage de l'intelligence artificielle générative pour la rédaction d'articles, assortissant cette interdiction du message explicite « Don't do it ». Seuls deux types d'usages précis et encadrés demeurent toutefois autorisés. Cette décision, prise par la communauté des contributeurs, illustre les tensions croissantes entre la diffusion massive des outils d'IA générative et l'exigence de fiabilité, de traçabilité et de qualité des contenus informationnels en ligne.
Le cadre juridique européen : le règlement sur l'intelligence artificielle (AI Act)
L'Union européenne s'est dotée, avec le règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées en matière d'intelligence artificielle (dit « AI Act »), du premier cadre juridique global de régulation de l'IA au monde. Ce texte, fondé sur une approche par les risques, classe les systèmes d'IA en plusieurs catégories (risque inacceptable, risque élevé, risque limité, risque minimal) et impose des obligations graduées.
S'agissant de la production de contenus, l'article 50 du règlement impose des obligations de transparence spécifiques. Les fournisseurs de systèmes d'IA générative doivent veiller à ce que les contenus produits soient marqués dans un format lisible par machine et détectables comme ayant été générés ou manipulés artificiellement. Les utilisateurs de systèmes d'IA qui génèrent des textes publiés dans le but d'informer le public sur des questions d'intérêt général doivent indiquer que le contenu a été généré artificiellement. Cette obligation de transparence rejoint directement la préoccupation exprimée par Wikipédia quant à l'identification de l'origine des contenus.
Le règlement s'inscrit également dans la continuité de la Charte des droits fondamentaux de l'Union européenne, dont l'article 11 garantit la liberté d'expression et d'information, incluant la liberté de recevoir des informations fiables.
La protection de l'intégrité informationnelle en droit français
En droit interne, la lutte contre la désinformation et la protection de la qualité de l'information constituent des préoccupations anciennes, renouvelées par l'essor de l'IA. La loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information a introduit des obligations de transparence pour les plateformes numériques en période électorale et a créé un mécanisme de référé contre les fausses informations.
La loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), modifiée à plusieurs reprises, encadre la responsabilité des hébergeurs et des éditeurs de contenus en ligne. L'articulation entre ce régime et les contenus générés par l'IA soulève des questions nouvelles : lorsqu'un contenu est produit par un système d'IA et publié sur une plateforme collaborative, la détermination de la responsabilité éditoriale devient complexe.
Le Conseil constitutionnel, dans sa décision n° 2009-580 DC du 10 juin 2009 (Loi favorisant la diffusion et la protection de la création sur internet), a consacré la liberté de communication et d'expression sur internet comme corollaire de l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789. Cette liberté constitutionnelle doit cependant se concilier avec d'autres exigences, notamment la protection contre la diffusion d'informations fausses ou trompeuses.
La gouvernance des plateformes collaboratives et le règlement sur les services numériques
La décision de Wikipédia s'inscrit dans un contexte plus large de responsabilisation des plateformes numériques. Le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (Digital Services Act, DSA) impose aux plateformes en ligne des obligations renforcées en matière de modération des contenus, de transparence algorithmique et de gestion des risques systémiques.
L'article 34 du DSA impose aux très grandes plateformes une évaluation annuelle des risques systémiques, incluant les effets négatifs sur le discours civique et les processus électoraux, ainsi que sur la diffusion de contenus illicites. La prolifération de contenus générés par IA sans identification adéquate constitue un risque systémique au sens de ce texte.
La particularité de Wikipédia tient à son modèle de gouvernance communautaire. L'encyclopédie n'est pas une plateforme commerciale au sens classique, mais un projet collaboratif fondé sur des principes éditoriaux (neutralité de point de vue, vérifiabilité des sources, interdiction du travail inédit). L'interdiction de l'IA relève ainsi d'une forme d'autorégulation, qui pose la question de l'articulation entre les normes communautaires et le cadre juridique imposé par le législateur européen.
Les enjeux de propriété intellectuelle et de responsabilité
La production de contenus par IA soulève des questions fondamentales en matière de propriété intellectuelle. Le code de la propriété intellectuelle (article L. 111-1) protège les œuvres de l'esprit, à condition qu'elles portent l'empreinte de la personnalité de leur auteur. La jurisprudence française tend à considérer que l'originalité suppose un apport créatif humain, ce qui pose la question du statut juridique des textes intégralement produits par une IA.
La CJUE, dans sa jurisprudence relative à la notion d'œuvre (CJUE, 16 juillet 2009, Infopaq International, C-5/08), a défini l'originalité comme la « création intellectuelle propre à son auteur ». Un contenu généré automatiquement par un système d'IA, sans intervention créative humaine significative, pourrait ne pas satisfaire ce critère.
Sur le plan de la responsabilité, la question se pose de savoir qui répond des inexactitudes ou des contenus contrefaisants produits par un système d'IA et publiés sur une plateforme. Le régime de la directive 85/374/CEE relative à la responsabilité du fait des produits défectueux, que le législateur européen envisage d'adapter à l'IA, pourrait trouver à s'appliquer.
Enjeux pour les concours
Le candidat doit retenir plusieurs éléments structurants de cette thématique. Premièrement, le règlement (UE) 2024/1689 (AI Act) constitue désormais le texte de référence en matière de régulation de l'IA au niveau européen ; son article 50 sur les obligations de transparence des contenus générés par IA est essentiel. Deuxièmement, l'articulation entre le DSA (règlement 2022/2065), la LCEN (loi du 21 juin 2004) et la loi du 22 décembre 2018 contre la manipulation de l'information forme le triptyque normatif applicable à la régulation des contenus en ligne.
Le candidat doit également maîtriser la valeur constitutionnelle de la liberté de communication sur internet (CC, décision n° 2009-580 DC du 10 juin 2009) et sa conciliation avec les impératifs de fiabilité de l'information. L'approche européenne par les risques, qui distingue les niveaux de dangerosité des systèmes d'IA, est un modèle de régulation à connaître et à comparer avec les approches plus sectorielles d'autres juridictions.
Enfin, la décision de Wikipédia illustre la complémentarité entre régulation publique et autorégulation des acteurs du numérique, thème récurrent dans les épreuves de droit public et de culture administrative. Elle témoigne de la difficulté à concilier innovation technologique, liberté d'expression et exigence de qualité de l'information dans l'espace public numérique.