La protection des mineurs en ligne : majorité numérique, responsabilité des plateformes et bien-être des jeunes
Le World Happiness Report 2026, publié le 19 mars sous l'égide de l'ONU et du Wellbeing Research Centre de l'université d'Oxford, établit un lien significatif entre l'utilisation intensive des réseaux sociaux et la baisse du bien-être chez les moins de 25 ans, en particulier chez les filles dans les pays anglophones et d'Europe occidentale. Les évaluations de satisfaction de vie des jeunes aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande ont chuté de près d'un point sur une échelle de 0 à 10 en une décennie, tandis que la moyenne mondiale pour les jeunes a augmenté. Le rapport note qu'une utilisation inférieure à une heure par jour est associée au niveau de bien-être le plus élevé, y compris par rapport à l'abstention totale. La France se classe 35e du classement général (33e en 2025). Ce rapport intervient alors que de nombreux pays légifèrent ou envisagent de légiférer sur l'accès des mineurs aux réseaux sociaux, soulevant des questions juridiques fondamentales à l'intersection de la protection de l'enfance, des libertés fondamentales et de la régulation des plateformes numériques.
La majorité numérique en France : une loi votée mais inappliquée
La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne a introduit dans la loi pour la confiance dans l'économie numérique (LCEN) de 2004 un nouvel article 6-7 qui fixe à 15 ans l'âge minimal pour s'inscrire seul sur un réseau social. En deçà de cet âge, l'autorisation expresse d'un titulaire de l'autorité parentale est requise. La loi impose aux plateformes de mettre en œuvre des solutions techniques de vérification de l'âge conformes à un référentiel élaboré par l'Arcom après consultation de la CNIL, et prévoit une amende pouvant atteindre 1 % du chiffre d'affaires mondial en cas de manquement.
Toutefois, cette loi est restée lettre morte depuis son adoption. Le décret d'application nécessaire n'a jamais été publié, la Commission européenne ayant estimé les dispositions non conformes au droit de l'Union, en particulier au règlement sur les services numériques (DSA, règlement UE 2022/2065), qui harmonise les obligations des plateformes à l'échelle européenne. Le 10 juin 2025, le Président de la République a déclaré qu'il fallait une interdiction harmonisée à l'échelle de l'UE pour les moins de 15 ans. Cet appel a été suivi par six autres États membres (dont le Danemark et Chypre). Le 14 juillet 2025, les lignes directrices de l'article 28 du DSA (protection des mineurs) ont acté la possibilité pour les États membres d'introduire un principe de majorité numérique et l'obligation pour les plateformes de disposer d'un système de vérification de l'âge, ouvrant enfin la voie à une application effective.
Le constat de la CNIL (2021) qui avait motivé la loi reste d'actualité : l'inscription moyenne des jeunes sur les réseaux sociaux intervient vers 8 ans et demi, et plus de la moitié des 10-14 ans y sont présents. Les parents sous-estiment largement l'ampleur des activités numériques de leurs enfants.
Le choix du seuil de 15 ans : entre RGPD et Convention internationale des droits de l'enfant
Le choix de l'âge de 15 ans n'est pas arbitraire. Il s'inscrit dans une double filiation juridique. D'une part, le RGPD (règlement UE 2016/679) fixe à son article 8 l'âge de 16 ans comme seuil de consentement autonome au traitement de données personnelles par un service de la société de l'information, tout en laissant aux États membres la possibilité de l'abaisser jusqu'à 13 ans. La France a exercé cette option en fixant le seuil à 15 ans dans la loi Informatique et Libertés modifiée (art. 45). D'autre part, la Convention internationale des droits de l'enfant (CIDE, 1989) consacre à la fois le droit de l'enfant à la protection (art. 3, intérêt supérieur de l'enfant ; art. 19, protection contre les violences) et son droit à l'information et à la liberté d'expression (art. 13 et 17). La fixation d'un seuil d'âge pour l'accès aux réseaux sociaux cristallise la tension entre ces deux impératifs.
Le modèle australien : l'interdiction pure et simple
L'Australie a adopté une approche plus radicale avec l'Online Safety Amendment (Social Media Minimum Age) Act 2024, entré en vigueur le 10 décembre 2025. Ce texte interdit l'accès aux réseaux sociaux aux moins de 16 ans, sans possibilité d'autorisation parentale (à la différence du modèle français). Dix plateformes sont concernées (Facebook, Instagram, TikTok, Snapchat, X, YouTube, Reddit, Threads, Twitch, Kick). Les plateformes encourent des amendes pouvant atteindre 49,5 millions de dollars australiens (environ 28 millions d'euros), tandis que les mineurs et leurs parents ne sont soumis à aucune sanction. Meta a immédiatement commencé à supprimer les comptes identifiés comme appartenant à des utilisateurs de moins de 16 ans.
Le premier bilan est contrasté. Les contournements sont massifs (faux âge déclaré, grimaces pour tromper la vérification biométrique, migration vers des applications alternatives comme Lemon8 ou Yobe). L'Unicef a mis en garde contre le risque de priver les adolescents isolés ou marginalisés d'une forme essentielle de sociabilité et d'accès à l'information. Meta a estimé que la loi pourrait « pousser les adolescents vers des plateformes moins réglementées ».
L'approche européenne : le DSA et la responsabilisation des plateformes
L'Union européenne a choisi une voie intermédiaire fondée sur la responsabilisation des plateformes plutôt que sur l'interdiction frontale. Le Digital Services Act (DSA, règlement UE 2022/2065, applicable depuis le 17 février 2024) impose aux très grandes plateformes (plus de 45 millions d'utilisateurs dans l'UE) des obligations spécifiques de protection des mineurs. Son article 28 exige la mise en place de mesures appropriées pour assurer « un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs » dans la conception de leurs services (safety by design). Les lignes directrices adoptées le 14 juillet 2025 ont précisé ces obligations, en ouvrant la possibilité d'une majorité numérique à l'échelle nationale.
Le Digital Markets Act (DMA, règlement UE 2022/1925) complète ce dispositif en encadrant les pratiques des « contrôleurs d'accès » (gatekeepers) et en limitant le profilage des utilisateurs mineurs à des fins publicitaires. L'amende de 120 millions d'euros infligée à X (ex-Twitter) par la Commission en décembre 2025, payée en mars 2026, portait notamment sur le manque de transparence du registre d'annonceurs et les « coches bleues » trompeuses — des manquements qui affectent directement la capacité des mineurs à distinguer contenus authentifiés et contenus trompeurs.
Le Parlement européen a adopté fin novembre 2025 un rapport d'initiative proposant de fixer à 16 ans l'âge minimal d'accès aux réseaux sociaux, aux plateformes de partage de vidéos et aux compagnons d'IA, avec un accès possible entre 13 et 16 ans sous consentement parental.
La vérification de l'âge : le verrou technique
L'efficacité de toute législation sur la majorité numérique repose sur la capacité technique à vérifier l'âge des utilisateurs de manière fiable, sans porter atteinte à la vie privée ni créer un système de surveillance disproportionné. La loi française de 2023 confie à l'Arcom l'élaboration du référentiel technique, après consultation de la CNIL. Plusieurs méthodes sont envisagées ou expérimentées : déclaration d'âge (facilement contournable), vérification par pièce d'identité (risques pour la vie privée, exclusion des jeunes ne disposant pas de document), estimation biométrique par IA (imprécisions, biais discriminatoires), double vérification croisée (carte d'identité + estimation biométrique), ou encore systèmes de « tiers de confiance » vérifiant l'âge sans transmettre l'identité à la plateforme.
La CNIL a émis des recommandations strictes pour que ces systèmes respectent le principe de minimisation des données (art. 5 RGPD) et ne conduisent pas à une collecte disproportionnée de données biométriques ou d'identité. Le Conseil constitutionnel sera vraisemblablement saisi de la question de la proportionnalité entre l'objectif de protection des mineurs et l'atteinte au droit au respect de la vie privée (art. 2 DDHC, art. 8 CEDH) et à la liberté d'expression (art. 11 DDHC, art. 10 CEDH).
Les effets documentés sur la santé mentale des jeunes
Le World Happiness Report 2026 confirme un corpus scientifique croissant sur les effets négatifs de l'usage intensif des réseaux sociaux sur les adolescents. Les plateformes à contenu algorithmiquement curé (TikTok, Instagram, YouTube) sont associées à une baisse significative du bien-être, tandis que celles conçues pour faciliter les connexions sociales directes montrent une association positive. Le rapport souligne que les baisses de bien-être les plus marquées sont observées dans les pays anglophones, suggérant que des facteurs culturels et sociaux modulent l'impact des réseaux sociaux.
En France, la commission Écrans, réunie par le Président de la République en 2024, avait documenté les effets des écrans et des réseaux sociaux sur le développement cognitif, la santé mentale et les capacités d'apprentissage des enfants. Le rapport gouvernemental prévu par l'article 6 de la loi de 2023 sur les conséquences de l'utilisation des plateformes sur la santé physique et mentale des jeunes devait être remis avant le 7 juillet 2024. Le numéro 3018 (gratuit, géré par e-Enfance) permet aux victimes de cyberharcèlement d'obtenir la suppression de contenus préjudiciables, l'association disposant du statut de « signaleur de confiance » au sens du DSA.
Enjeux pour les concours
La protection des mineurs en ligne est un sujet transversal qui mobilise le droit des libertés fondamentales, le droit du numérique et les politiques publiques de cohésion sociale. Le candidat doit maîtriser l'architecture normative à trois niveaux : le droit national (loi du 7 juillet 2023, art. 6-7 LCEN, loi Informatique et Libertés, rôle de l'Arcom et de la CNIL), le droit de l'Union européenne (RGPD art. 8, DSA art. 28, DMA, lignes directrices du 14 juillet 2025) et le droit international (CIDE art. 3, 13 et 17). La tension entre protection de l'enfance et liberté d'expression/droit à l'information est au cœur du sujet, avec la question constitutionnelle de la proportionnalité des dispositifs de vérification de l'âge au regard de la vie privée (art. 2 DDHC, art. 8 CEDH). La comparaison entre le modèle français (majorité numérique à 15 ans avec autorisation parentale, inappliquée), le modèle australien (interdiction pure à 16 ans, appliquée depuis décembre 2025 mais massivement contournée) et l'approche européenne (safety by design, responsabilisation des plateformes) offre un angle d'analyse comparée pertinent pour les épreuves de culture générale, de droit public et de questions européennes.