Réguler l’accès des mineurs aux réseaux sociaux : le cadre juridique au défi d’une application réelle

Source: The Conversation – in French – By Tanja Petelin, Maître de conférences en droit privé, Université de Poitiers

Si le règlement européen sur les services numériques impose aux réseaux sociaux de mettre en place des mesures pour protéger les mineurs, ces derniers restent encore largement exposés à divers risques. Une loi nationale visant à interdire l’accès à TikTok, Facebook ou encore Instagram, aux moins de 15 ans peut-elle changer la donne ? L’analyse juridique fait ressortir les défis d’une mise en œuvre effective.


Le 26 janvier 2026, l’Assemblée nationale a adopté en première lecture la proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, avec une disposition les interdisant aux moins de 15 ans. Ce texte fait suite aux conclusions de la Commission d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok sur les mineurs, constatant à la fois ses effets délétères sur la santé mentale des jeunes et établissant qu’il n’existe parmi les principaux réseaux sociaux aucun qui puisse être qualifié d’« éthique ». D’autres pays européens s’engagent dans cette même voie.

Cette dynamique révèle un certain désenchantement à l’égard du cadre juridique européen qui, à travers l’article 28 du règlement européen sur les services numériques (DSA), impose aux fournisseurs de plateformes en ligne accessibles aux mineurs (y compris les réseaux sociaux), une obligation de mettre en place « des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leurs services ».




À lire aussi :
Interdire les réseaux sociaux aux mineurs : un frein aux alternatives vertueuses ?


Dans ses lignes directrices du 14 juillet 2025, la Commission européenne a traduit cette obligation en une série des bonnes pratiques concernant les paramètres par défaut, la conception des interfaces, le fonctionnement des algorithmes de recommandation, les pratiques commerciales ou encore la modération.

Par ailleurs, les articles 34 et 35 du DSA imposent aux fournisseurs de « très grandes plateformes en ligne » d’évaluer tout effet négatif réel ou prévisible lié à l’exercice des droits de l’enfant, à leur protection et aux conséquences négatives graves sur leur bien-être physique et mental. C’est sur ce fondement que la Commission européenne a récemment conclu, à titre préliminaire, au non-respect du DSA par TikTok, demandant à la société de modifier la conception de son service, en désactivant progressivement des fonctionnalités les plus addictives.

En théorie, ce cadre offre donc à la Commission européenne et aux régulateurs nationaux des moyens pour responsabiliser les plateformes à l’égard de leurs jeunes utilisateurs. Ainsi, dès l’entrée en vigueur du DSA en 2024, la Commission européenne a ouvert des procédures formelles à l’encontre de TikTok et de Meta (concernant Facebook et Instagram). Pourtant, ces procédures s’avèrent longues et donnent le sentiment d’une loi qui reste lettre morte.

Si, comme le rappelle la députée Laure Miller dans son rapport, les mesures actuellement mises en œuvre sont loin d’être à la hauteur de l’urgence, une loi nationale visant à interdire les réseaux sociaux aux mineurs est-elle la bonne réponse au problème de leur protection en ligne ?

Interdiction des réseaux sociaux aux mineurs, majorité numérique : de quoi parle-t-on ?

La notion de la « majorité » fait généralement allusion à l’acquisition d’une certaine autonomie. En France, l’âge de la majorité, fixée à 18 ans, conditionne en principe la capacité du mineur d’exercer ses droits.

Depuis la modification de la loi informatique et libertés en vue de sa mise en conformité avec le RGPD, l’âge de la « majorité numérique » est généralement associé en France au seuil de 15 ans. Cependant, l’utilisation du terme en lien avec ce texte peut induire en erreur. En effet, cette loi reconnaît uniquement la capacité aux mineurs de plus de 15 ans de consentir seuls au traitement de leurs données personnelles sur Internet. Elle n’a donc aucun impact sur leur capacité d’accomplir d’autres actes en ligne, par exemple, d’accepter les conditions générales d’utilisation d’un réseau social, comme l’explique la CNIL.

Outre cette « majorité civile », des seuils d’âge sont également posés, notamment en droit pénal, pour accorder aux mineurs une protection renforcée ou pour interdire leur exposition à certains contenus ou produits préjudiciables. La démarche du législateur français concernant la régulation de l’accès aux réseaux sociaux semble davantage s’inscrire dans ce cadre.

Ainsi, la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, imposant aux fournisseurs de réseaux sociaux de refuser l’inscription à leurs services aux enfants de moins de 15 ans en l’absence d’une autorisation parentale, n’a pas vraiment pour objet l’instauration d’une majorité numérique. Outre sa portée limitée à l’inscription aux réseaux sociaux, aucune de ses dispositions ne prévoit explicitement la capacité des mineurs âgés de plus de 15 ans d’accomplir seuls les actes juridiques dans ce cadre. Cette loi n’est d’ailleurs jamais entrée en vigueur en raison de sa non-conformité au droit de l’Union européenne.

Quant à la proposition de loi votée le 26 janvier 2026, elle ne reprend pas le terme de majorité numérique et prévoit une interdiction pure et simple, ne pouvant être levée par l’autorisation des parents.

Réactions face à l’annonce d’une possible interdiction des réseaux sociaux aux moins de 15 ans (France 3 Nouvelle-Aquitaine, 2026).

Aussi, à la différence de la loi du 7 juillet 2023, aucune nouvelle obligation n’est explicitement instaurée à la charge des fournisseurs de réseaux sociaux : son article 1er prévoit simplement que « l’accès à un service de réseaux sociaux en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans ». Si la disposition semble ainsi faire peser le respect de l’interdiction sur les mineurs, cette formulation s’explique par une nécessaire articulation avec le droit de l’Union européenne.

Articulation avec le cadre juridique de l’Union européenne

Dans son avis sur une première version de la proposition de loi, le Conseil d’État a justement remarqué que, en faisant peser l’interdiction d’accès aux réseaux sociaux sur les plateformes en ligne, la loi pourrait soulever des difficultés au regard du DSA.

En effet, en adoptant le DSA, le législateur de l’Union européenne a procédé à une harmonisation exhaustive des règles applicables aux plateformes en ligne. Par conséquent, les États membres ne peuvent adopter des exigences nationales supplémentaires concernant les matières relevant de son champ d’application, sauf si celui-ci le prévoit expressément.

Or, selon l’article 28 du DSA, les plateformes en ligne accessibles aux mineurs ont déjà l’obligation de mettre en place des mesures pour protéger les mineurs. Les lignes directrices de la Commission apportent d’ailleurs des précisions sur l’utilisation des outils de vérification de l’âge et précisent les situations dans lesquelles le recours à des restrictions d’accès fondées sur celles-ci est approprié. Outre les hypothèses classiques (vente d’alcool, de tabac ou des stupéfiants, contenus pornographiques, jeux d’argent et de hasard), elles citent l’hypothèse suivante :

« Lorsque le droit de l’Union ou le droit national, conformément au droit de l’Union, fixe un âge minimal pour accéder à certains produits ou services proposés et/ou présentés de quelque manière que ce soit sur une plateforme en ligne, y compris des catégories spécifiquement définies de services de médias sociaux en ligne. »

Un porte-parole de la Commission a ainsi déclaré que la France avait le droit de fixer l’âge de la « majorité numérique » pour ses citoyens, tout en précisant que la mise en œuvre doit être conforme au DSA.

Les défis d’une mise en œuvre effective

Pour que l’interdiction légale puisse atteindre son objectif, encore faut-il relever les défis relatifs à sa mise en œuvre effective.

D’abord, comme en témoigne l’exemple australien, une telle interdiction se confronte nécessairement au risque de contournement par les mineurs : utilisation de l’identité d’un tiers, recours au VPN… Certains mineurs risquent ainsi de se retrouver dans une situation de grande vulnérabilité, accédant au réseau social sans accompagnement parental et sans que leur âge réel soit pris en compte dans leur parcours d’utilisateur. Les obligations des plateformes à leur égard méritent donc d’être interrogées.

L’Australie interdit les réseaux sociaux aux adolescents (France 24, décembre 2025).

D’autre part, dans la mesure où le respect de l’interdiction s’inscrit dans le cadre du DSA, c’est également ce règlement qui définit les autorités compétentes pour surveiller sa mise en œuvre. Or cette compétence revient en principe à la Commission européenne pour les réseaux sociaux qualifiés de très grandes plateformes, voire, pour les autres réseaux sociaux, au régulateur de l’État membre dans lequel se situe l’établissement principal du fournisseur de services.

La compétence du régulateur français est ainsi limitée aux seuls réseaux sociaux établis en France, situation rare dans les faits. Se pose alors de nouveau le problème de délais des procédures menées par la Commission ou impliquant les régulateurs d’autres États membres, susceptible de compromettre l’effectivité du dispositif.

Cependant, la Commission européenne envisage désormais l’élaboration d’une approche commune concernant l’accès des mineurs aux réseaux sociaux. Dans une résolution du 26 novembre 2025, le Parlement européen a également demandé la mise en place d’une « limite d’âge numérique européenne harmonisée » de 16 ans pour l’accès aux réseaux sociaux sans l’accord des parents ou tuteurs, et d’un seuil de 13 ans en dessous duquel aucun mineur ne peut y accéder.

Si une solution européenne commune peut être plus efficace face aux grands acteurs du numérique, encore faut-il se donner les moyens de l’imposer, conjointement aux autres mesures visant à protéger les mineurs et leurs droits. Par ailleurs, le dispositif préconisé par le Parlement européen, privilégiant l’accompagnement parental entre 13 et 16 ans à une interdiction pure et simple, offre davantage de souplesse.

Il est important que les jeunes puissent découvrir progressivement Internet et les réseaux sociaux, en fonction de leur maturité, tout en évoluant dans un environnement qui n’exploite pas leurs vulnérabilités. La définition des « limites d’âge numérique » n’est ainsi qu’une brique dans la construction d’un environnement numérique respectueux des droits des mineurs.


Le projet Encadrer les activités numériques du mineur : une recherche interdisciplinaire centrée sur le processus d’autonomisation – ENUMINE est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Tanja Petelin a reçu des financements de l’Agence nationale de la recherche (ANR).

ref. Réguler l’accès des mineurs aux réseaux sociaux : le cadre juridique au défi d’une application réelle – https://theconversation.com/reguler-lacces-des-mineurs-aux-reseaux-sociaux-le-cadre-juridique-au-defi-dune-application-reelle-274441