Meta a annoncé mardi l’élargissement de ses « comptes adolescents » à Facebook et Messenger, une initiative lancée initialement sur Instagram en septembre 2024. Cette extension concerne dans un premier temps les États-Unis, le Canada, l’Australie et le Royaume-Uni, avant une mise en place progressive dans d’autres régions du monde. À travers cette mesure, le groupe californien affirme vouloir renforcer la sécurité des mineurs sur l’ensemble de ses plateformes.
Conçus spécifiquement pour les jeunes âgés de 13 à 17 ans, ces profils bénéficient de paramètres de protection avancés. Ils limitent l’exposition à des contenus sensibles, encadrent les interactions avec des personnes inconnues et réduisent le nombre de notifications reçues durant la nuit. Pour les utilisateurs de moins de 16 ans, toute modification de ces réglages nécessite une validation parentale. Par ailleurs, un rappel est envoyé après 60 minutes d’utilisation continue, afin d’inciter à une pause hors écran.
L’extension de ces dispositifs s’inscrit dans une logique de contrôle parental élargi. « Nous voulons offrir aux familles une meilleure visibilité et plus de sérénité quant à l’usage de nos plateformes par les adolescents », a déclaré le groupe dans un communiqué. Sur Messenger, les jeunes utilisateurs ne peuvent plus être contactés que par des personnes qu’ils ont déjà ajoutées ou avec qui ils sont connectés.
Instagram n’est pas en reste. Meta a annoncé un durcissement des paramètres pour les comptes adolescents existants. À l’avenir, les moins de 16 ans ne pourront plus initier de vidéos en direct sans l’approbation de leurs parents. Cette autorisation sera également requise pour désactiver le filtre qui floute automatiquement les contenus suspects de nudité dans les messages privés.
Avec 54 millions de comptes adolescents recensés sur Instagram depuis le lancement de cette fonctionnalité à l’automne dernier, Meta semble chercher à répondre aux inquiétudes croissantes autour de l’usage des réseaux sociaux par les mineurs. Entre risques d’exposition à des contenus violents ou inappropriés, harcèlement numérique et dépendance aux écrans, la pression sociétale et politique s’intensifie.
Certains pays ont déjà légiféré pour encadrer drastiquement l’usage de ces plateformes. En novembre dernier, l’Australie a adopté l’une des lois les plus strictes en matière de régulation numérique des jeunes : toute utilisation des réseaux sociaux est désormais interdite aux moins de 16 ans. Cette décision radicale reflète l’ampleur du malaise provoqué par l’usage intensif des outils numériques chez les plus jeunes.
Face à cette tendance, d’autres acteurs du numérique tentent également d’agir. TikTok, principal concurrent de Meta sur ce segment d’âge, a récemment introduit en France et dans l’Union européenne un système de contrôle parental. Il permet aux responsables légaux de fixer des limites de temps d’écran pour leurs enfants, signe que l’encadrement des adolescents devient un enjeu stratégique majeur pour les plateformes.
En intégrant des restrictions plus strictes et un contrôle parental renforcé, Meta semble anticiper un durcissement réglementaire global et souhaite visiblement se repositionner comme un acteur responsable dans la gestion de la jeunesse numérique.