De nouvelles mesures pour protéger les adolescents en ligne
Face aux critiques concernant la sécurité des plus jeunes utilisateurs de ses plateformes, Meta a décidé d’apporter des modifications à Instagram et Facebook Messenger afin de mieux protéger ces derniers contre les contacts non désirés. Ces changements comprennent de nouvelles restrictions concernant les personnes pouvant entrer en contact avec les adolescents et offrant aux parents un contrôle accru sur les paramètres de sécurité de leurs enfants.
Une modification notable est que les adolescents de moins de 16 ans ne pourront plus recevoir de messages ou être ajoutés à des groupes de discussion par des utilisateurs qu’ils ne suivent pas ou avec lesquels ils ne sont pas connectés sur Instagram et Messenger. Ces mises à jour font partie des efforts de Meta pour répondre aux accusations selon lesquelles ses algorithmes ont contribué aux effets négatifs de Facebook et Instagram.
Contrairement aux restrictions précédentes qui ne s’appliquaient qu’aux adultes de plus de 19 ans, ces nouvelles règles s’appliqueront à tous les utilisateurs, quel que soit leur âge. De plus, au lieu de simplement être informés lorsque leur enfant modifie ses paramètres de sécurité et de confidentialité, les parents auront désormais la possibilité d’approuver ou de refuser ces demandes, empêchant par exemple leur enfant de passer son profil de privé à public.
Des outils pour lutter contre le partage de contenus inappropriés
Meta travaille également sur une nouvelle fonctionnalité visant à protéger les utilisateurs contre la réception d’images indésirables ou inappropriées dans les messages provenant de personnes avec lesquelles ils sont déjà connectés. L’objectif est également de décourager les utilisateurs d’envoyer ce type de contenu en premier lieu.
En 2021, Meta a mis en place une fonctionnalité sur Instagram empêchant les adultes d’envoyer des messages aux utilisateurs de moins de 18 ans qui ne les suivent pas. Ce paramètre est activé par défaut, de sorte que les adolescents ayant des comptes sous surveillance parentale devront obtenir l’approbation de leur tuteur pour apporter des modifications. Cependant, l’efficacité de ce paramètre repose sur l’âge déclaré par l’utilisateur et la technologie utilisée par Meta pour prédire les âges, ce qui n’est pas complètement infaillible.
Limiter l’exposition des mineurs à des sujets sensibles
Récemment, Meta a annoncé qu’il prendra des mesures pour restreindre le contenu lié à l’automutilation, à la violence graphique, aux troubles alimentaires et à d’autres sujets nuisibles afin qu’ils ne soient pas visibles par les adolescents sur Instagram et Facebook. Si un utilisateur a moins de 16 ans, il ne verra pas les publications abordant ces sujets dans son fil d’actualité et ses Stories, même si elles sont partagées par des comptes qu’il suit.
Des actions légales contre Meta
Par ailleurs, 33 États américains ont déposé une plainte non scellée contre Meta, l’accusant de cibler activement les enfants de moins de 13 ans pour utiliser ses applications et sites web, et de continuer à collecter leurs données même lorsqu’ils sont conscients de leur âge.
En décembre 2023, l’État du Nouveau-Mexique a poursuivi Meta en justice pour avoir prétendument recommandé du contenu sexuel aux mineurs via les algorithmes de Facebook et Instagram.
- Restrictions sur les personnes pouvant entrer en contact avec les adolescents.
- Contrôle accru des parents sur les paramètres de sécurité de leurs enfants.
- Lutte contre le partage de contenus inappropriés.
- Limitation de l’exposition des mineurs à des sujets sensibles.
En somme, ces nouvelles mesures visent à améliorer la protection des jeunes utilisateurs d’Instagram et Facebook Messenger face aux contacts non désirés et aux contenus potentiellement nuisibles. Bien que ces changements soient un pas dans la bonne direction, il reste important pour les parents de superviser attentivement l’utilisation que font leurs enfants des réseaux sociaux et d’éduquer ces derniers sur les risques liés à leur utilisation.