Face à la pression mondiale des régulateurs, Meta Platforms a annoncé des mesures plus strictes pour restreindre le contenu accessible aux adolescents sur Instagram et Facebook. Cette décision intervient dans le contexte de préoccupations croissantes concernant la sécurité des jeunes utilisateurs face à des contenus potentiellement nocifs.
Tous les adolescents seront désormais automatiquement placés dans les paramètres de contrôle de contenu les plus restrictifs sur les applications, tandis que des limitations supplémentaires seront appliquées aux termes de recherche sur Instagram. Meta vise ainsi à réduire l’accès des adolescents à des contenus sensibles tels que le suicide, l’automutilation et les troubles alimentaires lors de l’utilisation des fonctions de recherche et d’exploration sur Instagram.
La mise en œuvre de ces mesures est prévue au cours des prochaines semaines, avec pour objectif d’offrir une expérience plus « adaptée à l’âge » aux utilisateurs adolescents.
Meta est confronté à des pressions réglementaires aux États-Unis et en Europe, accusé de contribuer à une crise de santé mentale chez les jeunes. Les procureurs généraux de 33 États américains ont intenté un procès à la société en octobre 2023, alléguant des tromperies répétées sur les dangers de ses plates-formes. En Europe, la Commission européenne a également demandé des informations sur les mesures de protection des enfants contre des contenus illégaux et préjudiciables.
Par ailleurs, les changements annoncés par Meta ne répondent pas aux préoccupations d’Arturo Bejar, un ancien employé de l’entreprise, qui a témoigné devant le Sénat américain sur le harcèlement et les préjudices subis par les adolescents sur ces plateformes. Bejar souligne que l’entreprise n’a pas encore fourni de moyen simple pour qu’un adolescent signale une avance non désirée.