Meta déploie des limitations de messagerie et des contrôles parentaux plus stricts pour les adolescents

Meta vient d’annoncer le déploiement de nouvelles restrictions sur Facebook et Instagram pour les adolescents en empêchant quiconque d’envoyer des messages aux adolescents.

Les nouvelles limites s’appliqueront à tous les utilisateurs de moins de 16 ans

Jusqu’à présent, Instagram interdisait aux adultes de plus de 18 ans d’envoyer des messages aux adolescents qui ne les suivent pas. Les nouvelles limites s’appliqueront par défaut à tous les utilisateurs de moins de 16 ans – et dans certaines zones géographiques de moins de 18 ans. Meta a déclaré qu’il informerait les utilisateurs existants avec une notification.

Sur Messenger, les utilisateurs ne recevront que des messages d’amis Facebook ou de personnes qu’ils ont dans leurs contacts.

Un contrôle renforcé pour les tuteurs

De plus, Meta a décidé de renforcer ses contrôles parentaux en permettant aux tuteurs d’autoriser ou de refuser les modifications des paramètres de confidentialité par défaut effectuées par les adolescents. Auparavant, lorsque des adolescents modifiaient ces paramètres, les tuteurs recevaient une notification, mais ils ne pouvaient prendre aucune mesure à leur égard.

La société a donné un exemple selon lequel si un utilisateur adolescent tente de rendre son compte public et privé, modifie le contrôle du contenu sensible de « Moins » à « Standard » ou tente de modifier les contrôles concernant les personnes pouvant lui envoyer un message privé, les tuteurs peuvent le bloquer.

Meta a déployé pour la première fois des outils de supervision parentale pour Instagram en 2022, ce qui avait donné aux tuteurs une idée de l’utilisation qu’en faisaient leurs enfants.

Le géant des médias sociaux a annoncé qu’il prévoyait également de lancer une fonctionnalité qui empêcherait les adolescents de voir dans leurs messages directs des images indésirables et inappropriées envoyées par des personnes qui leur sont liées. La société a ajouté que cette fonctionnalité fonctionnerait également dans les discussions cryptées de bout en bout et « découragerait » les adolescents à envoyer ce type d’images.

Meta a déployé de nouveaux outils pour empêcher les adolescents de s’automutiler

Meta n’a pas précisé quel travail il effectuait pour garantir la confidentialité des adolescents lors de l’exécution de ces fonctionnalités. Il n’a pas non plus fourni de détails sur ce qu’il considère comme « inapproprié ».

Plus tôt ce mois-ci, Meta a déployé de nouveaux outils pour empêcher les adolescents de s’intéresser à l’automutilation ou aux troubles de l’alimentation sur Facebook et Instagram.

Le mois dernier, Meta a reçu une demande officielle d’informations de la part des régulateurs de l’UE , qui ont demandé à l’entreprise de fournir plus de détails sur les efforts de l’entreprise pour empêcher le partage de contenus d’abus sexuels sur enfants.

Dans le même temps, l’entreprise fait face à une action civile devant le tribunal de l’État du Nouveau-Mexique, alléguant que le réseau social de Meta fait la promotion de contenus à caractère sexuel auprès des utilisateurs adolescents et fait la promotion de comptes de mineurs auprès de prédateurs. En octobre, plus de 40 États américains ont intenté une action en justice devant un tribunal fédéral de Californie, accusant l’entreprise de concevoir des produits d’une manière qui nuisait à la santé mentale des enfants.

Les articles récents

- Advertisement -

Les plus lus

A lire également

- Advertisement -