Instagram va flouter les images de nudité dans les messages directs
Instagram a déclaré qu'il déployait de nouveaux outils pour protéger les jeunes et lutter contre l'extorsion sexuelle, avec notamment une fonctionnalité qui flouterait automatiquement la nudité dans les messages directs.
La plateforme de médias sociaux a déclaré jeudi dans un article de blog qu'elle testait ces fonctionnalités dans le cadre de sa campagne visant à lutter contre les fraudes sexuelles et d'autres formes d'"abus d'image" et à rendre plus difficile pour les criminels de contacter les adolescents.
L'extorsion sexuelle, ou sextorsion, consiste à persuader une personne d'envoyer des photos explicites en ligne, puis à menacer de rendre les images publiques à moins que la victime ne paie de l'argent ou ne s'engage dans des faveurs sexuelles. Des affaires récentes très médiatisées incluent deux frères nigérians qui ont plaidé coupables d'extorsion sexuelle sur des adolescents et des jeunes hommes dans le Michigan, aux USA, dont un qui s'est suicidé, et un adjoint du shérif de Virginie qui a extorqué sexuellement et kidnappé une jeune fille de 15 ans.
Instagram et d’autres sociétés de médias sociaux sont de plus en plus critiquées pour ne pas en faire assez pour protéger les jeunes. Mark Zuckerberg, PDG de Meta Platforms, propriétaire d'Instagram, a présenté ses excuses aux parents des victimes de tels abus lors d'une audience au Sénat américain plus tôt cette année.
Meta possède également Facebook et WhatsApp, mais la fonction de flou de nudité ne sera pas ajoutée aux messages envoyés sur ces plateformes.
Instagram reconnait que les escrocs utilisent souvent des messages directs pour demander des "images intimes". Pour contrer cela, il va bientôt commencer à tester une fonction de protection contre la nudité pour les messages directs qui brouille toutes les images contenant de la nudité "et encourage les gens à réfléchir à deux fois avant d'envoyer des images de nues".
"Cette fonctionnalité est conçue non seulement pour empêcher les gens de voir de la nudité non désirée dans leurs DM, mais aussi pour les protéger des escrocs qui peuvent envoyer des images nues pour inciter les gens à envoyer leurs propres images en retour", a déclaré Instagram.
La fonctionnalité sera activée par défaut dans le monde entier pour les adolescents de moins de 18 ans. Les utilisateurs adultes recevront une notification les encourageant à l'activer.
Les images contenant de la nudité seront floues avec un avertissement, donnant aux utilisateurs la possibilité de les visualiser. Ils auront également la possibilité de bloquer l’expéditeur.
Pour les personnes envoyant des messages directs avec de la nudité, elles recevront un message leur rappelant d'être prudents lors de l'envoi de "photos sensibles". Elles seront également informées qu'elles peuvent annuler l'envoi des photos si elles changent d'avis, mais qu'il est possible que d'autres le fassent.
Instagram a déclaré qu'il travaillait sur une technologie pour aider à identifier les comptes susceptibles de se livrer à des fraudes par extorsion sexuelle, "sur la base d'une série de signaux qui pourraient indiquer un comportement de sextorsion".
Pour empêcher les criminels de se connecter avec les jeunes, l’entreprise prend également des mesures, notamment en ne montrant pas le bouton "message" sur le profil d’un adolescent aux comptes potentiels de sextorsion, même s’ils se suivent déjà, et en testant de nouvelles façons de cacher les adolescents à ces comptes.