Instagram aide les pédophiles à trouver de la pornographie enfantine et à organiser des rencontres avec des enfants

Des chercheurs ont découvert qu’Instagram était devenu un terrain propice à la pornographie enfantine.

L’étude du Wall Street Journal a révélé qu’Instagram permettait aux internautes de rechercher des hashtags tels que “# pedowhore” et “# preeteensex”, ce qui leur permettait d’entrer en contact avec des comptes vendant de la pornographie enfantine.

En outre, nombre de ces comptes prétendaient souvent être eux-mêmes des enfants, avec des pseudos tels que “little slut for you” (petite salope pour vous).

En général, les comptes qui vendent du matériel sexuel illicite ne le publient pas directement. Ils affichent plutôt des “menus” de leur contenu et permettent aux acheteurs de choisir ce qu’ils veulent.

Beaucoup de ces comptes proposent également aux clients de payer pour rencontrer les enfants.

Comment tout cela a-t-il été découvert ?

Les enquêteurs ont créé des comptes tests pour voir à quelle vitesse ils pouvaient faire en sorte que la fonction “suggéré pour vous” d’Instagram leur donne des recommandations sur les comptes qui vendent du contenu pédopornographique.

En peu de temps, l’algorithme d’Instagram a inondé les comptes de contenus sexualisant des enfants, dont certains renvoyaient à des sites d’échange de contenus hors plateforme.

En utilisant uniquement les hashtags, l’Observatoire de l’Internet de Stanford a trouvé 405 vendeurs de ce que les chercheurs ont appelé du matériel pédopornographique “autogénéré”, ou des comptes prétendument gérés par des enfants eux-mêmes, dont certains prétendent qu’ils n’ont pas plus de 12 ans.

Dans de nombreux cas, Instagram permettait aux utilisateurs de rechercher des termes dont l’algorithme savait qu’ils pouvaient être associés à du matériel illégal.

Lorsque les enquêteurs utilisaient certains hashtags pour trouver du matériel illicite, une fenêtre contextuelle apparaissait parfois à l’écran, indiquant que “ces résultats peuvent contenir des images d’abus sexuels sur des enfants” et que la production et la consommation de ce type de matériel causent un “préjudice extrême” aux enfants.

Malgré cela, la fenêtre pop-up offrait à l’utilisateur deux options :

  1. “Obtenir des ressources”
  2. “Voir les résultats de toute façon”

Comment les pédophiles ont évité de se faire prendre ?

Les pédophiles sur Instagram ont utilisé un système d’emoji pour parler en code du contenu illicite qu’ils facilitaient.

Par exemple, un emoji représentant une carte (🗺️) signifiait “MAP” ou “Minor-attracted person”.

Un emoji de pizza au fromage (🍕) serait abrégé pour signifier “CP” ou “Child Porn” (pornographie enfantine).

Les comptes s’identifiaient souvent comme “vendeur” ou “s3ller” et indiquaient l’âge des enfants qu’ils exploitaient en utilisant des termes tels que “sur le chapitre 14” au lieu d’indiquer leur âge de manière plus explicite.

La “répression” d’instagram

Même après que plusieurs messages aient été signalés, ils n’étaient pas tous supprimés. Par exemple, après la publication d’une image d’une jeune fille légèrement vêtue accompagnée d’une légende à caractère sexuel, Instagram a réagi en déclarant : “Notre équipe d’évaluation a estimé que la publication [du compte] n’allait pas à l’encontre de nos lignes directrices communautaires.”

Instagram a recommandé à l’utilisateur de masquer le compte pour éviter de le voir.

Même après l’interdiction par Instagram de certains hashtags associés à la pédopornographie, les suggestions de hashtags pilotées par l’IA d’Instagram ont trouvé des solutions de contournement.

L’IA recommandait à l’utilisateur d’essayer différentes variantes de ses recherches et d’ajouter des mots tels que “garçons” ou “CP” à la fin.

L’équipe de Stanford a également effectué un test similaire sur Twitter.

Instagram versus Twitter

S’ils ont tout de même trouvé 128 comptes proposant de vendre des abus sexuels sur des enfants (moins d’un tiers des comptes trouvés sur Instagram), ils ont également noté que l’algorithme de Twitter ne recommandait pas de tels comptes dans la même mesure qu’Instagram, et que ces comptes étaient supprimés bien plus rapidement que sur Instagram.

@elonmusk a tweeté l’article du Wall Street Journal il y a deux minutes en le qualifiant d'”extrêmement préoccupant”

Les algorithmes et l’IA devenant plus intelligents, des cas comme celui-ci deviennent malheureusement plus fréquents.

En 2022, le National Center for Missing & Exploited Children 🔗 aux États-Unis a reçu 31,9 millions de signalements de pédopornographie, principalement de la part de sociétés Internet, ce qui représente une augmentation de 47 % par rapport à l’année précédente.

Comment les entreprises de réseaux sociaux, en particulier Meta, peuvent-elles mieux réguler l’I.A. afin d’éviter des cas dégoûtants comme celui-ci ?