Skip to main content
Voici ce que les algorithmes montrent vraiment aux adolescents de 13 ans

mediapart.fr · 4 min


Notepad

L’objectif de l’exercice est simple : observer ce que les algorithmes recommandent à un·e mineur·e au seuil de l’âge légal, sans interaction humaine susceptible d’orienter les contenus proposés. Il porte exclusivement sur les fils de vidéos courtes à défilement continu, c’est-à-dire le fil « Pour toi » sur TikTok, « Spotlight » sur Snapchat et les « Reels » sur Instagram et Facebook.

Sur chacun des comptes, nous nous sommes limités à une seule heure de navigation. Toutes les vidéos ont été visionnées intégralement. Aucun « like » n’a été mis, ni aucun commentaire publié. Les lives, lorsqu’ils sont apparus dans un fil, ont été ignorés afin de ne pas interférer avec les mécanismes de recommandation.

Sur le compte TikTok, les premières minutes ne présentent rien d’alarmant. Des conseils pour « percer » sur la plateforme, des tutoriels pour personnaliser un téléphone ou changer un fond d’écran, des vidéos de pâtisserie et de recettes « faciles ». Puis, sans transition visible, le fil bascule vers des contenus d’une tout autre nature.

Une voix off se met à résumer une scène d’un film érotique des années 1980, Leçons très particulières, mettant en scène un adolescent et une femme observée à son insu. « Comment un ado de 15 ans pourrait se contrôler face à ça ? », lance le narrateur. Quelques vidéos plus tard, un extrait de l’émission « Touche pas à mon poste » apparaît sur le compte de la jeune fille fictive de 13 ans. Cyril Hanouna interroge le rappeur Gradur : « Si vous étiez une femme […]. Vous rêvez de quoi en tant que femme ? — Me doigter », répond l’invité.

Sur le compte de Sarah, la rupture est encore plus marquée. Le fil commence par une longue vidéo vantant une boisson prétendument « miracle » contre les douleurs articulaires, avant de laisser place à une chanson paillarde sur le motif de la sodomie.

Suivent plusieurs vidéos générées par intelligence artificielle mettant en scène Brigitte Macron chantant ou dansant sur des morceaux du chanteur Gims. Le fil alterne entre une animation du chat à l’arc-en-ciel Nyan Cat et une vidéo animée simulant une tentative de viol, dans laquelle un personnage maintient une victime par les bras, avant que la séquence ne s’interrompe brusquement.

Chez Alexandre, le registre varie moins brutalement mais reste tout aussi problématique. Certaines vidéos reposent sur des stéréotypes misogynes, notamment envers les femmes, reléguées au rôle de ménagères.

Onglet « Spotlight », sur Snapchat, les premières vidéos proposées sur le compte d’Assa relèvent d’un registre banal : une adolescente qui danse seule dans sa salle de bains, des clips humoristiques reposant sur des oppositions « pauvres vs. riches », des comparaisons caricaturales entre pays, ou encore une séquence d’un homme tentant à répétition de faire chuter sa compagne, sur fond de rires d’enfant. En moins de dix minutes, Snapchat recommande une ancienne vidéo de l’influenceur Nasdas, republiée par des comptes fans, faisant entrer une chèvre dans la maison qu’il occupe avec sa « team ».

Sur le compte de Sarah, le contenu du fil paraît approprié : montages de football, extraits de films d’action, scènes filmées dans un collège ou animations destinées aux enfants.

Sur celui d’Alexandre, ces mêmes contenus apparaissent en partie, mais ils côtoient aussi des recommandations nettement plus problématiques. On y voit notamment une très jeune fille danser sur des paroles à caractère sexuel, ainsi qu’une vidéo titrée « Pour combien tu la frappes ? », mettant en scène une enfant très jeune face caméra.

Les réactions observées sont souvent les mêmes : « D’abord, il y a la sidération. L’enfant ne sait pas quoi faire de ce qu’il a vu. » Viennent ensuite le silence et l’isolement. « Il va garder l’image en tête, la ruminer, parfois la revoir mentalement en classe ou la nuit. » Des troubles du sommeil, des cauchemars, un repli sur soi sont fréquemment signalés. « L’enfant essaie de comprendre ce qu’il a vu, mais il n’a ni les mots ni les outils pour y parvenir seul. »

L’ONG a mené une enquête fondée sur des simulations de comptes [TikTok] de mineur·es âgé·es de 13 ans, en laissant défiler automatiquement le fil « Pour toi » sans likes ni commentaires, se contentant de regarder à deux reprises des vidéos liées à la santé mentale afin d’observer la manière dont l’algorithme ajustait progressivement ses recommandations.

(…) Selon le rapport, des comptes déclarés comme appartenant à des adolescent·es voient, en moins de vingt minutes, leur fil saturé de contenus liés à la détresse psychologique. Au bout de quarante-cinq minutes apparaissent déjà des messages évoquant explicitement le suicide, jusqu’à des vidéos pouvant encourager le passage à l’acte trois heures plus tard.