Skip to main content
«Ça a été le boulot le plus difficile de ma vie» : pour TikTok, la modération jusqu’au dégoût

liberation.fr · 2 min

Leader mondial des centres d'appels, son chiffre d'affaires était de 7,1 milliards d'euros en 2021. Ces dernières années, la société a diversifié ses activités. Elle opère également la modération de certains réseaux sociaux, dont TikTok, qui affirme employer 687 personnes pour analyser et censurer au besoin les contenus francophones publiés sur la plateforme - soit un modérateur pour 30 000 utilisateurs environ.

Leader mondial des centres d'appels, son chiffre d'affaires était de 7,1 milliards d'euros en 2021. Ces dernières années, la société a diversifié ses activités. Elle opère également la modération de certains réseaux sociaux, dont TikTok, qui affirme employer 687 personnes pour analyser et censurer au besoin les contenus francophones publiés sur la plateforme - soit un modérateur pour 30 000 utilisateurs environ.

A leur arrivée, les salariés suivent tous une formation de plusieurs semaines, au cours de laquelle ils apprennent les règles de TikTok, ce qui doit être censuré ou non. Ils apprennent qu'ils vont devoir modérer entre 800 et 1 200 vidéos par jour, parfois très violentes. «Quand il y a des personnes très sensibles au bien-être animal ou à la mort, on le voit. Dès la formation, ça ne se passe pas bien. Il y en a qui ne tiennent même pas la semaine»

Les modérateurs sont ensuite séparés en plusieurs équipes : certains s'occupent des commentaires, d'autres des lives ; et pour le gros des vidéos qui affluent sur la plateforme, plusieurs groupes sont constitués, dont un chargé d'analyser le contenu le plus sensible, dit de «niveau 1». «C'est au petit bonheur la chance», ironise Marc. Lui a fait partie de ce dernier groupe, le plus exposé, pendant un an, jusqu'à fin 2022. «Ça a été le boulot le plus difficile de ma vie. Au début, c'était très compliqué, surtout quand il y avait des vidéos très violentes. Plusieurs fois par jour, on voyait des gens qui se suicidaient, des enfants qui se faisaient frapper jusqu'au sang, des animaux tués... Les trois premiers mois ont été très compliqués. Après, malheureusement ou heureusement, je me suis adapté, je suis devenu insensible. Quand je voyais une personne mourir en vidéo, avant de censurer, je me disais juste : "Bon bah, il est mort", et c'est tout», rapporte-t-il.

«Il y a beaucoup de gens qui en ressortent choqués, c'est sûr que ce travail n'est pas fait pour les personnes sensibles, mais moi je suis rapidement passée en mode robot», appuie Jeanne. Modératrice pendant plusieurs mois en 2022, Nathalie dit, elle aussi, avoir ressenti cette forme de dissociation. «On voit tellement de vidéos que notre cerveau n'y prête plus attention au bout d'un moment, raconte-t-elle. Quand je n'étais pas bien, je devais prendre une pause. Je ne pensais pas voir autant de maltraitance animale, du genre quelqu'un qui tue un chien. Il y avait des suicides filmés, des meurtres...»

La modération est une activité très surveillée. Un chronomètre tourne en permanence devant l'écran des salariés, avec obligation de résultat : ils ont moins de trente secondes pour censurer une vidéo. Les performances sont ensuite vérifiées par une autre équipe qui leur attribue un taux d'efficacité. Selon les groupes, ils doivent dépasser les 80, 90% ou même 95% pour avoir le droit de toucher le maximum d'une prime d'environ 200 euros, portant ainsi leur salaire à 950 euros mensuels pour 40 heures de travail hebdomadaires - sur les bases d'un smic portugais. «Le chronomètre, ça peut mettre un peu la pression. Mais pour ma part, j'avais la chance d'avoir une superviseuse compréhensive. Quand je n'étais pas dans les limites de temps, elle me disait de prendre mon temps», explique Mathilde.

Une équipe de psychologues est aussi mise à disposition selon les besoins des salariés. «On est très sollicités pour faire des pauses, pour qu'on souffle et qu'on lâche prise. On a pas mal d'activités pour la relaxation, des sessions de trente minutes de méditation», poursuit l'ancienne modératrice. Du côté de Teleperformance, un porte-parole précise que «les collaborateurs chargés de la modération de contenus sont tous volontaires, soutenus par un programme d'assistance propre qui offre une aide vingt-quatre heures sur vingt-quatre et sept jours sur sept et accompagnés par des coachs bien-être». «Ils bénéficient également d'un aménagement en termes d'horaires de travail», poursuit-on au sein de la multinationale, qui indique que «plusieurs audits internes détaillés ont été menés au sein du groupe». Chez TikTok, un porte-parole assure aussi que le bien-être des modérateurs est une priorité, confirmant aussi qu'il existe des «outils et des fonctionnalités permettant aux employés de contrôler l'exposition à des contenus graphiques lors de la révision ou de la modération de contenus» et des «formations pour les managers afin de les aider à identifier quand un membre de l'équipe peut avoir besoin d'un soutien supplémentaire».

Malgré cela, certains de ces anciens salariés confient avoir eu du mal à comprendre le sens exact de leur mission. «J'avais l'impression que mon poste ne servait à rien. Parfois on censurait certaines vidéos et on la retrouvait quand même au final sur TikTok», décrit Naila, 26 ans, modératrice pendant quatre mois en 2022. Si elle et ses collègues censurent bien les contenus de la plateforme au sein des locaux de Lisbonne, il revient en bout de chaîne aux équipes de TikTok de décider du sort de chacune des vidéos.

Les salariés de Teleperformance ne sont là, selon leurs témoignages, que pour leur faciliter la tâche. Plusieurs d'entre eux nous ont ainsi décrit leur sentiment d'impuissance, notamment face aux vidéos sexualisées de mineurs. «Je censurais des vidéos de certaines filles qui avaient moins de 13 ans et faisaient des danses sexuelles. Quand j'allais sur leurs comptes ensuite, les vidéos étaient quand même en ligne», pointe Lucile, pour qui il n'est pas étonnant que le réseau social «soit un repaire facile pour tout ce qui est pédocriminalité». «Avec les filtres, certaines gamines de 14-15 ans paraissaient majeures et c'est difficile de savoir ce qu'il en est vraiment», regrette de son côté Anne.

Avec du recul, certains des anciens salariés de Teleperformance assurent ne pas regretter leur expérience au sein de colocations de jeunes étrangers. Certains y ont rencontré des amis, voire des amours. Mais ils concèdent ne plus vivre au quotidien avec la même insouciance. «J'ai vu que les gens étaient super mauvais, ça m'a un peu dégoûté des réseaux sociaux», assure Mathilde. «Je ne me verrais pas faire ça toute ma vie, peut-être qu'on développerait des problèmes», admet Nathalie. La jeune femme explique être «complètement passée à autre chose», mais elle aimerait que certains utilisateurs qui pensent que «ce sont des robots qui modèrent» comprennent que ce sont en réalité des jeunes, comme eux. Lucile, de son côté, se montre plus alarmiste : «Il n'y a pas assez de modérateurs. Il ne faut pas s'étonner que certains aient envie de sauter par la fenêtre à la fin.»