Skip to main content

dacgi.r.sp1-brevo.net · 42 min


Notepad

le projet de recherche Origami qui estime que les services à la personne et le travail domestique proposés par les plateformes représentent environ 22 % de l’ensemble du travail sur les plateformes.

« Pour les agents de nettoyage utilisant des applications, un aspect du travail est entièrement automatisé : l’estimation du temps nécessaire pour une intervention. La plupart des services en ligne fixent ce temps en fonction de la superficie des locaux (une information saisie par le client). Ce calcul très approximatif – sans parler de la tentation pour les clients de mentir et de sous-estimer la durée – est souvent source de conflits. Une fois sur place, les agents doivent expliquer qu’ils ne peuvent pas terminer la prestation ou qu’ils doivent rester plus longtemps et être rémunérés en conséquence. Or, en pratique, les agents de nettoyage ont très peu de marge de manœuvre sur ces espaces en ligne. Une mauvaise note des clients pouvant les empêcher de trouver d’autres missions, et la charge de la preuve leur incombant en cas de litige, beaucoup considèrent que travailler gratuitement est la solution la moins mauvaise. Au Danemark, une femme de ménage a expliqué qu’elle vérifiait la superficie du logement sur le cadastre avant d’accepter une mission, afin de s’assurer que les informations fournies par le client correspondaient à la réalité ».

« Les femmes de ménage, majoritairement immigrées, sont également victimes de harcèlement sexuel. À cet égard, les applications fonctionnant grâce à des algorithmes ne changent pas grand-chose. Ces applications présentent souvent les femmes de ménage avec de grandes photos, les incitant à paraître plus attirantes et les clients à les objectifier ». Ce qui n’est pas vraiment une solution pour s’attaquer au problème !

« Dans tous les contextes, la numérisation est apparue à la fois comme un une source de nouvelle précarité » tout en échappant au contrôle réglementaire. Les problèmes existants dans le secteur des soins à domicile – tels que la précarité du temps de travail, l’instabilité des revenus et la fatigue physique et psychosociale – sont souvent amplifiés par les plateformes numériques. La planification algorithmique des horaires entraîne des horaires imprévisibles, très courts ou très longs et du temps d’attente non rémunéré. Des dynamiques qui contribuent à l’instabilité des revenus et à la pauvreté au travail, dans un secteur où les travailleurs sont déjà systématiquement sous-payés.

Enfin, la directive sur le travail des plateformes exige des plateformes qu’elles prennent des mesures préventives et établissent des mécanismes de signalement pour protéger la sécurité et la santé des travailleurs, notamment contre la violence et le harcèlement. Ces dispositions sont particulièrement importantes pour les aides à domicile et les travailleurs domestiques, qui travaillent souvent seuls dans des foyers privés. La directive oblige également les plateformes à évaluer et à atténuer ces risques, y compris les risques psychosociaux.

Une autre option devrait enfin être encouragée, expliquent les chercheurs : le développement de coopératives de plateformes. Alors que la directive sur le travail sur plateforme est une intervention réglementaire descendante, des initiatives émergentes telles que les coopératives de plateformes démontrent comment la numérisation peut s’aligner sur la justice sociale et le travail décent. Les coopératives de plateformes, basées sur le modèle coopératif, sont apparues partout comme une réponse efficace aux défis posés par l’économie des plateformes. Bien qu’encore en développement, leur potentiel pour transformer le travail de soins organisé par les plateformes numériques est immense. Les coopératives restent la forme d’organisation où, plutôt que d’utiliser des algorithmes pour contrôler ou surveiller les travailleurs, ceux-ci sont déployés pour les autonomiser. Mais surtout, les travailleurs possèdent et contrôlent les données générées par la plateforme, garantissant ainsi qu’elles servent leurs intérêts, et non ceux d’éventuels actionnaires externes. Reste qu’il y a une concurrence très inégale entre les plateformes et les coopératives que le législateur devrait adresser. Les plateformes coopératives, qui privilégient les pratiques éthiques, des normes de travail et sociales plus élevées, peinent à être compétitives. L’absence de législation spécifique aggrave ce problème, permettant aux plateformes capitalistes d’opérer en toute impunité et de saper les efforts des acteurs de bonne foi, tels que les coopératives de plateformes.

L’exercice du « contrôle et de la direction » par les plateformes de travail domestique est généralement plus ténu que dans d’autres secteurs, tant et si bien que certains parlent de « gestion algorithmique mineure ». Par exemple, cela se manifeste dans le domaine du temps de travail, où l’horaire précis est fixé par le client et le travailleur, mais la plateforme peut sanctionner les travailleurs en cas de non-respect de cet horaire ou de modification à préavis trop court. Mais la directive sur le travail des plateformes ne contient aucune disposition relative au temps de travail ou au cadencement… Alors que c’est bien ce que les plateformes organisent.

Pour le San Francisco Chronicle, le spécialiste de la sécurité Bruce Schneier et l’avocat de l’association Public Citizen J.B. Branch comparent le comportement de la justice américaine à l’égard d’Aaron Swartz et des entreprises d’IA aujourd’hui. Alors que la course à l’armement actuelle en matière d’IA implique une appropriation de l’information bien plus vaste que celle que dénonçait Swartz par son action il y a 16 ans, la violation du droit d’auteur est présentée désormais comme une étape regrettable mais nécessaire pour l’innovation.

Pendant des années, il a été payé pour entretenir des conversations à caractère romantique et sexuel avec des personnes du monde entier. Michael touchait 0,05 $ par message et devait taper au moins 40 mots par minute, tout en gérant plusieurs conversations simultanément. Michael explique que son travail de « modérateur de tchat » nécessitait d’adopter plusieurs identités fictives depuis des profils créés par l’entreprise pour engager des conversations intimes et explicites avec des hommes et des femmes seuls. « L’entreprise exigeait que nous posions des questions personnelles, que nous nous souvenions de détails sur la vie des utilisateurs et que nous répondions de manière à ce qu’ils se sentent écoutés et importants. Je passais des heures à rédiger des messages destinés à faire en sorte que des inconnus se sentent spéciaux, désirés, voire aimés ». Mais ce que raconte Michael, c’est le conflit de valeur entre ce poste et lui-même, contraint par ce travail à tenir des propos spécifiques. L’accord de confidentialité qui semblait une simple protection de la vie privée des conversations qu’il avait à gérer est devenu un instrument pour silencier la réalité de son travail : c’est-à-dire dire à des inconnus qu’il les aimait.« L’accord de confidentialité ne protégeait pas seulement le modèle économique de l’entreprise ; il nous isolait, nous empêchant de demander de l’aide ou même d’expliquer à nos familles ce que nous faisions réellement pour gagner de l’argent ». « Comment expliquer qu’on est payé pour dire à des inconnus qu’on les aime, alors que sa vraie famille dort à trois mètres de là ? »

Il ne s’agissait pas d’un simple travail de tchat, mais d’un système de production étroitement surveillé. Chaque interaction était suivie grâce à des indicateurs clés de performance (KPI), notamment le volume de messages, le temps de réponse, l’engagement des utilisateurs et la continuité. Atteindre ces objectifs était obligatoire. Nous devions maintenir de longues conversations personnalisées avec plusieurs utilisateurs et sur plusieurs équipes, sans sortir de notre rôle, explique Michael. Notre précision, notre créativité et notre vitesse de frappe étaient constamment mesurées. Le non-respect des indicateurs de performance pouvait entraîner des avertissements, une réduction des missions, voire un licenciement. Ce qui semblait être un simple rôle de conversation était en réalité un système de haute pression exigeant une performance continue. « J’entraînais mon propre remplaçant. J’apprenais aux machines à manipuler les personnes seules de la même manière que j’étais forcée de le faire.»

selon une grande enquête britannique la « latitude décisionnelle » des salariés est en chute libre depuis les années 90. « En 1992, 62 % des travailleurs interrogés déclaraient disposer d’une grande latitude décisionnelle. En 2024, ils n’étaient plus que 34 % à l’affirmer. Avant 2017, ce déclin était surtout visible chez les personnes occupant des emplois peu rémunérés. Mais entre 2017 et 2024, la latitude décisionnelle a également diminué chez les cadres et les travailleurs hautement qualifiés. » Pour le chercheur Alan Felstead, le facteur le plus probable de cette chute est « l’utilisation accrue des technologies numériques » au travail. Les logiciels ont rendu le travail plus structuré et prescriptif, tout en améliorant la standardisation et la productivité.