Skip to main content

dacgi.r.a.d.sendibm1.com Â· 31 min

Les chercheurs terminent en observant trois exemples de participation emblématiques. La première, ce sont les programmes de contrôle communautaire de la surveillance policière (Ccops), initiés en 2017 par la ville de Seattle et rejoints depuis par plusieurs villes américaines. Selon ces programmes et les municipalités qui l'adoptent, les conseils municipaux valident les outils de surveillance que la police acquiert, que ce soit des outils de police prédictive, de reconnaissance faciale ou de lecture de plaques d'immatriculation. Pour chaque service envisagé, l'administration concernée doit produire un rapport d'impact de la surveillance qui doit décrire la technologie, ses impacts sur les droits civils, et faire retour des commentaires des présentations publiques, notamment ceux réalisés auprès des groupes défavorisés. Chaque rapport est évalué et, si le déploiement technique est autorisé, il reste soumis à une évaluation annuelle qui regarde ses effets sur l'équité et ses réponses aux plaintes et préoccupations du public. Ce fonctionnement a certes conduit à une plus grande transparence sur l'utilisation des technologies de surveillance par la police et notamment à interdire l'usage de la reconnaissance faciale dans quelques villes. Mais cette organisation a cependant des limites. Le conseil municipal par exemple n'a pas à se conformer à l'avis du public (qui est consultatif), les réponses des services sont parfois opaques voire trompeuses et mobiliser les communautés s'est révélé souvent difficile d'autant que l'engagement demandé pour le public est long et complexe. Enfin, pour beaucoup, ces consultations publiques semblent bien plus légitimer les technologies de surveillance que les stopper. Reste que ces dispositifs ont l'avantage de représenter les communautés touchées et d'être continus. Pourtant, ils ne permettent pas aux populations d'interagir directement avec les développeurs, puisque le conseil municipal et les administrations restent les intermédiaires du processus. "Rien ne prouve encore que cette loi ait modifié la conception même des technologies en question", soulignent pertinemment les chercheurs.

Autre exemple, celui des méthodes participatives organisées par l'Observatoire des algorithmes des travailleurs (Workers algorithm Observatory, WAO) lancé par Dan Calacci, Samantha Dalal et Danny Spitzberg. Ici, l'enjeu a été d'intégrer des travailleurs de plateformes aux enjeux que posent les systèmes algorithmiques, sur la répartition du travail ou la rémunération avec des systèmes doublement opaques. Opaques parce que complexes à comprendre et opaques parce que fermés. Le projet WAO s’inspire directement de l’histoire de l’enquête ouvrière qui avait pour objectif de produire des connaissances et de créer de la solidarité pour intensifier l'organisation des travailleurs. WAO a conçu un outil de partage de données pour que les travailleurs des plateformes puissent les partager avec les chercheurs ainsi que des entretiens pour comprendre les enjeux qui leur importaient. WAO est un exemple de "participation infrastructurelle", qui permet non de co-concevoir le système, mais de mieux définir ses impacts par ceux qui les subissent directement. Là encore pourtant, il n'existe pas de mécanismes pour faire interagir les personnes impactées et les développeurs, autrement qu'en aidant les chauffeurs à faire valoir des revendications plus précises auprès des entreprises qui les utilisent.

Le dernier cas pris en exemple par les chercheurs est celui de l'Institut invisible, un organisme de journalisme d'investigation communautaire de Chicago qui, dans le cadre d'un procès, a étudié les 27 000 plaintes à l'encontre du service de police de Chicago entre 2011 et 2015. Le projet Beneath the Surface par exemple a recruté et formé des bénévoles pour recueillir les expériences de violence policière de la communauté. Les participants ont déterminé les paramètres du recueil de données, leur étiquetage, les représentations qui ont été faites comme les outils utilisés, permettant à tous de réaffirmer leur pouvoir sur les documents enregistrés par la police. Ici, les participants ont codé eux-même les dossiers de police en valorisant les préjudices subis par la communauté, et surtout le projet redonne du pouvoir à ceux qui ont subi les violences, mais là encore, sans lien avec ceux qui les ont produites.

L’argument moral en faveur de l’IA participative est que ceux qui sont les plus proches des conséquences de la technologie possèdent une connaissance unique et faisant autorité sur le fonctionnement des systèmes sociotechniques, et devraient disposer d’un pouvoir substantiel pour déterminer la manière dont ces systèmes sont conçus et fonctionnent",

Autant d'exemples qui montrent que la participation ne se résout pas sans poser la question du pouvoir et donc du contre-pouvoir. Pour l'instant, on assiste surtout à une participation en chien de faïence, entre des modalités qui ne discutent pas, car rien n'est fait pour organiser le débat entre elles. Les industriels choisissent leurs participants dans une participation de réseau aux enjeux limités. Les contestataires comme les assemblées de citoyens déploient leurs revendications dans des participations d'opposition qui n'ont pas de voie de retour vers les ingénieurs et décideurs des systèmes techniques. A nouveau, les dispositifs censés organiser une participation n'en organisent pas.

C'est certainement là que le régulateur à un rôle à jouer. C'est à lui "d'organiser la confrontation des intérêts divergents", disaient Manon Loisel et Nicolas Rio dans leur excellent livre, Pour en finir avec la démocratie participative. Et c'est ce que ces dispositifs ne parviennent pas à faire, notamment parce que nulle autorité n'en assure les règles. En laissant l'industrie définir la participation et ses modalités, comme c'est le cas dans les recommandations que font les autorités en les invitant à faire participer les publics, on n'aide pas l'industrie à avancer. On n'aide pas à faire se rencontrer les développeurs et leurs publics. La participation ne devrait pas être mobilisée pour canaliser les mécontentements, comme elle est trop souvent employée, mais bien pour confronter les opinions et organiser les compromis comme les refus. C'est à cela que le régulateur devrait travailler.

"Un grand centre de congrès, comme Facebook, n'est pas un endroit idéal pour tenir une réunion des alcooliques anonymes". Ethan Zuckerman défend le pluriverse, c'est-à-dire un internet pluriel, dans un manifeste pour un internet plus petit et plus dense.

"Si au lieu de 10 liens, vous obtenez une réponse d'un chatbot qui reproduit (même de manière fiable) ces informations, vous perdez néanmoins la capacité de situer l'information dans son contexte…, vous perdez l'opportunité de développer votre propre compréhension du paysage qui façonne l'écosystème de l'information". "L'information est relationnelle". Emily Bender.