Skip to main content
Il est temps de se confronter au pouvoir technologique

hubertguillaud.wordpress.com · 11 min

Dans tous ces domaines où l’IA est déployée, les mêmes problèmes apparaissent : “la technologie ne fonctionne pas comme prévu et produit des taux d’erreur élevés ou des résultats injustes et discriminatoires”. Et les problèmes visibles ne sont que la partie émergée du problème. Le problème est que nous n’avons semble-t-il pas notre mot à dire sur cette techno et son déploiement, quel que soit son impact sur nos vies.

Le rapport détaille 4 orientations stratégiques pour remettre de la responsabilité dans le déploiement des Big Tech de l’IA :

  1. “Faire peser sur les entreprises la charge de démontrer qu’elles ne causent pas de dommages, plutôt que ce ne soit sur le public ou les régulateurs, chargés d’enquêter en permanence, d’identifier et de trouver des solutions aux dommages après qu’ils se soient produits”… à l’image de ce que nous demandons déjà dans le domaine de l’alimentation ou du médicament.

Ainsi par exemple, pour résister aux appels à l’interdiction de la reconnaissance faciale, l’industrie s’est mis à soutenir une réglementation douce afin d’affaiblir toute réforme plus audacieuse.

Nous avons besoin d’interdictions sans équivoque, de normes de responsabilités claires, de mesures de transparence et pas seulement d’audit et de déclarations d’impact, qui restent la principale approche politique à l’égard de l’IA, regrette l’Institut.

Pour y parvenir l’organisation propose de 7 pistes d’action :

1° Réduire l’avantage des entreprises technologiques en matière de données, c’est-à-dire travailler à réduire partout la collecte de données en œuvrant à la minimisation des données. Relier le droit à la vie privée au droit à la concurrence. Réformer la régulation des fusions et acquisitions pour que les avantages liées aux données fassent l’objet d’un examen minutieux et spécifique.

3° Réglementer les grands modèles de langages, comme ChatGPT ou Bard. Par exemple, utiliser les lois sur la concurrence pour limiter les dépendances structurelles dans le domaine de l’IA générative. Rendre obligatoire les exigences en matière de documentation. Créer une responsabilité publique dans le déploiement des systèmes d’IA générative afin de prévenir les préjudices causés aux consommateurs et à la concurrence. Enfin, analyser de manière critique les revendications d’ouverture : “l’IA générative est structurellement dépendante de ressources qui ne sont accessibles qu’à un petit nombre d’entreprises”.

4° Se défaire de la politique de l’audit. L’audit et l’accès aux données ne peuvent pas être la réponse politique aux problèmes de l’IA, notamment parce que ces solutions ne répondent pas au déséquilibre de pouvoir entre les entreprises et le public et risquent de renforcer le pouvoir de l’industrie. En lieu et place, il est nécessaire d’imposer des restrictions fortes à l’IA nuisible par des interdictions, des moratoires et des règles qui imposent aux entreprises de démontrer qu’elles sont aptes à diffuser leurs solutions publiquement ou commercialement.