« La nationalité comptait comme un facteur de risque pour l’algorithme aveuglement suivi par les agent·es du fisc. Mais son fonctionnement en « boîte noire » et sa dimension « auto-apprenante », qui permettait à l’algorithme d’identifier lui-même des critères associés au risque de fraude, ont masqué la discrimination »
Rappelons tout de même que ce n'est pas l'algo qui est raciste ou la machine qui est xénophobe, mais les personnes qui les ont programmés.