Effectivement, les forces militaires américaines ont admis avoir recouru à des systèmes d’IA pour établir et trier la liste des objectifs à une vitesse fulgurante. Ce procédé aurait entraîné plus de 1 000 frappes, qualifiées de très précises, (…)
Cependant, lors du premier jour de guerre, l’une des frappes américaines a visé une école de Minab, causant la mort d’environ 170 victimes civiles, principalement des enfants. Les États-Unis ont reconnu leur responsabilité dans cette frappe, présentée comme une erreur. L’école était en effet située à proximité d’une base navale des Gardiens de la révolution. Elle faisait autrefois partie intégrante du même complexe, avant d’en être séparée. C’est donc une information non actualisée qui aurait conduit à autoriser la frappe.
Les règles générales du DCA s’appliquent à la conduite des hostilités, quels que soient les moyens et méthodes déployés.
L’une de ces règles est le principe de distinction selon lequel seules les cibles militaires peuvent faire l’objet d’attaques, les personnes civiles et les biens civils devant être préservés. Viser directement une école, comme celle de Minab, en l’absence de tout objectif militaire en son sein, constitue donc une violation manifeste de ce principe. Il est toutefois peu probable que l’armée américaine ait eu l’intention délibérée de détruire l’école en tant que telle. Comme indiqué, il s’agit plus vraisemblablement d’une erreur d’identification de la cible, possiblement liée à un système d’IA entraîné sur des données obsolètes, datant de l’époque où le bâtiment était encore rattaché à la base navale.
En conséquence, la violation est plutôt relative au principe de précaution. Ce dernier prescrit notamment que les parties au conflit doivent faire tout ce qui est pratiquement possible pour vérifier que les objectifs à attaquer sont bien des objectifs militaires. En l’espèce, l’armée américaine ne semble pas avoir procédé aux vérifications nécessaires pour s’assurer que la cible était une école. Une vérification élémentaire, comme celle effectuée par certains médias, aurait pu rapidement dissiper le moindre doute.
Si l’attaque constitue une violation du DCA, il est probable qu’aucun militaire américain ne soit condamné pour de tels faits. Outre les questions de compétence juridictionnelle, le principal obstacle tient à ce que ni la violation du principe de précaution ni les erreurs conduisant à des violations du DCA ne constituent des crimes de guerre au sens du droit international pénal.
L’acte matériel est bien caractérisé, mais l’élément intentionnel, c’est-à-dire la volonté de commettre l’infraction, fait défaut.
Un autre point de vigilance tient au rôle des entreprises privées spécialisées en IA qui détiennent aujourd’hui la majeure partie des compétences technologiques mobilisées sur le champ de bataille. Ces entreprises pourraient être tenues responsables lorsqu’elles développent des systèmes défaillants, mais, au-delà de cette responsabilité, une question morale et politique fondamentale se pose au regard de la vente de technologies d’IA à des fins militaires.
Cette responsabilité sera, certes, difficile à mettre en œuvre dans la pratique. Mais au-delà, il émerge une responsabilité tant juridique que politique. Aux termes de l’article 1 commun aux conventions de Genève, les États ont en effet l’obligation de respecter et de faire respecter le DCA. Or, le développement de l’IA militaire tend à miner ce respect, voire à favoriser et à dissimuler les violations du droit.
L’IA apparaît ainsi comme à la fois l’un des moteurs et le révélateur d’une érosion profonde du DCA.
Jacques Lacan disait : « Le réel, c’est quand on se cogne. » L’accident de Minab constitue un évènement dramatique qui confirme les risques sur lesquels les experts en IA militaire alertent depuis plusieurs années et qui aurait dû susciter bien davantage de réactions.