La révolution de l’IA de Tsahal : une question de technologie ou d’éthique ?
Bloomberg a publié un reportage sur les systèmes d’IA utilisés par Tsahal.
Il s’agit de la plate-forme d’intelligence artificielle “Fire Factory” de Tsahal utilisée conjointement avec une autre plate-forme d’IA pour multiplier considérablement le nombre de cibles que Tsahal peut étudier et frapper simultanément.
Le commandant de l’actuelle Fire Factory est le colonel “S” de Tsahal.
La machine supervisée par l’homme
La banque cible et la plate-forme d’IA ont modifié l’équilibre de toute bataille que Tsahal pourrait mener avec le Hezbollah ou le Hamas : Tsahal peut doubler le nombre de cibles dans la banque cible au cours du conflit.
Le reportage Bloomberg qui a interviewé le colonel « Uri » de Tsahal de la Division des technologies de l’information met l’accent sur l’exploration plus détaillée de l’éthique.
Un algorithme qui sème l’homme en route dans ses combinaisons complexes
Le rapport de Bloomberg a déclaré : “Les partisans soutiennent que les algorithmes avancés peuvent dépasser les capacités humaines et pourraient aider l’armée à minimiser les pertes, tandis que les critiques mettent en garde contre les conséquences potentiellement mortelles du fait de s’appuyer sur des systèmes de plus en plus autonomes”.
Selon les hauts responsables deTsahal et d’autres dirigeants gouvernementaux concernés sur les questions d’éthique : « les humains prennent toujours les décisions et l’impact éthique écrasant de la banque cible et de la plate-forme d’IA est d’être plus précis et de réduire les erreurs afin de nuire à moins de civils.
Si le système commet une erreur, qui peut alors être interrogé ou poursuivi ?
La vérité est qu’il n’y a pas de réponse à cette question.
Les procureurs pourraient poursuivre S en tant que commandant responsable de la banque cible, mais son expérience était davantage celle d’un responsable du renseignement et il serait difficile de le tenir responsable des défaillances technologiques au-delà de son expertise.
S’il n’y a aucun moyen de poursuivre qui que ce soit, ni celui qui tire sur la gâchette, ni son commandant, ni l’architecte technologique, n’est-ce pas une construction pratique d’une équation qui rend la responsabilité impossible ?
Une fois de plus, Tsahal et d’autres responsables gouvernementaux déclarent que les erreurs ont radicalement diminué grâce à la précision de l’IA.
Au début de ce mois-ci, plus de 20 frappes aériennes de drones ont été menées à Jénine, tuant seulement 12 Palestiniens, qui étaient tous des combattants, et pas un seul civil.
Les conflits d’août 2022 et de mai 2023 avec Gaza ont également fait un nombre infime de civils tués par rapport aux conflits précédents, et dans la plupart des cas où des civils ont été tués, les services de renseignement et les juristes de Tsahal connaissaient les risques et les ont approuvés sur la base de l’avantage militaire surmontant le fait de nuire à un nombre limité de civils (tels que les membres de la famille des principaux terroristes).
Ce n’étaient pas des erreurs d’IA.
Pourtant, à un moment donné, il y aura probablement une erreur dirigée par l’IA qui tuera des civils, même si des scénarios improbables de type film cauchemardesque “Terminator” de l’IA devenant anti-humain ne se produisent jamais.
Si Tsahal veut éviter une flambée des accusations de crimes de guerre, elle devrait déjà commencer à élaborer un format pour tenir quelqu’un responsable dans un tel cas, les pays partageant les mêmes idées aux États-Unis et dans l’UE étant disposés à reconnaître le processus.
Un commentaire