L’intelligence artificielle entre dans une nouvelle ère de répression. Ce que fait Israël aujourd’hui aux Palestinien·nes pourrait être demain la norme partout ailleurs.
Bienvenue dans le cauchemar orwellien version apartheid. Selon une enquête conjointe de The Guardian, +972 Magazine et Local Call, l’armée israélienne a développé une intelligence artificielle inspirée de ChatGPT, mais entièrement dédiée à la surveillance et la répression des Palestinien·nes.
Le principe ? Un programme entraîné sur plus de 100 milliards de mots arabes issus de conversations interceptées, destiné à analyser, prédire et identifier les personnes à arrêter. Plus besoin de preuves tangibles : l’IA répond aux questions des militaires et leur balance directement des listes de "suspects".
De la surveillance de masse au fichage automatisé
Le plus flippant ? Les Palestinien·nes n’ont pas besoin d’être militant·es pour être ciblé·es. Leur simple existence dans une zone donnée suffit à les faire apparaître sur les radars de l’armée. Comme l’explique Nadim Nashif, de l’ONG 7amleh :
"Les Palestinien·nes sont des cobayes dans le laboratoire israélien. Cette IA est une arme de plus pour maintenir un régime d’apartheid et d’occupation."
Quand l’industrie de la tech collabore avec l’armée
Un "hasard" ? Pas vraiment. Google a déjà été épinglé pour son partenariat avec Israël via le projet Nimbus, qui fournit au gouvernement des outils cloud et d’IA. De son côté, Microsoft a permis à l’armée israélienne d’accéder aux modèles d’OpenAI pour booster son propre système.
Une IA pour intensifier la répression
Que va-t-il se passer avec cet outil entre les mains de l’armée israélienne ? La réponse est simple : une répression encore plus massive, plus rapide, plus aveugle. Déjà, en Cisjordanie, les arrestations arbitraires explosent. Des commandants militaires exigent des quotas d’arrestations mensuelles, transformant la traque en un simple objectif statistique.
Comme l’explique une source dans l’enquête : "Parfois, c’est juste un commandant qui veut 100 arrestations par mois dans sa zone."
Plus besoin de preuves, plus besoin d’enquête, une IA se charge du sale boulot. Et pendant ce temps, le monde ferme les yeux.
L’avenir : une généralisation de l’IA répressive ?
Israël n’est pas le seul État à rêver d’une IA pour fliquer les masses. De la reconnaissance faciale en Chine à l’IA prédictive aux États-Unis, les gouvernements capitalistes testent et perfectionnent un futur où chaque individu sera sous contrôle permanent.
Ce qui est testé aujourd’hui en Palestine pourrait bien se généraliser demain à toute contestation sociale. Un monde où les algorithmes dictent qui est suspect, qui doit être arrêté, qui doit être réduit au silence.
Refuser l’apartheid numérique
L’intelligence artificielle entre dans une nouvelle ère de répression. Ce que fait Israël aujourd’hui aux Palestinien·nes pourrait être demain la norme partout ailleurs.
Se battre contre cette technologie de l’oppression, c’est se battre pour la liberté de tous.tes. Refuser que des algorithmes décident de qui vit, qui meurt, qui est digne d’exister. Face à cet avenir dystopique, la seule réponse est la résistance.