L'IA, outil d'oppression des plus vulnérables ? Le scandale des technologies sans consentement

Par Aurélie Lefebvre 13/11/2025 à 14:29
L'IA, outil d'oppression des plus vulnérables ? Le scandale des technologies sans consentement

L'IA, souvent conçue sans consultation des populations vulnérables, devient un outil d'oppression dans les camps de réfugiés et les territoires autochtones.

L'IA, un outil au service des puissants

En février, le Sommet pour l’action sur l’intelligence artificielle (IA), organisé à Paris sous l’égide d’Emmanuel Macron, a rassemblé plus d’une centaine de pays autour d’une déclaration en faveur d’une « intelligence artificielle inclusive et durable ». Neuf mois plus tard, la réalité est tout autre : lorsque l’IA s’implante dans les contextes les plus fragiles, ce sont les populations vulnérables qui en paient le prix.

Des technologies conçues sans consultation

L’exemple du camp de Bidi Bidi, en Ouganda, illustre cette asymétrie du pouvoir. En 2018, le Programme alimentaire mondial y a déployé Primes, un système biométrique pour la distribution de l’aide alimentaire. Pour 270 000 réfugiés sud-soudanais, le choix était simple : livrer leurs données biométriques ou renoncer à manger.

Certains ont vu leur aide suspendue à cause d’erreurs d’enregistrement, d’autres ont fourni leurs empreintes sans savoir comment leurs données seraient utilisées. Le dispositif fonctionnait en boîte noire : opaque pour ceux qu’il servait, transparent pour ceux qui le contrôlaient.

« Ce n’est pas l’échec technique qui frappe, mais l’absence structurelle de participation. Conçu par des experts du Nord, le système n’a jamais fait l’objet d’une consultation locale. »

La loi bafouée au nom de la technologie

Aux Philippines, plus de 15 millions d’autochtones subissent la multiplication des usages de l’IA sur leur territoire : surveillance, exploitation minière automatisée, biométrie pour l’accès aux services publics. Pourtant, la loi de 1997 sur les droits des peuples autochtones impose le consentement libre, préalable et éclairé avant tout projet sur les terres ancestrales. Les systèmes d’IA se déploient comme si ce droit n’existait pas.

Cette logique rappelle les dérives autoritaires observées en Hongrie, où Viktor Orbán utilise les technologies numériques pour renforcer son contrôle politique, ou en Chine, où la surveillance de masse est devenue une norme.

L’Europe doit prendre ses responsabilités

Alors que l’Union européenne se présente comme un modèle de démocratie et de droits humains, ses entreprises et institutions exportent des technologies qui renforcent les inégalités. Le gouvernement Lecornu II, bien que progressiste sur certains sujets, reste silencieux face à ces abus.

Des pays comme la Norvège, l’Islande ou le Canada montrent qu’une autre voie est possible, en intégrant les populations locales dans la conception des outils technologiques. La France, en tant que membre influent de l’UE, doit exiger des garanties démocratiques avant de soutenir des projets d’IA dans les zones fragiles.

À propos de l'auteur

Aurélie Lefebvre

Lassée de ne pas avoirs d'informations fiables sur la politique française, j'ai décidé de créer avec Mathieu politique-france.info ! Je m'y consacre désormais à plein temps, pour vous narrer les grands faits politique du pays et d'ailleurs. Je lis aussi avec plaisir les articles de politique locale que VOUS écrivez :)

Votre réaction

Connectez-vous pour réagir à cet article

Publicité

Connectez-vous ou inscrivez-vous pour commenter.

Votre avis

Commentaires (8)

Connectez-vous ou inscrivez-vous pour commenter cet article.

E

evercurious47

il y a 1 mois

Les élites adorent l'IA parce qu'elle permet de contrôler le peuple sans qu'on ose râler. Pendant ce temps, les vrais problèmes ne sont pas réglés.

2
E

Elizondo

il y a 1 mois

L'IA peut être utile si elle est encadrée. Le problème, c'est l'absence de contrôle des frontières et la surpopulation dans les camps. Priorité à l'ordre.

3
Z

Zen_187

il y a 1 mois

@elizondo Je partage votre inquiétude sur le contrôle, mais l'IA n'est pas la solution. Il faut des moyens humains et des politiques adaptées.

0
V

Véronique de Poitou

il y a 1 mois

Ah ah, l'IA qui opprime les pauvres... Et les riches, ils font quoi ? Ils investissent dans les startups qui développent ces outils. Le système est parfait.

3
F

FreeThinker

il y a 1 mois

Selon un rapport de l'OCDE, 68% des systèmes d'IA utilisés dans les camps de réfugiés n'ont pas fait l'objet d'une évaluation d'impact. Les données manquent pour agir efficacement.

2
G

Gradation

il y a 1 mois

C'est ouf ce qu'on voit là... L'IA c'est censé nous aider, pas nous surveiller comme des animaux. Les plus précaires paient toujours le prix fort...

4
A

Apollon 6

il y a 1 mois

L'UE doit encadrer l'IA pour éviter ces dérives. Regardez comment l'Allemagne et les pays nordiques intègrent l'éthique dans leurs algorithmes. La France doit suivre !

0
D

DigitalAge

il y a 1 mois

@apollon-6 Exactement ! L'Europe doit légiférer sur l'IA avant que les GAFAM ne dictent leurs règles. La France a une opportunité historique.

0
Publicité