0 4 minutes 1 mois

1. Article 5 et les exceptions controversées

L’article 5 interdit effectivement l’utilisation en temps réel de la surveillance biométrique généralisée (comme la reconnaissance faciale) dans les espaces publics par les forces de l’ordre. Cependant, il prévoit des exceptions pour :

  • La prévention d’actes terroristes « spécifiques et imminents ».
  • La recherche de victimes de crimes graves (enlèvements, traite d’êtres humains).
  • Les enquêtes sur des crimes graves (meurtre, trafic de drogue à grande échelle).

Ces exceptions sont conditionnées à une autorisation judiciaire préalable et à une évaluation de « nécessité stricte » et de « proportionnalité ». Toutefois, les termes comme « menace imminente » ou « risque substantiel » restent sujets à interprétation, ce qui pourrait permettre une application élargie selon les États membres.


2. Critiques et risques identifiés

  • Opacité des critères : L’absence de définition précise des exceptions crée un risque de surveillance généralisée sous couvert de sécurité, notamment dans des contextes comme les manifestations publiques.
  • Contrôle démocratique limité : Bien qu’une autorisation judiciaire soit requise, celle-ci pourrait être accordée de manière expéditive dans des contextes de crise, réduisant les garanties pour les citoyens.
  • Normalisation de la surveillance : Des organisations comme Access Now ou EDRi alertent sur la banalisation des technologies biométriques, y compris via des usages expérimentaux ou détournés (p. ex., dans les stades ou les transports).

3. Rôle des géants de la tech et le « Pacte de l’IA »

Le soutien d’entreprises comme Google, Amazon, ou OpenAI au Pacte volontaire sur l’IA (juillet 2023) illustre une dynamique ambiguë :

  • Ces acteurs se positionnent comme partenaires des régulateurs, promettant une autorégulation (transparence, éthique).
  • Toutefois, leur influence pourrait affaiblir les garde-fous légaux, notamment en promouvant des technologies à haut risque (comme la reconnaissance faciale) sous prétexte d’« innovation responsable ».

4. Avancées malgré les lacunes

La loi introduit malgré tout des protections inédites :

  • Interdiction des systèmes d’IA « inacceptables » : Manipulation cognitive, notation sociale, surveillance prédictive généralisée.
  • Encadrement des systèmes à haut risque (éducation, emploi, justice) : Obligation de transparence, audits, et contrôle humain.
  • Renforcement des droits individuels : Possibilité de contester les décisions automatisées.

5. Perspectives et mobilisations

Des collectifs citoyens et eurodéputés progressistes appellent à :

  • Un resserrement des exceptions de l’article 5 via des directives d’application claires.
  • L’interdiction totale de la reconnaissance faciale en temps réel dans l’espace public, comme préconisé par le Parlement européen en 2021.
  • Un mécanisme de plainte indépendant pour les abus.

Conclusion

La loi européenne sur l’IA représente une tentative pionnière de régulation, mais elle reflète aussi des compromis politiques qui laissent ouvertes des brèches pour la surveillance de masse. Son impact dépendra de sa transposition nationale : des pays comme l’Allemagne ou les Pays-Bas pourraient adopter des interprétations restrictives, tandis que d’autres, comme la France (qui expérimente déjà la reconnaissance faciale pour les JO 2024), pourraient exploiter les exceptions. La vigilance citoyenne et le rôle de la Cour de justice de l’UE seront déterminants pour éviter les dérives.

Par ChrissM PRODPRESS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *