La Agence Nationale contre le Crime (NCA) du Royaume-Uni a averti que les images de maltraitance infantile créées par intelligence artificielle (IA) rendent plus difficile la protection des vraies victimes et ont le potentiel d'aggraver le problème généralisé de l'abus sexuel sur les enfants.
Selon l'agence, entre 680 000 et 830 000 adultes, soit entre 1,3% et 1,6% de la population adulte du Royaume-Uni, présentent un certain degré de risque sexuel envers les enfants.
Le directeur général de la NCA, Graeme Biggar, a averti que ces images générées par IA ont un effet radicalisant , normalisant davantage les abus envers les vraies victimes. L'IA a été utilisée pour créer des images et des vidéos hyperréalistes d'abus sexuels, augmentant le risque que des criminels continuent d'abuser sexuellement d'enfants après avoir visionné ces images, qu'elles soient réelles ou générées par IA.
L'Internet Watch Foundation (IWF) du Royaume-Uni a découvert et supprimé du matériel d'abus sexuels graves générés par IA, présentant des images très réalistes de jeunes enfants âgés de 3 à 6 ans. L'organisation a également trouvé un manuel en ligne pour aider les criminels à créer des images d'abus encore plus réalistes en utilisant l'IA.
Bien que ces images ne représentent pas de vrais enfants, elles normalisent et enracinent l'abus sexuel des enfants, compliquant la détection des vraies victimes en danger.
L'IWF a enquêté sur des rapports d'images générées par IA et a confirmé que certaines contenaient du matériel d'abus sexuel d'enfants, combinant des séquences réelles avec des séquences générées par IA.
La PDG de l'IWF, Susie Hargreaves, a appelé le Premier ministre britannique à donner la priorité à cette question lors du prochain sommet mondial sur la sécurité. Elle souligne que des mesures législatives adéquates doivent être prises pour anticiper le risque posé par l'IA dans la prolifération d'images d'abus infantil.
Afficher Plus