L'Unicef tire la sonnette d'alarme sur les deepfakes sexuels ciblant les enfants

Des millions d'enfants deviennent la cible de deepfakes sexuels alarmants.
L'Unicef tire la sonnette d'alarme sur les deepfakes sexuels ciblant les enfants
Le Fonds des Nations unies chargé de la protection de l’enfance à travers le monde réclame que les développeurs d’IA mettent en place « des garde-fous robustes » pour empêcher la création de ces deepfakes et que les entreprises du numérique « prévien

L'Unicef a récemment exprimé des préoccupations majeures concernant l'augmentation alarmante des images d'enfants détournées par intelligence artificielle pour créer des deepfakes sexuels. Ce phénomène comprend notamment la "nudification", une méthode consistant à modifier ou supprimer les vêtements d'une victime.

Une enquête menée par l'Unicef en collaboration avec Interpol révèle que dans au moins 11 pays, 1,2 million d'enfants auraient été exposés à cette dérive au cours de l'année passée. Les pays concernés incluent l'Arménie, le Brésil, la Colombie, la République dominicaine, le Maroc, le Monténégro, la Macédoine du Nord, le Mexique, le Pakistan, la Serbie et la Tunisie. Dans certains cas, cela équivaut à un enfant par classe, selon l'étude.

Le rapport souligne que les images générées ou manipulées par des outils d'IA représentent de véritables abus sexuels sur enfants. Les conséquences, tant psychologiques que sociales, de ces abus sont palpables et graves. "Les abus commis au moyen d’images hypertruquées restent des abus, et les préjudices qu’ils entraînent sont tout sauf fictifs", a déclaré un porte-parole de l'organisation.

Un autre point soulevé par l'Unicef concerne le manque de protections adéquates dans les modèles d'IA actuels, qui sont souvent intégrés aux plateformes de médias sociaux. Cette intégration facilite la propagation rapide d'images altérées, augmentant ainsi le risque d'exploitation.

Le réseau social X, propriété de Elon Musk, est d'ores et déjà sous le feu de critiques et d'investigations dans plusieurs pays. Des plaintes ont été déposées en raison de son chatbot Grok, qui a diffusé des contenus pornographiques à partir d'images réelles, comme l'affirme un rapport de Libération.

Face à cette situation critique, le Fonds des Nations unies pour l'enfance exhorte les développeurs d'IA à établir des garde-fous robustes pour prévenir la création de ces deepfakes. L'Unicef demande également aux gouvernements d'adapter la législation, en élargissant la définition des contenus présentant des abus sexuels sur enfants, afin d'inclure ceux générés par l'IA, et de criminaliser leur création, leur acquisition, leur détention et leur diffusion.

Lire aussi

Les accusations de pollution d'Alexeï Navalny : le Kremlin ferme la porte à l'enquête européenne
Deux ans après la mort d'Alexeï Navalny, le Kremlin rejette les accusations d'empoisonnement. Découvrez les réactions et l'enquête européenne qui secoue le paysage politique.
13h51
L'affaire Epstein secoue l'Institut du monde arabe : perquisitions en cours
Des perquisitions ont lieu chez Jack et Caroline Lang dans le cadre de l'enquête Epstein. Les révélations surprises secouent l'Institut du monde arabe.
12h37
L'exode népalais : travailler à l'étranger au prix de la vie
Découvrez comment l'exode des travailleurs népalais vers l'étranger provoque des tragédies familiales et des défis économiques.
10h01
Laurent Nuñez en mission à Alger : un pas vers le rapprochement avec l'Algérie
Laurent Nuñez se rend à Alger pour des discussions sur la sécurité et les migrations. Un pas vers la réconciliation malgré des tensions diplomatiques entre la France et l'Algérie.
06h51
Naveed Akram, l'assaillant présumé de Bondi, face à la justice australienne
Naveed Akram apparaît en justice après un attentat à Sydney. L'attaque a fait 15 morts lors des célébrations de Hanoukka.
03h03
Le réseau parisien d'Epstein sous le feu des enquêteurs
L'affaire Epstein révèle des liens troublants à Paris. Les enquêteurs relancent l'examen des preuves et des complices potentiels. Découvrez les détails.
15 févr.