Un délinquant sexuel, auteur de plus de 1000 deepfake et images à caractère pédopornographique générées par IA, s’est vu interdire l’utilisation d’IA générative pour au moins 5 ans.
Une récente affaire tranchée par la justice britannique a mis en exergue les déviances graves que peuvent entrainer les outils d’IA générative lorsqu’ils sont utilisés par des délinquants sexuels. Pour rappel les IA génératives sont une catégorie d’IA capable de créer du contenu en tous genres (audio, images, vidéos…) en réponse à des requêtes.
Au Royaume-Uni, un homme de 48 ans a utilisé un outil d’IA générative pour générer plus de 1000 deepfake et images à caractère pédopornographiques. Condamné par la justice britannique, il s’est également vu interdire « d’utiliser, consulter ou d’accéder à tout outil d’IA générative » pour une durée de 5 années.
Dans leur décision, les juges ont précisé que le délinquant avait notamment interdiction d’utiliser l’outil « Stable Diffusion Software », notoirement connu des services de police pour être utilisé par les délinquants sexuels pour générer des contenus particulièrement réalistes.
Au Royaume-Uni, la loi pénalisant la création, la détention et le partage d’images à caractère pédopornographique date des années 1990. Cette loi est désormais utilisée pour lutter contre les contenus à caractère pédopornographique générés par l’IA ou les outils de deepfake.
S’il n’est pas rare que les juridictions pénales britanniques restreignent les droits des délinquants sexuels sur Internet (par exemple en leur faisant interdiction d’effacer leur historique, d’utiliser la navigation privée ou des outils de messages chiffrés), cette décision ouvre la voie à cette nouvelle mesure de prévention qu’est l’interdiction d’utiliser les outils d’IA générative.
Une augmentation constante du recours aux IA génératives pour la création de contenus à caractère pédopornographique.
Selon l’Internet Watch Foundation (IWF), une organisation indépendante britannique dédiée à la lutte contre les contenus pédopornographiques en ligne, l’utilisation d’outils d’IA générative aux fins de générer des contenus à caractère pédopornographique serait en constante augmentation.
En 2023, l’IWF a recensé sur un forum du darkweb plus de 2562 images générées par l’intelligence artificielle particulièrement réalistes qui, selon l’organisation, devraient être traitées par la justice comme si elles constituaient de vraies images.
L’IMF déplore également l’utilisation accrue des outils appelés « nudifying tools », permettant de générer des deepfake mettant en scène des mineurs dénudés.
Ainsi, au regard du droit britannique, le juge peut assortir sa condamnation d’une interdiction de consulter, d’utiliser et d’accéder à des outils d’IA génératives aux fins de lutter contre les contenus à caractère pédopornographique
L’efficacité d’une telle mesure apparait néanmoins douteuse tant sa mise en œuvre semble impossible. On peut en effet s’interroger sur les moyens dont disposent les juges et les services de police pour s’assurer du respect de cette mesure par le délinquant. À moins de faire l’objet d’une surveillance accrue sur le web par des services de police spécialisés, il semble que le délinquant pourra facilement contourner la mesure d’interdiction.
Jugement non publié
Retrouver les autres articles de la SAGA AI :
- SAGA AI #1 – AI Act : L’UE adopte le premier règlement sur l’intelligence artificielle au monde
- SAGA AI #2 – Les enjeux de l’utilisation de l’IA en matière de PI : focus sur les œuvres utilisées pour entraîner les IA
- SAGA AI #3 – Contenus générés par une intelligence artificielle : qui détient quels droits ?
- SAGA AI #4 – Le développement de l’IA confronté au droit de la protection des données personnelles
- SAGA AI #5 – Le recours aux outils d’IA en entreprise : gouvernance et protection des informations couvertes par le secret des affaires
- SAGA AI #6 – Intelligence artificielle : de nouvelles cyber obligations pour de nouveaux cyber crimes
- SAGA AI #7 – Fait dommageable d’un système d’intelligence artificielle, quelles responsabilités ?
- SAGA AI #8 – Intelligence artificielle dans le secteur juridique : risques et opportunités
- SAGA AI #9 – État des lieux de la réglementation de l’IA à l’étranger
- SAGA AI #10 – Comment encadrer l’IA dans les contrats de services informatiques ?
- SAGA AI #11 – Protection des créations de l’intelligence artificielle : que nous apprend la jurisprudence étrangère ?
- SAGA AI #12 – Air Canada jugée responsable des informations erronées fournies par son chatbot à un passager