Le développement et l’entrainement d’outils d’IA génératives s’appuient sur d’importantes quantités de textes, d’images, de vidéos, de contenus en tout genre, autant de contenus pouvant être protégés par le droit d’auteur.
Face à ces nouveaux usages, potentiellement attentatoires à leurs droits de propriété intellectuelle, certains titulaires agissent directement à l’encontre des fournisseurs de SIA génératives.
La jurisprudence étrangère fournit deux exemples récents d’actions en responsabilité engagée à l’encontre d’éditeurs d’outils d’IA génératives.
En Chine, un éditeur reconnu responsable des atteintes au droit d’auteur porté par son outil d’IA générative
Une société chinoise, titulaire d’une licence d’exploitation relative au personnage « Ultraman » (un super héros japonais), a saisi la Cour de Guangzhou d’une action en contrefaçon à l’encontre de l’éditeur de l’outil d’IA générative « TAB »[1].
Parmi ses nombreuses fonctionnalités, TAB propose de générer des images à partir de requêtes saisies par les utilisateurs sous forme de texte. Ainsi, TAB a pu produire à la requête d’utilisateurs des images du personnage Ultraman très similaires à celles exploitées par le titulaire de droits.
La société plaignante soutenait notamment que l’outil d’IA utilisait sans son autorisation le personnage Ultraman, en tant qu’œuvre protégée, pour entrainer ses modèles et générer des images d’un personnage substantiellement similaire, ce qui portait notamment atteinte à ses droits exclusifs de reproduction, de diffusion et d’adaptation. La société démontrait qu’un simple prompt comportant le nom de son personnage, permettait aux utilisateurs d’obtenir des images d’un personnage présentant les caractéristiques graphiques essentielles du super héros Ultraman.
La société plaignante demandait à la Cour de Guangzhou qu’elle ordonne à l’éditeur de cesser immédiatement toute génération d’images contrefaisantes du personnage et de le supprimer de sa base de données d’entrainement.
De son côté, le défendeur faisait valoir que la fonctionnalité permettant la génération d’images est une fonctionnalité gratuite, réservée à certains de ses membres et qu’ainsi, il n’avait tiré aucun profit des images d’Ultraman générées par son outil.
Après avoir reconnu l’originalité du personnage, la Cour de Guangzhou a considéré que les agissements de TAB portaient atteinte aux droits d’auteur dont est titulaire la société demanderesse. La Cour a également relevé que TAB avait manqué à plusieurs de ses obligations légales en tant que fournisseur de service, notamment en ne mettant pas à disposition des titulaires de droit un procédé efficace leur permettant de signaler des contenus contrefaisants.
La Cour a condamné l’éditeur au paiement de dommages-intérêts (10.000 Yuan) en réparation du préjudice porté au titulaire de droits et lui a ordonné de prendre toute mesure technique appropriée (telle que filtrer les mots clés), afin d’empêcher la génération d’images portant atteinte aux droits de la demanderesse sur le personnage Ultraman.
Pour expliciter cette mesure, la Cour indique « the degree of preventative measures should be : when a user enters keywords related to Utraman under ordinary circumstances, images substantially similar to the disputed Utraman work can no longer be generated »[2].
Cette décision est remarquable en ce qu’elle constitue sans doute l’une des premières jurisprudences en Chine à reconnaitre l’exploitant d’un SIA directement responsable d’une atteinte au droit d’auteur.
Utilisation de codes sources par l’IA générative : le juge fédéral californien met un terme à la plainte intentée par des développeurs indépendants à l’encontre d’Open IA, Microsoft et Git Hub
En novembre 2022, un groupe de développeurs indépendants et anonymes avait collectivement saisi le juge fédéral californien d’une plainte à l’encontre des sociétés Open IA LP (à l’origine de Chat GPT), Microsoft Corp et Git Hub Inc.
Les plaignants accusaient Git Hub (acquis par Microsoft en 2018) et Open IA, d’avoir illégalement utilisé leurs codes sources déposés sur GitHub pour entrainer et créer les outils Copilot et Codex. Les développeurs soutenaient également que ces outils généraient des codes sources leur appartenant, sans mentionner les noms des auteurs. Selon les plaignants, ces agissements ont porté notamment atteinte à leurs droits au titre du DMCA[3].
Pour mémoire, les outils comme Copilot et Codex sont notamment conçus pour générer du code et améliorer la productivité des développeurs. Leur lancement avait suscité de vives réactions de la part de plusieurs communautés de développeurs.
Dans une première ordonnance rendue en mai 2023[4], le juge californien avait reconnu l’intérêt à agir des développeurs et admis que leurs allégations étaient « suffisamment plausibles ».
Toutefois, le juge avait refusé de faire droit à leurs demandes en considérant que les éléments fournis à l’appui de leurs prétentions ne permettaient pas de démontrer l’existence d’un préjudice :
« Plaintiff thus plausibly allege that, absent injunctive relief, there is a realistic danger that Codex or Copilot will reproduce Plaintiff’s licensed code as output (…) While Plaintiff have failed to establish an injury-in-fact sufficient to confer standing for their claims for damages based on injury to property rights, they have standing to pursue injunctive relief on such claims”[5]
Le juge invitait ainsi les développeurs à corroborer leur plainte[6]. Les développeurs ont donc tenté de consolider leurs allégations.
Mais dans sa dernière ordonnance[7], le même juge californien a de nouveau considéré que les développeurs n’apportaient pas de preuve suffisante permettant de démontrer l’existence chez Copilot de reproductions de codes identiques leur appartenant et une violation du DMCA.
Les plaignants ont donc été (à nouveau) déboutés de leur demande principale. Toutefois, les autres chefs de leur plainte concernant la violation des licences open source et des manquements contractuels des éditeurs ont été maintenus.
Cette décision, bien que mitigée, ouvre néanmoins la voie à de futures actions à l’encontre de fournisseurs de SIA. Les plaignants sont désormais avertis que leurs allégations doivent impérativement être corroborées par des éléments de preuve solides. Cette décision rappelle l’importance pour les titulaires de droit de pousser leurs investigations au mieux afin de collecter un maximum de preuves avant d’engager une action.
[1] Guangzhou Internet Court, Civil judgment, Shanghai Character License Administrative Co.LTd (SCLA) v AI Company, 02082024
[2] “le niveau de mesures préventives devrait être le suivant : lorsque un utilisateur saisit des mots-clés liés à Ultraman dans des circonstances normales, il ne doit plus être possible de générer des images présentant une similitude substantielle avec l’œuvre Ultraman en litige. »
[3] Digital Millenium Copyright Act
[4] Northern District of California, Case n°22-cv-06823-JST, DOE 1 et al., v GitHub Inc., et al., Order granting in part and denying in part motions to dismiss, dated May 11, 2023, U.S. District Judge Jon S. Tigar.
[5] « Le demandeur allègue de manière plausible qu’en l’absence de mesures injonctives, il existe un risque réel que Codex ou Copilot reproduise le code sous licence du demandeur en tant que résultat (…) Bien que le demandeur n’ait pas réussi à démontrer un préjudice concret suffisant pour établir sa qualité à agir pour des réclamations de dommages-intérêts fondées sur des atteintes aux droits de propriété, il a qualité pour demander une injonction sur ces réclamations » .Partie IV A, pages 9 and 10
[6] « Plaintiff’s claims (…) are dismissed with leave to amend”, page 25
[7] https://www.law360.com/articles/1855576/github-openai-get-developers-copyright-claim-tossed
Retrouver les autres articles de la SAGA AI :
- SAGA AI #1 – AI Act : L’UE adopte le premier règlement sur l’intelligence artificielle au monde
- SAGA AI #2 – Les enjeux de l’utilisation de l’IA en matière de PI : focus sur les œuvres utilisées pour entraîner les IA
- SAGA AI #3 – Contenus générés par une intelligence artificielle : qui détient quels droits ?
- SAGA AI #4 – Le développement de l’IA confronté au droit de la protection des données personnelles
- SAGA AI #5 – Le recours aux outils d’IA en entreprise : gouvernance et protection des informations couvertes par le secret des affaires
- SAGA AI #6 – Intelligence artificielle : de nouvelles cyber obligations pour de nouveaux cyber crimes
- SAGA AI #7 – Fait dommageable d’un système d’intelligence artificielle, quelles responsabilités ?
- SAGA AI #8 – Intelligence artificielle dans le secteur juridique : risques et opportunités
- SAGA AI #9 – État des lieux de la réglementation de l’IA à l’étranger
- SAGA AI #10 – Comment encadrer l’IA dans les contrats de services informatiques ?
- SAGA AI #11 – Protection des créations de l’intelligence artificielle : que nous apprend la jurisprudence étrangère ?
- SAGA AI #12 – Air Canada jugée responsable des informations erronées fournies par son chatbot à un passager
- SAGA AI #13 – Dans une décision inédite, la justice britannique a fait interdiction à un délinquant sexuel d’utiliser tout outil d’IA générative pendant une durée de 5 ans