Soft law, règlement, loi générale ou spécifique, la course à la règlementation de l’IA au niveau international est lancée
Alors que l’AI Act sera bientôt publié au Journal Officiel de l’Union européenne, d’autres États ont commencé à adopter des règles applicables aux systèmes d’intelligence artificielle (« SIA ») afin de protéger les individus sans brider le développement de ces systèmes.
Ces initiatives étrangères sont variées et prennent souvent la forme de soft law (ou droit mou) par l’intermédiaire de lignes directrices ou de grands principes dont la fonction est de guider les concepteurs de SIA sans pour autant entraver juridiquement le développement de ce secteur.
Dans cette perspective, l’AI Act constitue le premier texte au monde intégralement dédié à la régulation de cette nouvelle révolution industrielle et qui impose aux concepteurs et déployeurs des obligations contraignantes[1].
Parallèlement, l’assemblée générale de l’Organisation des Nations Unies a adopté en mars 2024 une résolution appelant les États membres et parties prenantes à élaborer et soutenir des approches et des cadres de réglementation de gouvernance liée à une utilisation « sûre, sécurisée et fiable de l’IA »[2].
C’est ce qu’ont déjà commencé à faire certains États.
Une réglementation temporaire spécifique aux IA génératives : focus sur la Chine
La Chine ambitionne de devenir l’un des leaders mondiaux du secteur de l’IA dans lequel elle investit massivement.
Dans ce cadre, le gouvernement chinois a déjà adopté plusieurs réglementations spécifiques à l’IA notamment pour réguler la fourniture de services d’algorithme de recommandations sur Internet.
De façon plus originale, la Chine a également pris des mesures provisoires contraignantes applicables aux systèmes d’IA génératives. La Chine a ainsi fait le pari d’adopter des mesures provisoires et d’attendre le développement du secteur avant d’adopter une réglementation plus globale qui viendra s’agréger à son corpus de règles sur la cybersécurité ou encore la protection des données à caractère personnel.
Les mesures provisoires[3] adoptées le 15 août 2023 s’appliquent à tous les fournisseurs SIA générant des contenus (textes, images, fichier audio ou vidéo, etc.) accessibles sur le territoire chinois.
Elles imposent notamment aux fournisseurs de SIA de prendre des mesures efficaces pour respecter les droits de propriété intellectuelle des tiers et la concurrence en interdisant l’utilisation d’algorithmes aux fins de constitution de monopole ou de distorsion de la concurrence.
Les fournisseurs de SIA devront également respecter les droits et intérêts légitimes des individus et notamment protéger leur vie privée. Ces mesures provisoires viennent également renforcer les obligations de transparence des fournisseurs.
Plusieurs décisions ont déjà été rendues par des juridictions chinoises en application de ce texte.
À titre d’exemple, la Cour de Canton, spécialisée dans la résolution des litiges liés à Internet, a condamné un fournisseur de SIA générative pour violation de droits d’auteur[4].
En l’espèce, le titulaire de droits sur une série TV japonaise avait constaté qu’une IA générative avait généré de nombreuses images très similaires au célèbre personnage de la série, sans son autorisation.
Après avoir analysé les similitudes entre les images, la Cour de Canton a considéré que l’atteinte aux droits d’auteur du titulaire était caractérisée. Elle a également considéré que la responsabilité du fournisseur du système d’IA générative devait être engagée et lui a ordonné de prendre des mesures pour faire cesser l’atteinte.
La Cour a enfin condamné le fournisseur au paiement de dommages et intérêts pour un montant assez faible dans un souci de conciliation de la protection des droits de propriété intellectuelle et du développement du secteur de l’IA.
Cette affaire illustre la volonté de beaucoup d’États d’accompagner le développement des SIA sans l’entraver.
Une règlementation parcellaire spécifique à l’IA : focus sur les États-Unis
Contrairement à l’Union européenne qui entend règlementer l’IA de façon globale, certains États semblent opter pour une règlementation plus fragmentée. Cette approche consiste à règlementer l’utilisation de l’IA en adoptant une myriade de textes ayant une portée relativement restreinte.
L’exemple le plus frappant concerne les États-Unis qui voient se multiplier les projets de loi sur l’IA, tant au niveau fédéral qu’étatique.
Au niveau fédéral, le décret présidentiel du 30 octobre 2023 sur l’IA[5] ouvre la voie à l’adoption de mesures dans différents secteurs clés. Il cible tout particulièrement les agences gouvernementales qui sont chargées d’évaluer les risques que présentent les SIA dans leur domaine de compétence respectif et d’établir de nouvelles normes répondant aux principes directeurs fixés par le décret (protection des consommateurs, respect de la vie privée, etc.).
Cela étant, l’effectivité de ce décret dépendra de la prise de mesures législatives sur son fondement, mesures sans lesquelles son impact sera très limité.
Divers projets de loi fédérale ont déjà été introduits devant le Congrès, tels que le REAL Political Advertisements Act[6] qui vise à règlementer l’usage de l’IA générative dans les publicités à caractère politique ou le Stop Spying Bosses Act[7] dont l’objectif est de protéger les salariés contre l’utilisation abusive par les employeurs de l’IA et des technologies de prise de décision automatisée.
De nombreux projets de loi dont la portée est limitée à certains secteurs ou acteurs sont également en cours de discussion au niveau des États.
Le Massachusetts envisage ainsi de règlementer l’usage des SIA par certains professionnels de santé tels que les psychologues et les psychiatres[8]. Le New Hampshire entend quant à lui légiférer sur l’utilisation de l’IA par les agences étatiques en leur interdisant notamment d’utiliser les SIA à des fins de surveillance des citoyens[9].
Ainsi, plutôt que de donner un cadre général à l’IA, les États-Unis, qui ne souhaitent pas freiner son développement, ont fait le choix d’une règlementation parcellaire et restreinte.
L’absence de règlementation spécifique à l’IA : le recours aux lois préexistantes
À l’échelle mondiale, la grande majorité des États ne se sont pas encore dotés d’un cadre légal propre à l’IA. La plupart des États considèrent qu’il est encore trop tôt pour légiférer et redoutent d’entraver les développements économiques liés à l’IA.
L’absence de règlementation spécifique à l’IA ne signifie toutefois pas que cette technologie ne répond à aucune règle. Au contraire, diverses dispositions existantes ont vocation à s’appliquer à l’IA.
Les lois sur la propriété intellectuelle et la protection de la vie privée en sont un parfait exemple, puisqu’elles sont généralement applicables à l’IA.
Certaines lois nationales sur la propriété intellectuelle contiennent ainsi des dispositions qui s’appliquent directement à l’IA. À titre d’exemple, le Copyright, Designs and Patents Act britannique prévoit expressément que l’auteur d’une œuvre créée par ordinateur est, aux fins de la titularité du droit d’auteur, la personne qui a pris les dispositions nécessaires à la création de l’œuvre[10].
De même, la loi fédérale suisse sur la protection des données, à l’instar de nombreuses législations relatives à la vie privée et à la protection des données personnelles, impose au responsable de traitement un devoir d’information en cas de décision individuelle automatisée[11].
En outre, le droit commun peut également permettre, de façon plus ou moins efficace en fonction de l’État concerné, de remédier aux éventuels dommages causés par les SIA[12].
Les technologies de l’IA sont ou seront donc régulées de façon plus ou moins contraignante à l’échelle mondiale. Dès lors, il appartient aux entreprises utilisatrices ou fournisseurs de SIA de recourir à des outils contractuels permettant d’encadrer les différents aspects de ces systèmes (responsabilité, titularité des droits, etc.).
[1] Lire notre billet « AI Act : l’UE adopte le premier règlement sur l’intelligence artificielle au monde »
[2] https://news.un.org/fr/story/2024/03/1144211
[3] Mesures provisoires pour la réglementation des systèmes d’intelligence artificielle générative adoptées le 15 août 2023
[5] Executive Order 14110 on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence
[6] REAL Political Advertisements Act, S.1596
[7] Stop Spying Bosses Act, S.262
[8] The Commonwealth of Massachusetts, an Act Regulating the use of artificial intelligence in providing mental health, 2023 MA H 1974
[9] State of New Hampshire, an Act relative to the use of artificial intelligence by state agencies, 2023 NH H 1688
[10] Copyright, Designs and Patents Act 1988, section 9 – Authorship of work
[11] Loi fédérale sur la protection des données personnelles, article 21
[12] Lire notre billet « Fait dommageable d’un système d’intelligence artificielle, quelles responsabilités ? »
Retrouver les autres articles de la SAGA AI :
- SAGA AI #1 – AI Act : L’UE adopte le premier règlement sur l’intelligence artificielle au monde
- SAGA AI #2 – Les enjeux de l’utilisation de l’IA en matière de PI : focus sur les œuvres utilisées pour entraîner les IA
- SAGA AI #3 – Contenus générés par une intelligence artificielle : qui détient quels droits ?
- SAGA AI #4 – Le développement de l’IA confronté au droit de la protection des données personnelles
- SAGA AI #5 – Le recours aux outils d’IA en entreprise : gouvernance et protection des informations couvertes par le secret des affaires
- SAGA AI #6 – Intelligence artificielle : de nouvelles cyber obligations pour de nouveaux cyber crimes
- SAGA AI #7 – Fait dommageable d’un système d’intelligence artificielle, quelles responsabilités ?
- SAGA AI #8 – Intelligence artificielle dans le secteur juridique : risques et opportunités