Propriété intellectuelle et IA : Enjeux et bonnes pratiques

Recevez pendant 1 mois 
ATHEME Hebdo, le support de veille 
pour les organismes de formation et les formateurs

Les outils d’IA générative sont capables de produire des textes, des images, de l’audio, des vidéos… Dans le domaine de la formation, ces outils peuvent permettre de produire des contenus pédagogiques et peuvent faciliter le travail quotidien. Cependant, leur utilisation peut soulèver des questions en matière de propriété intellectuelle. Quelles sont les règles actuelles ? À qui appartient le contenu produit ? Existe-t-il des risques et comment adopter des pratiques responsables ?

Un cadre juridique encore flou mais en construction

En France, les œuvres littéraires, artistiques et scientifiques, dites “œuvres de l’esprit”  sont protégées par le Code de la propriété intellectuelle (article L. 112-1 du CPI ) si elles sont originales, c’est-à-dire qu’elles reflètent la personnalité et les choix créatifs de leur auteur, qui doit être une personne physique (pas une machine).
Cela signifie que, sauf intervention humaine significative, une œuvre produite par une IA ne peut être protégée par le droit d’auteur et tombe donc dans le domaine public.
En revanche, si un humain apporte une contribution significative et créative (par exemple en retravaillant le résultat de l’IA ou en utilisant des prompts complexes et originaux), alors l’œuvre pourrait être protégée par le droit d’auteur.

Mais le contexte évolue, ainsi en septembre 2023, la proposition de loi n°1630 a été déposée pour encadrer l’usage de l’IA en matière de droit d’auteur.
Elle prévoit d’imposer l’autorisation des auteurs avant que leurs œuvres soient utilisées par une IA. Les droits des créations d’IA sans intervention humaine seraient attribués aux auteurs des œuvres ayant servi à l’entraînement.
Enfin, les entreprises exploitant des œuvres non identifiables seraient soumises à une taxe pour soutenir la création artistique, avec l’obligation de mentionner explicitement «œuvre générée par IA» et d’inclure les noms des auteurs d’origine.

Au niveau européen, l’IA ACT, en cours de finalisation, ambitionne d’harmoniser les pratiques autour de l’IA, notamment en matière de propriété intellectuelle et de transparence des modèles. Ces initiatives marquent une volonté croissante des législateurs de sécuriser l’usage de l’IA.

Titre : Cadre juridique, lois en construction et risques juridiques liés à l'IA L'image se compose de trois blocs verticaux alignés à gauche, chacun avec un titre et un contenu associé. Chaque bloc est coloré différemment : rose, rouge et mauve. Bloc 1 : Cadre juridique actuel (fond rose) Texte : Œuvres protégées : Créées par l’humain, œuvres de l’esprit (article L. 112-1 du CPI). Créations IA : Sans intervention humaine = domaine public. Protégées si apport humain significatif ++. Bloc 2 : Lois en construction (fond rouge) Texte : Proposition de loi n°1630 (France, 2023) : Autorisation des auteurs, droits attribués aux auteurs des œuvres d’entraînement, taxe pour les œuvres IA non identifiables, mention obligatoire « générée par IA ». IA ACT (Europe) : Harmonisation des règles sur propriété intellectuelle et transparence. Bloc 3 : Risques juridiques et précautions (fond mauve) Texte : Contrefaçon : Ressemblance avec œuvres protégées → vérifier minutieusement. Informations incorrectes : Vérification impérative des contenus générés. Fichiers non libres de droits : Utiliser uniquement des sources autorisées. Traçabilité : Mentionner l’origine IA et documenter les modifications.

Concrètement, quels sont les risques juridiques et comment les éviter ?

Si l’IA générative offre un potentiel immense, son utilisation n’est pas sans risques. Les utilisateurs doivent être très vigilants pour éviter des litiges juridiques :

  • Le risque de contrefaçon

Les outils d’IA, comme ChatGPT ou MidJourney, s’entraînent souvent sur des données disponibles en ligne, parfois sans autorisation. Cela peut entraîner des contenus générés qui ressemblent, voire reproduisent, des œuvres protégées. Sans vérification minutieuse, l’utilisateur peut se retrouver en situation de contrefaçon, une infraction sanctionnée par le Code de la propriété intellectuelle.

  • La véracité des informations

Les IA génératives peuvent produire des contenus incorrects ou attribuer des informations à tort. Par exemple, ChatGPT a déjà été pointé du doigt pour avoir cité des auteurs de manière erronée. Il est indispensable de vérifier la fiabilité des données produites avant de les diffuser.

  • L’utilisation de fichiers non libres de droits

Les prompts ou les fichiers fournis aux outils d’IA doivent être libres de droits ou accompagnés d’une autorisation explicite de l’auteur. Faute de quoi, l’utilisateur pourrait être accusé d’exploitation illégale.

  • Le manque de traçabilité des créations

Si une création issue de l’IA est reprise telle quelle sans mentionner son origine, cela peut être perçu comme de la fraude, notamment dans les contextes académiques ou professionnels.
Pour prévenir ces risques, il est important d’adopter une démarche transparente et responsable. Pour cela il est possible de documenter son processus en conservant des preuves des modifications apportées aux contenus générés. De la même manière, les utilisateurs peuvent mentionner explicitement l’utilisation de l’IA dans leurs productions, que ce soit dans le corps du texte ou en note de bas de page.

 Des initiatives pour plus de transparence 

Face à ces risques, des initiatives émergent pour encourager la transparence et encadrer l’utilisation des IA génératives. Par exemple, Adobe avec son outil Firefly qui génère des œuvres graphiques, a introduit un système de marquage qui associe à chaque contenu généré une icône identifiant son origine. Nommé “Content Credentials”, ce mécanisme vise à instaurer la confiance et à permettre aux utilisateurs finaux de reconnaître les créations issues d’outils IA.

Content Credentials

IMAGE DECORATIVE

Le gouvernement canadien a publié un guide sur l’usage responsable de l’IA. Ce document met en avant des principes d’éthique, de transparence et de diligence dans l’utilisation des outils IA, invitant les professionnels à mentionner systématiquement leur recours à ces technologies.

Sources : 

https://www.assemblee-nationale.fr/dyn/16/textes/l16b1630_proposition-loi