Les outils d’IA générative sont capables de produire des textes, des images, de l’audio, des vidéos… Dans le domaine de la formation, ces outils peuvent permettre de produire des contenus pédagogiques et peuvent faciliter le travail quotidien. Cependant, leur utilisation peut soulèver des questions en matière de propriété intellectuelle. Quelles sont les règles actuelles ? À qui appartient le contenu produit ? Existe-t-il des risques et comment adopter des pratiques responsables ?
Un cadre juridique encore flou mais en construction
En France, les œuvres littéraires, artistiques et scientifiques, dites “œuvres de l’esprit” sont protégées par le Code de la propriété intellectuelle (article L. 112-1 du CPI ) si elles sont originales, c’est-à-dire qu’elles reflètent la personnalité et les choix créatifs de leur auteur, qui doit être une personne physique (pas une machine).
Cela signifie que, sauf intervention humaine significative, une œuvre produite par une IA ne peut être protégée par le droit d’auteur et tombe donc dans le domaine public.
En revanche, si un humain apporte une contribution significative et créative (par exemple en retravaillant le résultat de l’IA ou en utilisant des prompts complexes et originaux), alors l’œuvre pourrait être protégée par le droit d’auteur.
Mais le contexte évolue, ainsi en septembre 2023, la proposition de loi n°1630 a été déposée pour encadrer l’usage de l’IA en matière de droit d’auteur.
Elle prévoit d’imposer l’autorisation des auteurs avant que leurs œuvres soient utilisées par une IA. Les droits des créations d’IA sans intervention humaine seraient attribués aux auteurs des œuvres ayant servi à l’entraînement.
Enfin, les entreprises exploitant des œuvres non identifiables seraient soumises à une taxe pour soutenir la création artistique, avec l’obligation de mentionner explicitement «œuvre générée par IA» et d’inclure les noms des auteurs d’origine.
Au niveau européen, l’IA ACT, en cours de finalisation, ambitionne d’harmoniser les pratiques autour de l’IA, notamment en matière de propriété intellectuelle et de transparence des modèles. Ces initiatives marquent une volonté croissante des législateurs de sécuriser l’usage de l’IA.

Concrètement, quels sont les risques juridiques et comment les éviter ?
Si l’IA générative offre un potentiel immense, son utilisation n’est pas sans risques. Les utilisateurs doivent être très vigilants pour éviter des litiges juridiques :
- Le risque de contrefaçon
Les outils d’IA, comme ChatGPT ou MidJourney, s’entraînent souvent sur des données disponibles en ligne, parfois sans autorisation. Cela peut entraîner des contenus générés qui ressemblent, voire reproduisent, des œuvres protégées. Sans vérification minutieuse, l’utilisateur peut se retrouver en situation de contrefaçon, une infraction sanctionnée par le Code de la propriété intellectuelle.
- La véracité des informations
Les IA génératives peuvent produire des contenus incorrects ou attribuer des informations à tort. Par exemple, ChatGPT a déjà été pointé du doigt pour avoir cité des auteurs de manière erronée. Il est indispensable de vérifier la fiabilité des données produites avant de les diffuser.
- L’utilisation de fichiers non libres de droits
Les prompts ou les fichiers fournis aux outils d’IA doivent être libres de droits ou accompagnés d’une autorisation explicite de l’auteur. Faute de quoi, l’utilisateur pourrait être accusé d’exploitation illégale.
- Le manque de traçabilité des créations
Si une création issue de l’IA est reprise telle quelle sans mentionner son origine, cela peut être perçu comme de la fraude, notamment dans les contextes académiques ou professionnels.
Pour prévenir ces risques, il est important d’adopter une démarche transparente et responsable. Pour cela il est possible de documenter son processus en conservant des preuves des modifications apportées aux contenus générés. De la même manière, les utilisateurs peuvent mentionner explicitement l’utilisation de l’IA dans leurs productions, que ce soit dans le corps du texte ou en note de bas de page.
Des initiatives pour plus de transparence
Face à ces risques, des initiatives émergent pour encourager la transparence et encadrer l’utilisation des IA génératives. Par exemple, Adobe avec son outil Firefly qui génère des œuvres graphiques, a introduit un système de marquage qui associe à chaque contenu généré une icône identifiant son origine. Nommé “Content Credentials”, ce mécanisme vise à instaurer la confiance et à permettre aux utilisateurs finaux de reconnaître les créations issues d’outils IA.
Content Credentials

Le gouvernement canadien a publié un guide sur l’usage responsable de l’IA. Ce document met en avant des principes d’éthique, de transparence et de diligence dans l’utilisation des outils IA, invitant les professionnels à mentionner systématiquement leur recours à ces technologies.
Sources :
https://www.assemblee-nationale.fr/dyn/16/textes/l16b1630_proposition-loi

