Les outils d’IA générative sont capables de produire des textes, des images, de l’audio ou encore des vidéos. Dans le domaine de la formation, ces technologies facilitent la création de contenus pédagogiques et optimisent le travail quotidien des équipes. Cependant, la propriété intellectuelle et IA soulèvent de nombreuses questions. L’utilisation de ces outils peut en effet poser des enjeux juridiques importants : quelles sont les règles actuelles en matière de propriété intellectuelle et IA ? À qui appartient le contenu produit par une intelligence artificielle ? Existe-t-il des risques et comment adopter des pratiques responsables ?
Un cadre juridique encore flou mais en construction
En France, la propriété intellectuelle et IA s’inscrivent dans un cadre juridique précis. Les œuvres littéraires, artistiques et scientifiques, dites « œuvres de l’esprit », sont protégées par le Code de la propriété intellectuelle (article L.112-1 du CPI) à condition d’être originales, c’est-à-dire qu’elles reflètent la personnalité et les choix créatifs de leur auteur, qui doit être une personne physique (et non une machine).
Dans ce contexte de propriété intellectuelle et IA en France, cela signifie que, sauf intervention humaine significative, une œuvre produite par une intelligence artificielle ne peut pas être protégée par le droit d’auteur et tombe donc dans le domaine public.
En revanche, si un humain apporte une contribution créative réelle (par exemple en retravaillant le contenu généré ou en utilisant des prompts complexes et originaux), alors l’œuvre peut être protégée par le droit d’auteur. La question de la propriété intellectuelle et IA repose donc en grande partie sur le niveau d’intervention humaine. Le cadre de la propriété intellectuelle et IA en France continue toutefois d’évoluer. En septembre 2023, la proposition de loi n°1630 a été déposée pour encadrer l’usage de l’intelligence artificielle en matière de droit d’auteur. Elle prévoit notamment d’imposer l’autorisation des auteurs avant l’utilisation de leurs œuvres pour entraîner une IA.
Par ailleurs, les droits des créations issues d’une IA sans intervention humaine pourraient être attribués aux auteurs des œuvres ayant servi à l’entraînement. Enfin, les entreprises exploitant des contenus non identifiables seraient soumises à une taxe destinée à soutenir la création artistique, avec l’obligation de mentionner explicitement « œuvre générée par IA » et d’indiquer les auteurs d’origine.
Au niveau européen, l’IA ACT, en cours de finalisation, ambitionne d’harmoniser les pratiques autour de l’IA, notamment en matière de propriété intellectuelle et de transparence des modèles. Ces initiatives marquent une volonté croissante des législateurs de sécuriser l’usage de l’IA.

Concrètement, quels sont les risques juridiques et comment les éviter ?
Si l’IA générative offre un potentiel immense, son utilisation n’est pas sans risques. Les utilisateurs doivent être très vigilants pour éviter des litiges juridiques :
- Le risque de contrefaçon
Les outils d’IA, comme ChatGPT ou MidJourney, s’entraînent souvent sur des données disponibles en ligne, parfois sans autorisation. Cela peut entraîner des contenus générés qui ressemblent, voire reproduisent, des œuvres protégées. Sans vérification minutieuse, l’utilisateur peut se retrouver en situation de contrefaçon, une infraction sanctionnée par le Code de la propriété intellectuelle.
- La véracité des informations
Les IA génératives peuvent produire des contenus incorrects ou attribuer des informations à tort. Par exemple, ChatGPT a déjà été pointé du doigt pour avoir cité des auteurs de manière erronée. Il est indispensable de vérifier la fiabilité des données produites avant de les diffuser.
- L’utilisation de fichiers non libres de droits
Les prompts ou les fichiers fournis aux outils d’IA doivent être libres de droits ou accompagnés d’une autorisation explicite de l’auteur. Faute de quoi, l’utilisateur pourrait être accusé d’exploitation illégale.
- Le manque de traçabilité des créations
Si une création issue de l’IA est reprise telle quelle sans mentionner son origine, cela peut être perçu comme de la fraude, notamment dans les contextes académiques ou professionnels.
Pour prévenir ces risques, il est important d’adopter une démarche transparente et responsable. Pour cela il est possible de documenter son processus en conservant des preuves des modifications apportées aux contenus générés. De la même manière, les utilisateurs peuvent mentionner explicitement l’utilisation de l’IA dans leurs productions, que ce soit dans le corps du texte ou en note de bas de page.
- Des initiatives pour plus de transparence
Face à ces risques, des initiatives émergent pour encourager la transparence et encadrer l’utilisation des IA génératives. Par exemple, Adobe avec son outil Firefly qui génère des œuvres graphiques, a introduit un système de marquage qui associe à chaque contenu généré une icône identifiant son origine. Nommé “Content Credentials”, ce mécanisme vise à instaurer la confiance et à permettre aux utilisateurs finaux de reconnaître les créations issues d’outils IA.
Content Credentials

Le gouvernement canadien a publié un guide sur l’usage responsable de l’IA. Ce document met en avant des principes d’éthique, de transparence et de diligence dans l’utilisation des outils IA, invitant les professionnels à mentionner systématiquement leur recours à ces technologies.
Sources :
https://www.assemblee-nationale.fr/dyn/16/textes/l16b1630_proposition-loi