Le règlement européen IA Act impose aux organismes de formation de cartographier leurs usages de l’intelligence artificielle afin d’identifier précisément les niveaux de risque et les obligations associées. Dans le cadre de l’IA Act, cette démarche permet d’analyser chaque outil ou solution d’IA utilisée, en fonction de son impact potentiel sur les apprenants, les formateurs et les processus pédagogiques.
Selon l’IA Act, les systèmes d’intelligence artificielle sont classés en quatre catégories de risque (minimal, limité, haut risque, inacceptable), chacune impliquant des exigences spécifiques en matière de transparence, de conformité et de contrôle. Cette classification définie par l’IA Act constitue un levier essentiel pour sécuriser les usages, anticiper les risques et garantir une utilisation responsable de l’intelligence artificielle dans le secteur de la formation.
Pourquoi cartographier les usages de l’IA en formation ?
Cartographier les usages de l’intelligence artificielle permet d’identifier les risques, d’anticiper les obligations réglementaires et de sécuriser l’intégration de l’IA dans les parcours de formation. Cette démarche est essentielle pour assurer la conformité avec l’IA Act et adopter une utilisation responsable des technologies.
Elle repose notamment sur plusieurs étapes clés :
- identifier précisément les outils d’IA utilisés au sein de l’organisme ;
- associer chaque usage à un niveau de risque (minimal, limité, haut risque, inacceptable) ;
- anticiper les obligations réglementaires liées à chaque catégorie ;
- garantir une utilisation éthique, transparente et responsable de l’intelligence artificielle.
Quels sont les niveaux de risque définis par l’IA Act ?
Le règlement IA Act classe les systèmes d’intelligence artificielle selon quatre niveaux de risque, afin d’encadrer leur utilisation de manière proportionnée. Cette classification permet de déterminer les obligations applicables à chaque usage, en fonction de son impact potentiel sur les utilisateurs, leur sécurité et leurs droits fondamentaux. Plus le niveau de risque est élevé, plus les exigences en matière de conformité, de transparence et de contrôle sont renforcées. Cette approche vise à garantir un développement et une utilisation responsables de l’intelligence artificielle au sein des organisations.

source : CIGREF
Risque inacceptable : les systèmes interdits
Les systèmes d’IA à risque inacceptable sont strictement interdits, car ils portent atteinte aux droits fondamentaux des individus, tels que la vie privée, la non-discrimination ou la liberté d’expression. Ces technologies présentent un niveau de danger trop élevé, notamment lorsqu’elles manipulent les comportements, exploitent des vulnérabilités ou permettent une surveillance intrusive. Leur interdiction vise à protéger les utilisateurs et à garantir un usage éthique et responsable de l’intelligence artificielle.
IA à haut risque : obligations strictes à partir de 2026
Les systèmes d’IA à haut risque sont autorisés, mais ils sont encadrés par des obligations strictes afin de garantir la sécurité, la transparence et le respect des droits fondamentaux. Ils concernent notamment des secteurs sensibles comme l’éducation, l’emploi et la formation, où les décisions automatisées peuvent avoir un impact significatif sur les individus. Les organisations doivent ainsi mettre en place des mesures de contrôle, d’évaluation des risques et de conformité, afin d’assurer un usage fiable, éthique et responsable de ces technologies.
Risque limité : obligation de transparence
Les systèmes d’IA à risque limité doivent informer les utilisateurs qu’ils interagissent avec une intelligence artificielle.
Risque minimal : aucun encadrement spécifique
Les systèmes d’IA à risque limité restent autorisés, mais ils doivent respecter des exigences de transparence vis-à-vis des utilisateurs. En particulier, ces derniers doivent être clairement informés qu’ils interagissent avec une intelligence artificielle, afin d’éviter toute confusion ou tromperie. Cette obligation concerne notamment les chatbots, les assistants virtuels ou certains outils automatisés. L’objectif est de garantir une utilisation éclairée, en renforçant la confiance et en assurant une communication transparente entre l’utilisateur et la technologie.
- transparence
- documentation
- contrôle humain
- conformité réglementaire
Comment réaliser une cartographie des risques IA ?
- identifier les usages
- classifier les risques
- documenter les outils
- évaluer les impacts
- mettre en conformité