IA Act et formation : méthode efficace pour cartographier les risques

Le règlement européen sur l’intelligence artificielle (IA Act), entré en vigueur en août 2024, introduit des obligations, avec une mise en oeuvre progressiv, selon le niveau de risque des systèmes d’IA. Pour les OF, il est important de cartographier précisément les usages de l’IA afin de les associer aux différentes catégories de risque définies par la réglementation. Cette démarche permet […]

Prolongez la réflexion

Recevez chaque semaine ATHEME Hebdo, une veille stratégique sur les sujets qui comptent pour votre activité : RH, juridique, innovation, RSE, financement, business. Des insights actionnables, directement dans votre boîte mail.

Le règlement européen IA Act impose aux organismes de formation de cartographier leurs usages de l’intelligence artificielle afin d’identifier précisément les niveaux de risque et les obligations associées. Dans le cadre de l’IA Act, cette démarche permet d’analyser chaque outil ou solution d’IA utilisée, en fonction de son impact potentiel sur les apprenants, les formateurs et les processus pédagogiques.

Selon l’IA Act, les systèmes d’intelligence artificielle sont classés en quatre catégories de risque (minimal, limité, haut risque, inacceptable), chacune impliquant des exigences spécifiques en matière de transparence, de conformité et de contrôle. Cette classification définie par l’IA Act constitue un levier essentiel pour sécuriser les usages, anticiper les risques et garantir une utilisation responsable de l’intelligence artificielle dans le secteur de la formation.

Pourquoi cartographier les usages de l’IA en formation ?

Cartographier les usages de l’intelligence artificielle permet d’identifier les risques, d’anticiper les obligations réglementaires et de sécuriser l’intégration de l’IA dans les parcours de formation. Cette démarche est essentielle pour assurer la conformité avec l’IA Act et adopter une utilisation responsable des technologies.

Elle repose notamment sur plusieurs étapes clés :

    • identifier précisément les outils d’IA utilisés au sein de l’organisme ;
    • associer chaque usage à un niveau de risque (minimal, limité, haut risque, inacceptable) ;
    • anticiper les obligations réglementaires liées à chaque catégorie ;
    • garantir une utilisation éthique, transparente et responsable de l’intelligence artificielle.

Quels sont les niveaux de risque définis par l’IA Act ?

Le règlement IA Act classe les systèmes d’intelligence artificielle selon quatre niveaux de risque, afin d’encadrer leur utilisation de manière proportionnée. Cette classification permet de déterminer les obligations applicables à chaque usage, en fonction de son impact potentiel sur les utilisateurs, leur sécurité et leurs droits fondamentaux. Plus le niveau de risque est élevé, plus les exigences en matière de conformité, de transparence et de contrôle sont renforcées. Cette approche vise à garantir un développement et une utilisation responsables de l’intelligence artificielle au sein des organisations.

schéma des niveaux de risque de l’IA Act et des obligations associées pour les systèmes d’intelligence artificielle

source : CIGREF

  • Risque inacceptable : les systèmes interdits

Les systèmes d’IA à risque inacceptable sont strictement interdits, car ils portent atteinte aux droits fondamentaux des individus, tels que la vie privée, la non-discrimination ou la liberté d’expression. Ces technologies présentent un niveau de danger trop élevé, notamment lorsqu’elles manipulent les comportements, exploitent des vulnérabilités ou permettent une surveillance intrusive. Leur interdiction vise à protéger les utilisateurs et à garantir un usage éthique et responsable de l’intelligence artificielle.

  • IA à haut risque : obligations strictes à partir de 2026

Les systèmes d’IA à haut risque sont autorisés, mais ils sont encadrés par des obligations strictes afin de garantir la sécurité, la transparence et le respect des droits fondamentaux. Ils concernent notamment des secteurs sensibles comme l’éducation, l’emploi et la formation, où les décisions automatisées peuvent avoir un impact significatif sur les individus. Les organisations doivent ainsi mettre en place des mesures de contrôle, d’évaluation des risques et de conformité, afin d’assurer un usage fiable, éthique et responsable de ces technologies.

  • Risque limité : obligation de transparence

Les systèmes d’IA à risque limité doivent informer les utilisateurs qu’ils interagissent avec une intelligence artificielle.

  • Risque minimal : aucun encadrement spécifique

Les systèmes d’IA à risque limité restent autorisés, mais ils doivent respecter des exigences de transparence vis-à-vis des utilisateurs. En particulier, ces derniers doivent être clairement informés qu’ils interagissent avec une intelligence artificielle, afin d’éviter toute confusion ou tromperie. Cette obligation concerne notamment les chatbots, les assistants virtuels ou certains outils automatisés. L’objectif est de garantir une utilisation éclairée, en renforçant la confiance et en assurant une communication transparente entre l’utilisateur et la technologie.

    • transparence
    • documentation
    • contrôle humain
    • conformité réglementaire

Comment réaliser une cartographie des risques IA ?

  1. identifier les usages
  2. classifier les risques
  3. documenter les outils
  4. évaluer les impacts
  5. mettre en conformité

Source : https://www.cigref.fr/wp/wp-content/uploads/2025/01/Guide-de-mise-en-oeuvre-de-lAI-Act-1.1-Cartographie-des-obligations.pdf

Prolongez la réflexion

Recevez chaque semaine ATHEME Hebdo, une veille stratégique sur les sujets qui comptent pour votre activité : RH, juridique, innovation, RSE, financement, business. Des insights actionnables, directement dans votre boîte mail.

Testez les services de veille ATHEME