
Le règlement européen sur l’intelligence artificielle (IA Act), entré en vigueur en août 2024, introduit des obligations, avec une mise en oeuvre progressiv, selon le niveau de risque des systèmes d’IA. Pour les OF, il est important de cartographier précisément les usages de l’IA afin de les associer aux différentes catégories de risque définies par la réglementation. Cette démarche permet d’anticiper les obligations à venir et d’adopter les bonnes pratiques pour une intégration responsable de l’IA dans la formation.
Les 4 niveaux de risque
Un système d’Intelligence Artificielle est conçu pour fonctionner à differents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’ll reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent Influencer les environnements physiques ou virtuels.
Le règlement IA Act classe les systèmes d’IA en quatre niveaux de risque.
Les IA à risque inacceptable sont interdites car elles menacent les droits fondamentaux (ex : systèmes de notation sociale et l’IA manipulatrice). Les IA à haut risque sont réglementées, notamment dans la santé, l’éducation ou l’emploi. Les IA à risque limité doivent respecter des obligations de transparence. Enfin, les IA à risque minimal ou nul, ne sont soumises à aucune restriction particulière.
Cartographie des usages de l’IA en formation et mise en relation avec la pyramide des risques

source : CIGREF
Selon l’usage de l’IA fait par les OF, les risques et obligations associés ne seront pas les mêmes.
>> Risque minimal ou nul :
Cette catégorie inclut les systèmes de recommandation basés sur l’IA, comme les filtres anti-spam ou antivirus.
Dans le secteur de la formation, les usages concernés par cette catégorie à risque minimal ou nul comprennent l’automatisation de tâches comme par exemple : la normalisation des contenus, la capitalisation de ressources. La traduction, la planification des sessions ou encore le suivi les inscriptions en font également partie.
L’analyse d’un parcours de formation et des données apprenants est dans cette catégorie sauf en cas de décision automatisée.
Ces usages ne présentent que très peu ou aucun risque, et n’entraînent donc aucune obligation réglementaire spécifique pour les OF. L’utilisation de ces IA est autorisée et s’appuie sur un code de conduite volontaire.
>> Risque limité
Cette catégorie concerne les risques de manipulation ou de trucage, tels que les deepfakes.
En formation, l’utilisation d’un chatbot entre dans la catégorie des systèmes d’IA à risque limité. Ces systèmes sont autorisés, mais soumis à des obligations spécifiques de transparence envers les utilisateurs.
>> Haut risque
Cette catégorie regroupe les systèmes d’IA autonomes présentant un risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes physiques. Ils sont autorisés mais soumis à des obligations strictes. Le respect des obligations spécifiques associées aux systèmes d’IA à haut risque devient obligatoire à compter du 2 août 2026.
Dans le domaine de la formation, les systèmes de personnalisation pédagogique, d’adaptive learning (apprentissage adaptatif), de correction automatisée des évaluations, d’évaluation avec feedback automatique ou encore de test continu personnalisé sont dans la catégorie des IA à haut risque.
Cette catégorie inclut les systèmes utilisés pour évaluer les résultats d’apprentissage notamment quand les résultats orientent ou influencent les parcours pédagogiques des apprenants dans les établissements éducatifs à tous les niveaux.
Sont concernés aussi les systèmes destinés à déterminer le niveau d’éducation qu’une personne peut atteindre ou suivre dans ces établissements.
Cette catégorie englobe également l’utilisation de l’IA pour le recrutement et la sélection des candidats, comme la diffusion ciblée d’offres d’emploi, l’analyse et le tri automatisés des candidatures et leur évaluation par des algorithmes.
Elle inclut aussi les systèmes influençant les décisions sur les conditions de travail, les promotions ou la rupture de contrats, et l’attribution des tâches en fonction du comportement ou de certaines caractéristiques personnelles. La surveillance et l’évaluation des performances des travailleurs par l’IA en font également partie.
>> IA à usage général
Il s’agit d’un modèle d’IA capable d’exécuter de manière compéténte un large éventail de tâche distinctes. Ces modèles sont entraînés à partir d’une grande quantité de données, ce qui entraîne des obligations spécifiques pour leurs utilisateurs. C’est notamment le cas des modèles d’IA générative tels que ChatGPT développé par OpenAI.
Dans le domaine de la formation, une IA utilisée pour générer du contenu pédagogique ou assister la production de ressources relève de la catégorie des modèles d’IA à usage général.
