L’intelligence artificielle (IA) est utilisée dans les salles de classe du monde entier, mais comment les écoles européennes s’y prennent-elles tout en respectant la loi européenne sur l’IA ?
Une conférence récente sur l’IA dans les écoles européennes a réuni un groupe de responsables éducatifs afin d’aborder cette question. Leurs discussions ont été suivies par des éducateurs du monde entier, intéressés par l’adoption de l’IA. Comment diriger ? Comment s’adapter ? Comment préparer les écoles à un avenir qui semble très différent de la réalité actuelle ?
La loi européenne sur l’IA
Certaines dispositions clés sont déjà en vigueur depuis juin 2025, tandis que la plupart des obligations entreront en vigueur à partir d’août 2026. L’objectif de cette loi est de garantir que les systèmes d’IA sont sûrs, équitables et transparents.
La loi classe l’IA en fonction du risque. Les outils qui constituent une menace inacceptable pour les droits ou la sécurité sont purement et simplement interdits. Les systèmes à haut risque doivent répondre à des critères stricts en matière de transparence, de gouvernance des données, de contrôle humain et de sécurité. Même les systèmes considérés comme présentant un risque moindre doivent respecter de nouvelles règles de transparence.
Les enjeux sont importants. Le non-respect de ces règles pourrait coûter aux entreprises jusqu’à 35 millions d’euros ou 7 % de leur chiffre d’affaires mondial. Les règles s’appliquent à tout fournisseur ou déployeur dont le système atteint des utilisateurs dans l’UE, quel que soit le lieu d’établissement de l’entreprise.
Cette loi a suscité un débat, en particulier aux États-Unis. Les entreprises et les décideurs politiques américains ont exprimé leurs inquiétudes concernant la compétitivité, l’innovation et la transparence des données. On parle même d’une réglementation excessive.
Comment les écoles de l’UE doivent-elles réagir ? Comment peuvent-elles évoluer pour se conformer à cette nouvelle réglementation tout en continuant à placer les élèves et l’apprentissage au centre de leurs préoccupations ?
C’est précisément ce que la conférence s’est proposé d’explorer.
Commencer par l’urgence
En tant qu’hôte de l’événement, Dan Fitzpatrick (auteur de cette contribution) a ouvert la conférence en mettant l’accent sur l’urgence. Il travaille de manière stratégique avec des écoles à l’échelle mondiale et certains gouvernements sur l’adoption de l’IA. Il a commencé par expliquer les développements mondiaux actuels liés à l’IA et en soulignant l’état d’esprit innovant que l’éducation doit adopter afin de progresser avec espoir.
Il ne s’agit pas simplement d’ajouter de la technologie à ce que l’on fait déjà ou de se lancer imprudemment dans de nouvelles tendances.
Décrypter la loi européenne sur l’IA dans l’éducation
Matthew Wemyss, auteur de AI in Education: An EU AI Act Guide et figure de proue de la loi européenne sur l’IA dans les écoles, a ensuite pris la parole. Sa session était une introduction pratique sur la manière dont les écoles peuvent se lancer dans la mise en œuvre de la loi européenne sur l’IA. Il a expliqué aux éducateurs ce qu’ils devaient comprendre et faire pour s’engager sur la voie de la conformité.
La loi ne traite pas toute l’IA de la même manière. Certains outils d’IA présentent un risque minimal ou limité. Les systèmes d’IA utilisés pour déterminer l’accès des élèves aux programmes éducatifs, évaluer les résultats d’apprentissage, évaluer les niveaux d’éducation appropriés ou surveiller le comportement des élèves pendant les tests sont répertoriés comme présentant un risque élevé et sont soumis à des règles plus strictes.
Matthew Wemyss a été clair : la conformité n’est pas facultative. Cependant, la loi ne vise pas seulement à éviter des amendes. Il s’agit d’un cadre visant à soutenir une utilisation responsable et transparente de l’IA dans l’éducation.
Il a articulé son message autour de trois actions clés : évaluer, examiner et se conformer. Les écoles doivent commencer par vérifier les IA déjà utilisées. Cela signifie savoir quels outils sont utilisés, ce qu’ils font réellement et qui en est responsable. Cela inclut non seulement les plateformes officielles, mais aussi les outils dotés de fonctionnalités d’IA intégrées utilisés de manière informelle par le personnel.
À partir de là, Matthew Wemyss a encouragé les écoles à examiner comment ces outils sont utilisés. Les décisions sont-elles équitables ? Les résultats sont-ils explicables ? Le jugement humain intervient-il ? Les écoles ne doivent pas se contenter des affirmations des fournisseurs. Si un outil d’IA a une incidence sur l’apprentissage ou l’accès des élèves, les responsables doivent comprendre son fonctionnement. Si les fournisseurs ne se conforment pas à la loi, l’école encourt des risques de non-conformité en tant que déployeur.
La conformité, a-t-il expliqué, n’est pas une liste de contrôle. Elle implique la mise en place de systèmes éthiques, sûrs et adaptés au contexte de chaque école. Ce qui est nécessaire dans un contexte peut ne pas l’être dans un autre. Même lorsqu’elles utilisent des systèmes tiers, les écoles restent responsables en tant que déployeurs. « Posez des questions difficiles », a-t-il déclaré. « Obtenez la documentation claire dont vous avez besoin sur les mesures de conformité. »
Il a également exhorté les écoles à nommer une personne capable de diriger la gouvernance de l’IA. Il ne s’agit pas seulement d’une personne technique, mais d’une personne capable de comprendre la dimension éthique et de traduire la réglementation en pratique quotidienne.
Le message de conclusion de Matthew Wemyss était pratique : commencez dès maintenant, mais commencez intelligemment. « Vous n’avez pas besoin de tout résoudre d’un coup », a-t-il déclaré. « Mais vous devez savoir sur quoi vous travaillez. » Les écoles devraient viser la conformité d’ici août 2026. Attendre trop longtemps risque d’entraîner des décisions précipitées et de passer à côté de certains risques.
La stratégie plutôt que le battage médiatique
Ensuite, l’auteure et consultante en éducation Philippa Wraithmell a orienté la conversation dans une nouvelle direction. Elle a travaillé avec des écoles de Dubaï à Dublin, les aidant à utiliser les outils numériques à bon escient. Son message principal est de ne pas confondre activité et stratégie.
L’IA n’est pas utile simplement parce qu’elle existe. Elle est utile lorsqu’elle est associée à un objectif. Philippa Wraithmell a montré comment certaines écoles y parviennent. Elles n’utilisent pas l’IA uniquement pour accélérer la notation. Elles l’utilisent pour personnaliser le soutien, élaborer de meilleurs plans de cours et donner aux enseignants un aperçu réel de la manière dont les élèves apprennent.
Cependant, rien de tout cela ne se fait par hasard. Cela nécessite une planification. Cela nécessite une formation. Cela nécessite de la confiance. Philippa Wraithmell a souligné que la confiance doit commencer par les enseignants. S’ils ne se sentent pas en confiance, la technologie ne sera pas adoptée. C’est la raison pour laquelle elle recommande de commencer modestement. Des projets pilotes. Du coaching. Du temps pour réfléchir. Et toujours, un espace pour que les enseignants et les élèves puissent construire ensemble.
L’un des conseils les plus pratiques qu’elle a donnés est une simple matrice de décision. Pour chaque idée d’IA, les écoles doivent se poser les questions suivantes : cela soutient-il les objectifs d’apprentissage ? Les données sont-elles sécurisées ? Les enseignants se sentent-ils à l’aise pour l’utiliser ? Si les trois cases ne sont pas cochées, il faut attendre.
Son argument le plus convaincant est venu à la fin. « Si votre stratégie en matière d’IA n’inclut pas l’ensemble de la communauté scolaire, alors ce n’est pas vraiment une stratégie. »
Gouvernance éclairée
Al Kingsley est intervenu en dernier. Il occupe depuis des décennies des postes de direction dans le domaine de l’éducation, tant dans le secteur technologique que dans les écoles, et est un auteur prolifique. Il a mis l’accent sur la gouvernance, cet aspect de la direction scolaire qui reste trop souvent dans l’ombre.
Al Kingsley a expliqué que les écoles ont besoin de plus que d’un simple leadership. Elles ont besoin de structures qui favorisent la prise de bonnes décisions. Qui approuve les nouveaux outils ? Qui contrôle leur impact ? Qui veille à ce que les politiques restent à jour ?
Il a présenté un modèle de maturité que les conseils d’administration peuvent utiliser pour évaluer leur état de préparation. Sont-ils passifs ? Réactifs ? Stratégiques ? La plupart se situent quelque part entre les deux. Al Kingsley les a mis au défi d’aller plus loin. Il a rappelé à tous que si les personnes qui prennent les décisions ne comprennent pas l’IA, elles finiront par laisser quelqu’un d’autre décider à leur place.
Il a plaidé en faveur d’une formation continue. Les dirigeants et les administrateurs ont besoin de temps et d’espace pour apprendre. Sinon, l’école avancera avec un angle mort numérique.
Il a également souligné la nécessité d’impliquer les parents dans la conversation. Les familles veulent être rassurées. Elles veulent savoir comment l’IA est utilisée. Et pourquoi. Al Kingsley a déclaré que les écoles doivent être prêtes à expliquer les deux. Pas avec du jargon, mais avec clarté. Avec des exemples. Avec honnêteté.
L’état d’esprit prime sur les outils
Ce n’est pas une réponse unique qui a permis de donner une cohérence à l’ensemble de la conférence. C’est un état d’esprit. L’IA est là. Cependant, c’est la manière dont les écoles y répondront qui déterminera si elle deviendra un outil de changement ou une source de confusion.
Ce n’est pas le moment pour le secteur éducatif de poser de meilleures questions. De quoi nos élèves ont-ils besoin ? De quoi nos enseignants ont-ils besoin ? Comment voulons-nous que l’apprentissage se déroule ?
Les écoles qui prospéreront ne seront pas celles qui agiront le plus rapidement. Ce seront celles qui agiront avec intention.
Cela signifie fixer des objectifs avant de télécharger des outils. Cela signifie écouter les enseignants avant de rédiger des politiques. Et cela signifie être honnête sur ce qui fonctionne et ce qui ne fonctionne pas.
Et maintenant ? Utilisez ce que vous avez. Apprenez ce que vous ne savez pas. Invitez toute votre communauté à participer. Et faites tout cela comme si l’avenir en dépendait parce que c’est le cas.
Cet article fournit des informations générales sur la loi européenne sur l’IA et ne doit pas être considéré comme un avis juridique. Les établissements d’enseignement doivent consulter un conseiller juridique qualifié pour obtenir des conseils spécifiques en matière de conformité.
Une contribution de Dan Fitzpatrick pour Forbes US, traduite par Flora Lucas
À lire également : IA génératives : les moteurs de recherche mis à mort ?

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits