Rechercher

Anthropic poursuit ses efforts pour intégrer l’IA dans l’enseignement

Claude
Claude Anthropic. | Source : Getty Images

En toute honnêteté, l’IA a déjà fait son entrée dans les salles de classe. Google, Microsoft, OpenAI et Anthropic ont tous mis les bouchées doubles. Anthropic, la société à l’origine du chatbot IA Claude, fait de nouvelles annonces qui renforcent encore cette tendance. Le changement n’est plus subtil. Il est rapide, retentissant et il se produit, que les écoles soient prêtes ou non.

 

Et cela ne concerne pas seulement les géants de la technologie. Le gouvernement américain agit également en faveur de l’intégration de l’IA dans l’enseignement.

 


L’équilibre entre innovation et sécurité

Il y a de quoi s’inquiéter, et pour cause. Certes, les avantages sont indéniables. Tutorat par IA, allègement de la charge de travail des enseignants, parcours d’apprentissage plus personnalisés pour les élèves. Tout cela semble formidable. Cependant, il y a un revers à la médaille. Des erreurs pourraient aggraver les inégalités existantes en matière d’éducation. Et une fois le mal fait, il est difficile de revenir en arrière.

De nombreux décideurs politiques prennent les devants. Ils élaborent des garde-fous éthiques, militent pour un accès équitable et commencent à financer des recherches sur ce que pourrait être une utilisation responsable de l’IA dans l’éducation. Il ne s’agit pas d’une simple opération de relations publiques, mais d’un enjeu très concret.

Pendant ce temps, les entreprises technologiques avancent à grands pas. Google distribue gratuitement des outils d’IA aux écoles, dans le but évident d’élargir son audience. La stratégie est simple : supprimer les obstacles et prendre les devants. Microsoft, OpenAI et Anthropic se sont associés pour créer une académie nationale d’IA destinée aux enseignants. Ces entreprises reconnaissent ainsi que ce ne sont pas les outils, mais les personnes qui les utilisent qui déterminent le succès. Les enseignants ne sont pas facultatifs dans cette équation. Ils en sont au contraire essentiels.

 

Les nouvelles initiatives de Claude en matière d’enseignement

Les récentes initiatives de Claude for Education mettent en évidence ce à quoi pourrait ressembler une intégration efficace. Grâce à l’intégration de Canvas, les étudiants n’ont plus besoin de se connecter à une autre plateforme ni de jongler entre plusieurs fenêtres. Claude fonctionne simplement dans l’environnement qu’ils utilisent déjà. Ce type de technologie invisible pourrait bien s’imposer à long terme.

Il y a ensuite le partenariat avec Panopto. Les étudiants peuvent désormais accéder aux transcriptions des cours directement dans leurs conversations Claude. Posez une question sur un concept abordé en classe et Claude peut immédiatement extraire les sections pertinentes. Plus besoin de revoir tout le cours ou de parcourir les timecodes. C’est comme si chaque étudiant disposait de son propre assistant de recherche.

Et ils sont allés encore plus loin. Les chercheurs et les étudiants pourront utiliser Claude pour puiser dans les immenses collections Wiley de sources académiques. Les outils d’IA sont souvent critiqués pour produire des informations peu fiables ou trompeuses. Cependant, grâce à l’accès à un contenu vérifié et de haute qualité, les réponses de Claude deviennent plus fiables. Dans un monde où l’information erronée abonde, cela est plus important que jamais.

Josh Jarrett, vice-président senior chargé de la croissance de l’IA chez Wiley, a souligné ce point :

« L’avenir de la recherche dépend du maintien d’un contenu de haute qualité et évalué par des pairs au cœur de la découverte alimentée par l’IA. Ce partenariat établit la norme en matière d’intégration de contenu scientifique fiable dans les plateformes d’IA. »

Claude for Education est également en train de créer un mouvement populaire sur les campus. Son programme d’ambassadeurs étudiants se développe rapidement et de nouveaux clubs Claude Builder voient le jour dans les universités du monde entier. Il ne s’agit pas de bootcamps de codage ou de cours formels, mais d’espaces ouverts où les étudiants explorent ce qu’ils peuvent réellement créer avec l’IA. Ateliers, soirées de démonstration et constructions en groupe.

Ces clubs sont ouverts à tous, pas seulement aux étudiants en informatique. Les outils de Claude sont suffisamment accessibles pour que les étudiants de tous les domaines, de la philosophie au marketing, puissent commencer à créer. Cette ouverture contribue à faire de l’IA une technologie moins élitiste et plus accessible à tous, qui peut être utilisée de manière créative.

La confidentialité est également un thème important ici. Claude semble faire les choses correctement. Les conversations sont privées, elles ne sont pas utilisées pour l’entraînement des modèles et tout partage de données avec les écoles nécessite une autorisation formelle. Les étudiants doivent se sentir en sécurité lorsqu’ils utilisent des outils d’IA. Sans cette confiance, rien de tout cela ne peut fonctionner à long terme.

À la faculté de droit de l’université de San Francisco, les étudiants travaillent avec Claude pour analyser des arguments juridiques, cartographier des preuves et préparer des scénarios de procès. Il s’agit d’une formation essentielle pour les emplois qu’ils occuperont après l’obtention de leur diplôme. Au Royaume-Uni, l’université de Northumbria s’engage également dans cette voie. Elle met l’accent sur l’équité, l’accès au numérique et la préparation des étudiants à un monde du travail déjà façonné par l’IA.

Graham Wynn, vice-chancelier chargé de l’éducation à l’université de Northumbria, met l’accent sur l’aspect éthique de l’IA :

« La disponibilité d’outils d’IA sécurisés et éthiques est un facteur important pour nos candidats, et notre investissement dans Claude for Education permettra à Northumbria de se positionner comme un leader avant-gardiste dans le domaine de l’innovation éthique en matière d’IA. »

Ils considèrent des outils tels que Claude non seulement comme des compléments éducatifs, mais aussi comme faisant partie d’une stratégie plus large visant à favoriser la mobilité sociale et à réduire la pauvreté numérique. Si vous prenez au sérieux l’IA dans l’éducation, c’est le niveau de réflexion qu’il faut avoir.

 

Éviter la complexité et combler les lacunes

La vérité fondamentale est simple. Le rôle de l’IA dans l’enseignement prend de l’ampleur, que nous le voulions ou non. La technologie devient plus performante. L’infrastructure est en cours de construction. Cependant, ce qui doit encore évoluer, c’est une culture d’utilisation responsable. Le défi pour l’enseignement n’est pas de rechercher un outil encore plus intelligent, mais de veiller à ce que les outils dont nous disposons servent tous les élèves de manière égale.

Cela signifie écouter les enseignants. Cela signifie concevoir dès le départ dans une optique d’inclusion. Cela signifie veiller à ce que l’IA devienne un outil qui autonomise les élèves, et non une couche supplémentaire de complexité.

Les prochaines années seront déterminantes. Si nous réussissons, l’IA pourrait contribuer à combler des lacunes de longue date dans l’enseignement. Si nous échouons, nous risquons de les aggraver d’une manière que nous regretterons plus tard.

Il ne s’agit pas seulement d’une question technologique. C’est une question humaine. Et les décisions prises aujourd’hui auront des répercussions pendant longtemps.

 

Une contribution de Dan Fitzpatrick pour Forbes US, traduite par Flora Lucas


À lire également : L’enseignement privé pas réellement plus efficace que l’enseignement public

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC