logo_blanc
Rechercher

États-Unis : l’utilisation problématique de ChatGPT dans les demandes d’admission des étudiants

ChatGPTÉtats-Unis : l’utilisation problématique de ChatGPT dans les demandes d’admission des étudiants. Pixabay

Aux États-Unis, ChatGPT et d’autres IA génératives sont largement utilisés dans l’enseignement supérieur pour les admissions. Mais aujourd’hui, les étudiants qui se sont tournés vers l’IA pour écrire leurs candidatures se tournent à nouveau vers des personnes pour rendre leur travail plus humain, et les écoles n’arrivent plus à suivre.

Un article de Rashi Shrivastava et Alexandra S. Levine pour Forbes US – traduit par Lisa Deleforterie

 

Des termes comme « tapestry » (tapisserie) et d’autres expressions fleurissent et attirent l’attention des comités d’admission sur les candidats qui ont eu recours à l’IA pour rédiger leurs demandes d’admission à l’université ou en école supérieure cette année. Les étudiants se tournent à présent en masse vers des personnes pour ajouter une « touche humaine » à leurs soumissions.

« Le mot tapisserie en particulier est un signal d’alarme majeur dans le groupe de candidats de cette année », ont déclaré à Forbes plusieurs consultants en rédaction sur la plateforme Fiverr. Mike, ancien élève de l’Ivy League et ancien rédacteur en chef du Cornell Business Journal, qui révise aujourd’hui des centaines de demandes d’admission dans des écoles supérieures chaque année par l’intermédiaire de Capitol Editors, a déclaré que ce mot était apparu à plusieurs reprises dans les projets d’au moins 20 de ses clients au cours des derniers mois (il a demandé l’anonymat pour protéger leur vie privée).

« Je ne crois plus qu’il soit possible d’utiliser innocemment le mot tapisserie dans une rédaction ; si ce mot apparaît, c’est qu’il a été généré par ChatGPT », a-t-il déclaré à Forbes. Bien que de nombreux mots de ce type, pris isolément, puissent provenir d’un être humain, lorsqu’un œil averti les voit utilisés à maintes reprises dans plusieurs essais, « c’est un véritable signe révélateur ».

Cet hiver et ce printemps marquent la première saison complète d’admission aux États-Unis depuis l’explosion et l’adoption à grande échelle de ChatGPT et d’autres IA génératives. Dans le monde de l’éducation, les cas d’utilisation de la technologie, en croissance rapide, ont largement dépassé les politiques scolaires. Certains éducateurs tentent de repousser la technologie avec des politiques de « tolérance zéro », tandis que d’autres l’adoptent activement dans leurs classes (l’université d’État de l’Arizona, par exemple, s’est associée à OpenAIpour utiliser ChatGPT Enterprise dans le cadre du tutorat et des cours). Mais en l’absence de règles cohérentes et homogènes sur la manière dont l’IA peut être utilisée dans le processus de candidature, si tant est qu’elle le soit, et en l’absence d’outils capables de détecter de manière fiable si elle l’a été, de nombreux étudiants se sont tournés vers ChatGPT d’OpenAI et ses rivaux pour obtenir de l’aide. Ce phénomène a donné naissance à une industrie artisanale de consultants indépendants spécialisés dans l’élimination du jargon douteux de l’IA et dans l’élaboration de dissertations authentiques.

Forbes a interrogé plus de 20 universités publiques et privées de tailles diverses aux États-Unis, de Arizona State à Georgia Tech en passant par Princeton et Harvard, sur les tendances en matière d’utilisation de l’IA ou de ChatGPT dans les candidatures et sur la manière dont elles traitent les candidats susceptibles de s’en être servis. De nombreuses écoles ont refusé de commenter ou n’ont pas répondu ; Sylvia Carson, porte-parole d’Emory, a déclaré : « Il est trop tôt pour que nos responsables des admissions puissent formuler des observations claires ».

« Je ne crois plus qu’il soit possible d’utiliser innocemment le mot « tapisserie » dans une dissertation ; si ce mot apparaît, c’est qu’il a été généré par ChatGPT », explique Mike, consultant en rédaction et ancien rédacteur en chef du Cornell Business Journal.

Des consultants en rédaction ont expliqué à Forbes que s’ils étaient capables de repérer une utilisation suspecte de l’IA après avoir lu des dizaines ou des centaines de dissertations, les comités d’admission qui en examinent de nombreuses autres pourraient avoir encore plus de facilité à déceler ces schémas. Ben Toll, doyen des admissions de premier cycle à l’université George Washington, a expliqué à quel point il est facile pour les responsables des admissions de repérer les candidatures rédigées par l’IA.

« Lorsque l’on lit des milliers de dissertations au fil des ans, celles qui sont influencées par l’IA se démarquent », a déclaré M. Toll à Forbes. « Elles peuvent ne pas attirer l’attention du lecteur occasionnel, mais du point de vue de l’examen d’une demande d’admission, elles sont souvent inefficaces et constituent une occasion manquée pour l’étudiant. »

En fait, le personnel chargé des admissions à la GWU a suivi cette année une formation sur des exemples de dissertations, dont une rédigée avec l’aide de ChatGPT, a déclaré M. Toll, et il a fallu moins d’une minute à un membre du comité pour la repérer.

 

À la recherche d’une « touche humaine »

En décembre 2023, une demande inhabituelle est apparue sur le compte Fiverr d’Indiana Pejic : « Pourriez-vous éditer et relire ma déclaration personnelle de 1 000 mots ? Je l’ai partiellement écrite avec ChatGPT et j’apprécierais que vous la rendiez moins robotique ». La demande émanait d’un étudiant coréen candidat à un doctorat en littérature de la Renaissance à l’université de Cambridge.

Mme Pejic, une travailleuse indépendante serbe titulaire de trois maîtrises et d’un doctorat, a révisé une centaine de déclarations personnelles et de dissertations universitaires par l’intermédiaire de Fiverr. Bien qu’elle ait d’abord craint que son activité ne soit affectée par l’apparition de ChatGPT, la réalité a été tout autre : le boom de l’IA a alimenté une demande sans précédent pour des rédacteurs capables de faire passer des écrits générés par ordinateur pour des écrits réels. « ChatGPT est extrêmement verbeux », dit-elle, et « il y a beaucoup de mots abstraits qui n’ont pas vraiment de liens entre eux ». Aujourd’hui, elle facture jusqu’à 100 dollars (93 euros) pour corriger les essais rédigés par l’IA. (D’autres personnes proposant des services similaires sur Fiverr facturent entre 10 et 150 dollars, en fonction de la longueur de l’essai).

Lara Cantos, rédactrice et traductrice au Mexique, explique qu’elle a vu tellement de groupes de mots et de constructions de phrases répétitifs qu’elle a créé un glossaire des termes qui reviennent souvent avec l’utilisation de l’IA. « Il s’agit d’une terminologie spécifique et d’une structure de phrase qui se répète. On retrouve également souvent les mêmes adjectifs », a-t-elle expliqué. (Elle affirme que le terme tapisserie apparaît régulièrement).

Mike, de Capitol Editors, explique qu’il a lui aussi dressé une liste. Il s’agit notamment de décrire quelque chose qui « correspond parfaitement à mes aspirations » ou qui « découle d’une passion profonde », ou encore de faire référence à ses « prouesses en matière de leadership », à son « parcours entrepreneurial/éducatif » et à son « engagement en faveur de l’amélioration continue et de l’innovation ».

Tous les consultants avec lesquels Forbes s’est entretenu ont déclaré que les outils d’IA sont assez populaires parmi les étudiants étrangers qui demandent à être admis à l’étranger et qui se tournent vers des outils comme ChatGPT parce que l’anglais n’est pas leur première langue. Dans certains cas, ils donnent à l’IA des idées ou des messages dans leur langue maternelle pour commencer à rédiger un premier projet ; dans d’autres cas, ils s’appuient davantage sur la technologie. « Je viens de recevoir une commande d’un étudiant suisse qui postule pour les États-Unis avec un essai généré par ChatGPT », a déclaré M. Cantos à Forbes. « Certains contenus rédigés par l’IA ressemblent à des traductions littérales. »

 

Le Far West de l’enseignement supérieur

Alors que les outils d’IA capables de rédiger et d’affiner de grands blocs de texte continuent de se développer à une vitesse fulgurante – devenant à la fois plus performants et plus difficiles à détecter – les écoless’efforcent de suivre le rythme et de parvenir à un consensus sur la manière de les aborder. Pendant ce temps, les étudiants cherchent des politiques plus claires (et repoussent les limites) sur ce qu’ils peuvent et ne peuvent pas faire avec ces outils.

« Je ne pense pas qu’il existe une approche cohérente du problème », a déclaré Chris Reed, directeur exécutif des admissions à Texas A&M.

Chaque bureau d’admission a des règles différentes sur l’utilisation de l’IA dans les candidatures, qu’il s’agisse de la politique stricte de « tolérance zéro » de l’université de Californie du Sud, de la position de Georgia Tech selon laquelle les étudiants sont autorisés à utiliser l’IA comme « collaborateur utile » ou de la position de Texas A&M selon laquelle les candidats peuvent soumettre du contenu généré par l’IA parce que l’université s’est éloignée de l’utilisation de la dissertation universitaire standard comme échantillon d’écriture. (En fait, l’un des objectifs du programme de spécialisation de Texas A&M est d’utiliser une plateforme d’IA telle que ChatGPT ou Google Bard pour rédiger une dissertation, puis d’évaluer la qualité de la présentation d’un argument).

« Cela dépend en grande partie de chaque établissement et de la manière dont il utilise les essais dans son processus », a déclaré M. Reed, de Texas A&M, en précisant qu’environ 30 % des essais d’admission qu’il reçoit actuellement utilisent l’IA d’une manière ou d’une autre, selon l’outil de détection de l’IA GPTZero.

D’autres universités sont moins souples. À l’université de Californie, qui compte 10 campus dans tout l’État, les futurs étudiants peuvent utiliser l’IA pour faire un brainstorming et créer un plan, mais la version finale doit être « rédigée de manière indépendante » – et les réponses qui incluent par exemple un copier-coller direct de ChatGPT pourraient être signalées comme plagiat, selon la porte-parole Rachel Zaentz. « Cela représenterait plus de travail pour les candidats d’essayer de construire une réponse solide à partir de ChatGPT que de développer leurs propres réponses originales aux questions », a-t-elle ajouté.

La présidente de Common App, Jenny Rickard, a déclaré à Forbes : « Nous enquêtons sur toutes les allégations de fraude et, si elles sont fondées, nous prenons les mesures disciplinaires qui s’imposent ». Elle n’a pas précisé comment les cas éventuels de plagiat lié à l’IA sont examinés, mais elle a indiqué que la Common App n’utilisait pas d’outils de détection de l’IA. Les conséquences, cependant, peuvent être graves et les mesures disciplinaires comprennent le signalement des résultats à tous les établissements membres de la liste « My Colleges » de l’étudiant.

 

La détection, une science imparfaite

Il n’est pas étonnant que Common App ne s’appuie pas sur des outils qui promettent de supprimer le contenu généré par l’IA : il est encore notoirement imprécis, à tel point qu’OpenAI a fermé son propre logiciel de détection de l’IA. Les leaders dans ce domaine, comme GPTZero, ont changé de cap, offrant désormais aux écoles une analyse de haut niveau de la manière dont l’IA est utilisée dans les applications, plutôt que de mettre le doigt sur les rédactions problématiques. D’autres créateurs de logiciels de détection ont mis en garde contre l’utilisation de la technologie dans les admissions.

Eric Mitchell, doctorant à Stanford qui a créé DetectGPT, a parlé d’un « champ de mines total », avertissant que si la recherche sur les logiciels de détection est utile, les outils qui en résultent ne sont tout simplement pas prêts à être utilisés dans l’enseignement supérieur. « Les admissions à l’université sont un moment tellement critique dans la vie d’une personne », a-t-il déclaré dans une interview, et « le coût de la condamnation à tort de la rédaction de quelqu’un est tellement élevé, que je ne suis pas sûr que nous puissions accepter un taux de faux positifs de 2 % ». On ne sait pas exactement dans quelle mesure les écoles utilisent ce logiciel pour les admissions, mais M. Mitchell et Edward Tian, PDG de GPTZero, ont tous deux déclaré que des éducateurs avaient manifesté leur intérêt.

Comme la majorité des écoles contactées par Forbes pour cet article, le doyen des admissions de GWU n’a pas précisé si les outils de détection de l’IA faisaient partie de son processus d’examen. Il a toutefois recommandé aux futurs participants d’éviter ChatGPT et ses homologues.

« Au moment où l’étudiant remplit son dossier de candidature, la plupart des éléments ont déjà été fixés. Les candidats ne peuvent pas changer leurs notes. Ils ne peuvent pas remonter dans le temps et changer les activités auxquelles ils ont participé », explique M. Toll. Mais la rédaction est le seul élément sur lequel ils gardent le contrôle jusqu’au moment où ils appuient sur le bouton « Envoyer » du formulaire de candidature. « Je veux que les étudiants comprennent à quel point nous tenons à les connaître à travers leurs écrits et comment des outils tels que l’IA générative finissent par les priver de leur voix dans leur demande d’admission. »

 


À lire également : Le prochain compagnon de jeu de votre enfant pourrait être un jouet d’IA alimenté par ChatGPT

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC