logo_blanc
Rechercher

ChatGPT : va-t-on vers une redéfinition de notre humanité ?

IA

L’avènement des modèles de langage – LLM, marque une évolution dans notre intégration de l’IA, et soulève des questions quant à l’avenir de l’emploi et la relation entre l’homme et la machine.

 

Si certaines craintes sont légitimes, elles ne doivent pas obscurcir notre vision de l’avenir : en ce sens, continuer à nous positionner en concurrence de la machine – voir à agir comme elle, contribue seulement à davantage alimenter nos peurs au gré de l’évidence toujours plus claire qu’une telle compétition est perdue. Plutôt que de céder à une défiance, chacun doit ainsi saisir l’opportunité que nous offre l’IA de nous recentrer sur ce qui fait l’essence de notre humanité. Que cela soit dans sa conception ou son usage, comprendre le fonctionnement de ces modèles et leurs différences par rapport au cerveau humain, et amorcer le repositionnement de notre expertise, ouvre de brillantes perspectives. 

Un entraînement « humain » Si ChatGPT surprend par sa capacité à produire des réponses d’un naturel qui rappelle celui des Hommes – allant jusqu’à catalyser un anthropomorphisme toujours plus marqué, il convient de rappeler l’importance accordée à l’expertise humaine dans son entraînement, contrairement à d’autres modèles (e.g., BERT). En ce sens, en plus du masquage de langage, qui consiste à cacher des mots dans des phrases diverses et à donner au modèle la tâche de découvrir les mots cachés, l’entraînement de ChatGPT requiert que des humains évaluent les résultats en fonction de divers critères tels que la pertinence des réponses, l’éthique et le respect des valeurs humaines. Une fois cette première étape terminée, l’apprentissage par renforcement est utilisé afin d’améliorer les performances du modèle : ici, le principe est alors de donner des récompenses au modèle, positives ou négatives, en fonction de ses actions. C’est par l’intégration de ces récompenses que le modèle apprend les règles et les bonnes stratégies de réponses. Dans le cas de ChatGPT, plus les réponses générées sont compatibles avec celles données par le modèle de récompense, qui a appris les préférences humaines, plus le modèle est récompensé. Aussi, ce processus de conception démontre l’importance de l’expertise humaine dans l’entraînement, pour assurer performance et éthique. Les modèles qui n’incluent pas ces préférences humaines dans leur entraînement continuent ainsi d’avoir des difficultés pour atteindre des performances aussi bonnes que celles d’une personne. Par exemple, de récentes recherches menées par Meta montrent que : (1) grâce au masque de langage, les LLM sont capables de construire une représentation des mots en considérant le contexte proche, comme peut le faire le cerveau, (2) toutefois, le cerveau est lui capable d’enrichir cette première couche de représentation, en considérant un contexte temporel et une hiérarchie plus importante, afin de construire une compréhension plus riche du texte. Les LLM qui n’incluent pas les étapes de renforcement fondées sur les préférences humaines sont ainsi incapables d’atteindre cette compréhension sophistiquée. 

Par ailleurs, les LLM sont des perroquets stochastiques qui se basent sur des probabilités, et n’ont pas de capacité de planification, de conscience ou d’actualisation de l’information. Par exemple, les informations qui nous parviennent (e.g., le résultat d’un match) sont mises à jour de manière immédiate par notre cerveau, afin d’optimiser notre capacité à prédire des évènements futurs. Ainsi, quand nous sommes surpris par une information, l’hippocampe – structure du cerveau associée à la mémoire, comprend qu’il est temps de restructurer l’information, et passe d’un mode de préservation à un mode d’actualisation. Les LLM n’ont pas cette plasticité : composés de milliards de paramètres, il est impossible de savoir quel paramètre actualiser pour mettre à jour l’information, et un ré entraînement complet serait coûteux. Une partie de la recherche sur les LLM est ainsi consacrée à dépasser ces limites, afin de s’approcher au plus près des capacités différenciantes du cerveau.

 

IA

 

Un renouveau de notre expertise 

Utilisées de manière éclairée et complémentaire de nos propres qualités, l’IA générative et les LLM peuvent significativement augmenter nos capacités. Une recherche publiée par des chercheurs du MIT, et qui étudie l’impact de ChatGPT dans la performance de travailleurs qualifiés sur des tâches de rédaction, démontre que l’usage de ChatGPT permet de : (1) réaliser la tâche plus rapidement, (2) créer des contenus qui sont jugés de meilleure qualité en termes d’écriture, de contenu et d’originalité, et (3) d’améliorer la satisfaction des travailleurs à compléter la tâche. Aussi, si l’outil a permis aux travailleurs à fortes capacités d’aller plus vite, il a surtout permis à d’autres, disposant initialement de plus faibles capacités, d’augmenter la qualité de leur production, au point de réduire l’écart de performance entre les moins bons et les meilleurs. D’autres recherches ont également pu mettre en lumière la capacité de l’IA à améliorer les décisions individuelles, ou encore la capacité des Hommes et de l’IA à s’enrichir mutuellement. Ces constats appellent à valoriser une cognition distribuée qui plaide la nécessité de l’expertise humaine dans un monde augmenté par l’IA. En ce sens, si l’IA est une percée technologique majeure, elle représente surtout une révolution humaine, et requiert un changement indispensable dans notre métacognition, notre humilité, et notre relation avec le monde. In fine, les technologies ne changent pas les sociétés – c’est leur réappropriation par l’Homme qui en fait des évolutions. 

Pour y parvenir, il est nécessaire de comprendre nos propres limites intellectuelles et nos complémentarités avec l’IA, d’affirmer notre curiosité plutôt que notre fierté, ou encore d’apprendre à poser les bonnes questions. Chacun, dans son cheminement émotionnel, doit ainsi développer son esprit critique pour être en mesure de comprendre les biais potentiels d’une IA, mais aussi ses propres biais humains. La question n’étant pas de savoir si l’IA est parfaite, mais plutôt de savoir si elle permet de faire mieux que le statu quo humain. L’émancipation intellectuelle devient alors un levier essentiel pour se forger une compréhension éclairée des potentiels de l’IA, mais aussi de ses zones d’ombre. En ce sens, l’IA ouvre à tous des possibilités extraordinaires d’accès à la connaissance, et se veut un levier d’apprentissage exceptionnel. Charge à nous de transformer ces atouts en actions concrètes et bénéfiques : c’est là notre part d’humanité et d’expertise. La réelle menace n’est donc pas l’IA en elle-même, mais que nous essayons de nous transformer en automate : conserver un avantage sur les machines, c’est avant tout de ne pas agir comme elle. C’est donc le moment, pour nous en tant qu’humain, de réellement comprendre, et redessiner la place réelle de notre expertise, du travail et de notre humanité.

Une tribune rédigée par:  Emeric Kubiak, Head of Science chez AssessFirst & Tales Marra, Machine Learning Engineer chez AssessFirst 

 

<<< A lire également: Chat GPT impacte-t-il l’enseignement supérieur ? >>> 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC