Rechercher

L’IA réécrit la réalité, mot par mot

IA
IA et langage. | Source : Getty Images

Le langage est le fondement des affaires, de la culture et de la conscience. Cependant, l’IA ne se contente pas d’utiliser nos mots, elle les remodèle. Discrètement, subtilement, elle démantèle l’architecture de la pensée en érodant ce que nous avions l’habitude de considérer comme acquis : les noms.

 

Nous avions l’habitude de croire que donner un nom à quelque chose lui conférait un pouvoir. Donner un nom à une chose, c’est lui attribuer une signification, une identité et un souvenir. Cependant, à l’ère de l’IA, les noms se dissolvent : ils ne sont ni interdits ni effacés, mais rendus fonctionnellement obsolètes. Et avec eux, notre emprise sur la réalité commence à s’effriter.

 

L’IA et l’architecture de la pensée

L’IA ne voit pas le monde à travers les choses. Elle le voit à travers des schémas : des actions, des probabilités et des incitations. Une chaise n’est plus un objet, c’est « quelque chose sur lequel on s’assoit ». Le soi n’est plus une identité, c’est « un ensemble de comportements et de préférences ». Même les marques, autrefois des noms enveloppés de mythologie, sont reconstituées sous forme de verbes. Vous n’avez pas une marque. Vous faites une marque.

Ce changement linguistique n’est pas neutre. Il s’agit d’un effondrement des repères conceptuels. Dans les systèmes génératifs, les noms ne sont pas des centres de gravité. Ils sont des échafaudages pour l’action. Cela reflète une tendance plus large dans la manière dont l’IA générative remodèle la communication dans tous les secteurs. À mesure qu’ils s’estompent, la permanence, la paternité et l’idée de signification fixe disparaissent également.

Des recherches récentes confirment cette tendance. Une étude intitulée Playing with Words: Comparing the Vocabulary and Lexical Richness of ChatGPT and Humans (Jouer avec les mots : comparaison du vocabulaire et de la richesse lexicale de ChatGPT et des humains) a révélé que les productions de ChatGPT présentent une diversité lexicale nettement inférieure à celle de l’écriture humaine. En particulier, les noms et les mots stylistiques spécifiques sont souvent sous-utilisés, ce qui suggère que les systèmes génératifs privilégient un langage prévisible et couramment utilisé, au détriment des termes moins fréquents.

Une analyse plus approfondie de 14 millions de résumés PubMed a révélé un changement mesurable dans la fréquence des mots après l’adoption de l’IA. Des mots tels que « delves » (explorer) et « showcasing » (présenter) ont fait leur apparition, tandis que d’autres ont disparu, ce qui montre que les grands modèles linguistiques sont déjà en train de remodeler les schémas lexicaux à grande échelle.

 

Les ancêtres philosophiques de l’IA : Orwell, Huxley et l’avenir dont ils nous ont mis en garde

Pour comprendre leur pertinence, il est utile de rappeler ce qui a rendu George Orwell et Aldous Huxley célèbres. George Orwell est l’auteur de 1984, une vision sombre de l’avenir où un régime autoritaire utilise le langage comme une arme pour réprimer la pensée indépendante et réécrire l’histoire.

Son concept de « novlangue », un langage restreint et simplifié conçu pour rendre la dissidence impensable, est devenu un symbole culturel du contrôle manipulateur.

De son côté, Aldous Huxley a écrit Le Meilleur des mondes, qui imaginait une société non pas caractérisée par une oppression manifeste, mais plutôt par un plaisir artificiel, la distraction et la conformité passive. Dans son monde, les gens sont conditionnés à la soumission non pas par la violence, mais par le confort, le divertissement et la sédation chimique.

Les deux hommes ont anticipé un avenir dans lequel le langage et le sens seraient compromis, mais de manière radicalement différente. Ensemble, ils ont tracé les deux pôles de la manière dont la réalité peut être reconditionnée : par la force ou par l’indulgence.

Peu de gens savent que George Orwell a été l’élève d’Aldous Huxley. À la fin des années 1910, alors que George Orwell (alors Eric Blair) étudiait à Eton, Aldous Huxley lui enseignait le français. Leur relation fut brève, mais prophétique. Des décennies plus tard, chacun allait écrire une œuvre visionnaire sur la dystopie : 1984 et Le Meilleur des mondes.

Après avoir lu 1984, Aldous Huxley écrivit à George Orwell un message troublant :

« Pourtant, en réalité, je doute que la politique de la “botte piétinant le visage” puisse durer indéfiniment. […] La soif de pouvoir peut être tout aussi bien satisfaite en suggérant au peuple d’aimer sa servitude plutôt qu’en le frappant et le flagellant pour qu’il obéisse. »

Et c’est précisément là où nous en sommes aujourd’hui.

George Orwell craignait le contrôle par la surveillance et la terreur. Aldous Huxley craignait le contrôle par l’indulgence et la distraction. L’IA générative, sous couvert d’utilité, incarne les deux. Elle ne censure pas. Elle séduit. Elle n’a pas besoin de novlangue pour supprimer des idées. Elle les remplace par des prédictions.

Dans 1984, le langage était utilisé comme une arme par la force. Dans notre monde, il est remodelé par la suggestion. Ce que nous avons n’est pas une intelligence artificielle, mais une inférence artificielle : entraînée non pas à comprendre, mais à remixer, non pas à raisonner, mais à simuler.

Et cette simulation nous conduit à une perte plus profonde encore : l’intersubjectivité.

 

L’IA et la perte de l’intersubjectivité

Les êtres humains apprennent, grandissent et construisent la réalité grâce à l’intersubjectivité, ce contexte commun qui donne tout son sens au langage. Elle nous permet de partager du sens, de nous mettre d’accord sur la signification d’un mot et de développer une compréhension mutuelle à travers des expériences communes. Sans elle, les mots flottent dans le vide.

L’IA ne participe pas à l’intersubjectivité. Elle ne partage pas le sens, elle prédit le résultat. Et pourtant, lorsqu’une personne pose une question à une IA, elle pense souvent que la réponse reflète sa propre perception. Ce n’est pas le cas. Elle reflète la moyenne des moyennes, le fantôme statistique de la compréhension. L’illusion de la compréhension est précise, polie et totalement vide.

C’est ainsi que l’IA reconditionne la réalité à grande échelle, non par la force, mais par l’imitation.

Le résultat ? Une lente et silencieuse érosion de l’originalité. Les noms perdent leur sens. Les idées perdent leurs repères. La paternité littéraire se fond dans la suggestion. Et la vérité devient ce que le modèle dit le plus souvent.

 

IA et responsabilité : une étude de cas sur la confiance et la mauvaise communication

Dans un exemple récent rendu public, Air Canada a déployé un chatbot alimenté par l’IA pour traiter les demandes du service client. Lorsqu’un client a demandé des informations sur les réductions accordées en cas de décès, le chatbot a inventé avec assurance une politique qui n’existait pas. La compagnie aérienne a d’abord tenté d’échapper à ses responsabilités, mais le tribunal en a décidé autrement. En février 2024, un tribunal a jugé Air Canada responsable des informations erronées fournies par son chatbot.

Il ne s’agissait pas seulement d’un problème technique, mais d’un manque de confiance. Le texte généré par l’IA semblait plausible, utile et humain, mais il manquait de fondement dans la politique, le contexte ou la compréhension commune. En effet, la compagnie aérienne a tenu un double discours, ce qui lui a coûté cher. C’est le risque lorsque le langage est généré sans intersubjectivité, sans supervision et sans friction.

 

La dérive linguistique de l’IA : ce que les données nous apprennent sur le déclin du langage

Ce n’est pas seulement une théorie : des recherches quantifient désormais la manière dont les systèmes d’IA générative modifient le paysage linguistique lui-même. L’étude Playing with Words: Comparing the Vocabulary and Lexical Richness of ChatGPT and Humans (Jouer avec les mots : comparaison du vocabulaire et de la richesse lexicale de ChatGPT et des humains) a révélé que les productions générées par l’IA utilisent systématiquement un vocabulaire plus restreint, avec nettement moins de noms et de mots stylistiques que les écrits humains.

Sur cette base, une analyse de plus de 14 millions de résumés PubMed a révélé des changements mesurables dans la fréquence des mots suite à l’essor de l’utilisation des LLM. Alors que de nombreux noms techniques précis ont disparu, des termes tels que « delves » (explorer) et « showcasing » (présenter) ont fait leur apparition. Ce changement n’est pas aléatoire : il s’agit d’un appauvrissement statistique du langage, où les termes standard, orientés vers l’action ou stylistiques sont favorisés, tandis que la spécificité est mise de côté.

Certains chercheurs établissent un lien entre ce phénomène et un problème plus large connu sous le nom d’« effondrement des modèles ». À mesure que les modèles d’IA sont de plus en plus entraînés sur des données synthétiques, y compris leurs propres résultats, ils peuvent se dégrader au fil du temps. Cela conduit à une boucle de rétroaction où un langage moins diversifié et moins riche sémantiquement devient la norme. Il en résulte une réduction mesurable de la diversité lexicale, syntaxique et sémantique, qui constitue le fondement même du sens et de la précision.

Les implications sont vastes. Si les systèmes d’IA déprioritisent les noms à grande échelle, alors les structures que nous utilisons pour contenir les idées (les personnes, les lieux, les identités et les concepts) s’érodent. En temps réel, nous assistons à la redéfinition de l’infrastructure grammaticale de la pensée humaine par des machines qui ne pensent pas.

 

Ce que le changement linguistique induit par l’IA signifie pour les marques et la stratégie commerciale

L’érosion de la précision linguistique a des implications importantes pour les entreprises, en particulier celles qui s’appuient sur le storytelling, l’image de marque et une communication efficace. Les marques reposent sur la cohérence narrative, ancrée dans des noms, des identités et des associations qui acquièrent une importance culturelle au fil du temps.

Cependant, à mesure que les systèmes d’IA normalisent le langage probabiliste et les formulations prédictives, même la voix des marques devient victime de cette convergence. La différenciation s’érode, les messages deviennent flous. La confiance devient plus difficile à gagner et plus facile à imiter.

Comme le souligne un article de Forbes, il existe de sérieuses raisons pour lesquelles les marques doivent se montrer prudentes avec l’IA générative lorsqu’il s’agit de préserver leur authenticité et leur voix. Les spécialistes du marketing pourraient se retrouver à lutter non pas pour attirer l’attention, mais pour préserver leur authenticité dans un océan de fluidité synthétique.

De plus, les plateformes de contenu alimentées par l’IA sont optimisées pour l’engagement, et non pour le sens. Les entreprises qui s’appuient sur les LLM pour générer du contenu destiné aux clients risquent d’uniformiser leur singularité au profit de ce qui est statistiquement sûr. Sans supervision humaine, le langage des marques peut dériver vers le générique, le probable et l’oubliable.

 

Comment préserver le sens à l’ère de l’IA

Résistez à l’uniformisation. Les entreprises comme les particuliers doivent retrouver l’intentionnalité dans le langage. Voici comment et pourquoi c’est important.

Si vous ne définissez pas la voix de votre marque, l’IA la réduira à une moyenne. Si vous ne protégez pas le langage de vos contrats, l’IA le remixera. Si vous ne gérez pas votre culture, l’IA vous la renverra, statistiquement sûre, mais spirituellement vide.

  • Misez sur la création humaine: ne confiez pas votre voix à un modèle. Utilisez l’IA pour enrichir, pas pour remplacer.
  • Protégez l’originalité linguistique: encouragez la spécificité, les métaphores et la diversité lexicale dans votre communication. Les noms ont leur importance.
  • Vérifiez vos résultats : examinez régulièrement les documents générés par l’IA. Recherchez les signes de dérive (votre langage a-t-il perdu de son mordant ?).
  • Investissez dans la protection de la langue: traitez le lexique de votre marque comme une propriété intellectuelle (PI). Définissez-le. Défendez-le.
  • Prônez l’intersubjectivité: autorisez le partage de contexte dans les communications personnelles et professionnelles. L’IA peut simuler, mais seuls les humains peuvent donner du sens.

 

La nécessité de la friction : pourquoi l’implication humaine doit tempérer l’IA

La friction n’est pas un défaut des systèmes humains, c’est une caractéristique. C’est là que le sens prend forme, que la pensée est mise à l’épreuve et que la créativité se débat avec l’incertitude. L’automatisation est un puissant accélérateur économique, mais sans pauses délibérées, sans intervention humaine, nous risquons de perdre les qualités qui font notre humanité. Le langage est l’une de ces qualités.

Chaque hésitation, chaque nuance, chaque choix de mot reflète la cognition, la culture et l’attention. Supprimez la friction, et vous supprimez l’humanité. L’IA peut offrir rapidité, fluidité et reconnaissance de schémas, mais elle ne peut pas fournir la présence, et c’est dans la présence que réside le sens.

 

Le refrain final de l’IA : un appel à se souvenir du sens

Emily M. Bender, professeure de linguistique informatique à l’université de Washington, s’est imposée comme l’une des critiques les plus éclairées et les plus visionnaires des grands modèles linguistiques. Dans son article désormais célèbre, coécrit avec d’autres auteurs, intitulé On the Dangers of Stochastic Parrots (Les dangers des perroquets stochastiques), elle affirme que ces systèmes ne comprennent pas le langage, mais se contentent de le remixer. Selon ses propres termes, ce sont des « perroquets stochastiques » : des machines qui génèrent un langage plausible sans compréhension ni intention.

Pourtant, nous laissons ces perroquets rédiger nos e-mails, écrire nos publicités et même façonner nos lois. Nous permettons à des modèles entraînés sur des approximations de devenir les arbitres de la communication, de la culture et de l’identité.

Ce n’est pas du langage, c’est de l’imitation à grande échelle. Et l’imitation, si elle n’est pas contrôlée, devient une distorsion. Lorsque les résultats de l’IA sont confondus avec la compréhension, la base même du sens s’érode. Le problème n’est pas seulement que l’IA puisse se tromper. C’est qu’elle semble tellement juste que nous cessons de la remettre en question.

Au nom de l’optimisation, nous risquons d’effacer la texture de la communication humaine. Nos métaphores, nos doubles sens, nos moments d’ambiguïté productive, voilà ce qui rend le langage vivant. Supprimez cela, et il ne reste qu’un flux d’échos consensuels et sans risque. Fonctionnel ? Oui. Pertinent ? Pas vraiment.

L’enjeu n’est pas seulement littéraire, il est existentiel. Si le langage est le tissu conjonctif entre la pensée et la réalité, et si ce tissu est remplacé par un échafaudage statistique, la pensée devient externalisée. Une fois aiguisées par la friction, nos voix s’estompent dans un océan de formulations plausibles.

Sans intersubjectivité, sans friction, sans noms, nous nous écrivons nous-mêmes hors de l’histoire, une suggestion automatique à la fois. Nous ne sommes pas réduits au silence. Nous sommes auto-complétés. Et le plus dangereux dans tout cela ? C’est nous qui l’avons demandé.

 

Avant de nous demander ce que l’IA pourra dire ensuite, nous devrions nous demander : qu’est-ce qui n’a pas encore été dit ?

Dans cette guerre silencieuse, nous ne perdons pas le langage d’un seul coup. Nous le perdons mot après mot, jusqu’à oublier que nous avions quelque chose à dire.

Michelle Garside, stratège de marque et conteuse, dont le travail couvre des marques valant des milliards de dollars et des fondateurs animés par une mission, partage son point de vue sur les risques liés à l’appauvrissement du langage sous l’effet de l’automatisation. Sa réponse est à la fois précise et profonde :

« Si le langage est en train d’être appauvri, nous avons besoin de plus de personnes qui font le contraire : creuser. Écouter ce qui est enfoui sous le bruit. Découvrir la phrase qui libère la personne. Ce n’est pas une consigne, c’est un processus. Et c’est un processus profondément humain.

Quand quelqu’un dit quelque chose qui touche, non pas parce que cela sonne bien, mais parce que c’est vrai. Vous pouvez le voir dans son corps. Vous pouvez le sentir dans le silence qui suit. Aucun algorithme ne peut reproduire cela, car ce moment n’est pas statistique. Il est sacré.

Le risque n’est pas seulement que l’IA se trompe. C’est qu’elle semble suffisamment juste pour nous empêcher d’aller plus loin. De nous empêcher de nous demander ce qui est réel. De nous empêcher de trouver les mots que nous seuls pouvons prononcer.

Nous n’avons pas besoin de plus de mots. Nous avons besoin de plus de sens. Et le sens ne se génère pas. Il se mémorise. »

En matière de langage et d’IA, c’est la ligne à suivre, non pas parce que cela sonne bien, mais parce que c’est vrai.

 

Une contribution de Jason Snyder pour Forbes US, traduite par Flora Lucas


À lire également : ChatGPT et les grands modèles de langages (LLM) : une révolution annoncée pour l’Enterprise Search

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC