Rechercher

La pensée critique est la clé d’une adoption réussie et intelligente de l’IA

IA
IA et pensée critique. | Source : Getty Images

Nous entrons dans une nouvelle ère où l’intelligence artificielle (IA) peut générer du contenu plus rapidement que nous ne pouvons appliquer notre esprit critique. En quelques secondes, l’IA peut résumer de longs rapports, rédiger des mails dans notre style et même générer des recommandations stratégiques. Cependant, si ces gains de productivité sont prometteurs, une question urgente se pose : pensons-nous moins parce que l’IA en fait plus ?

 

Les compétences cognitives dont nous avons le plus besoin dans un monde alimenté par l’IA sont précisément celles que ces outils risquent d’affaiblir. Lorsque la pensée critique passe au second plan, les conséquences peuvent être presque comiques, jusqu’à ce que votre entreprise fasse la une des journaux.

  • McDonald’s a mis fin à son projet pilote de drive-in alimenté par l’IA après que des clients ont signalé des erreurs étranges, comme le fait d’avoir été facturés 20 McNuggets pour une seule commande ou d’avoir reçu du ketchup avec leur glace.
  • Google a réduit sa fonctionnalité « AI Overviews » après que l’outil a suggéré d’utiliser de la colle pour empêcher le fromage de glisser de la pizza et de manger un caillou par jour.
  • Dans le cadre d’un procès contre Walmart, les avocats de Morgan & Morgan ont été sanctionnés par un juge fédéral après avoir présenté plusieurs fausses citations de jurisprudence générées par l’IA.
  • Le chatbot d’Air Canada a proposé une réduction pour décès qui n’existait pas. Lorsque la compagnie aérienne a refusé de l’honorer, le passager a intenté un procès et a obtenu gain de cause.

Ces défaillances dans le monde réel montrent ce qui peut arriver lorsque la pensée critique fait défaut.


À mesure que les modèles d’IA deviennent plus avancés et plus puissants, ils présentent des taux encore plus élevés d’hallucinations, rendant la supervision humaine encore plus cruciale. Et pourtant, une étude McKinsey de mars 2025 a révélé que seulement 27 % des entreprises déclaraient examiner 100 % des résultats de l’IA générative. Avec toute l’attention portée à la technologie elle-même, de nombreuses entreprises ne comprennent manifestement pas encore l’importance croissante de la supervision humaine.

 

Qu’est-ce que la pensée critique ?

Si la plupart des gens s’accordent à dire que la pensée critique est essentielle pour évaluer l’IA, ils sont moins nombreux à s’entendre sur sa signification réelle. Ce terme est souvent utilisé comme un fourre-tout pour désigner un large éventail de compétences analytiques, allant du raisonnement et de la logique à la remise en question et à la résolution de problèmes, ce qui peut sembler flou ou ambigu.

À la base, la pensée critique est à la fois un état d’esprit et une méthode. Il s’agit de remettre en question nos croyances, d’examiner notre façon de penser et d’utiliser des outils tels que les preuves et la logique pour parvenir à de meilleures conclusions.

On pourrait définir la pensée critique comme la capacité à évaluer les informations de manière réfléchie et rigoureuse afin de porter des jugements fondés plutôt que d’accepter les choses telles qu’elles apparaissent.

Selon Fahed Bizzari, directeur-associé chez Bellamy Alden AI Consulting, une société qui aide les entreprises à mettre en œuvre l’IA de manière responsable, l’état d’esprit idéal est « un état permanent de prudence » dans lequel « vous devez être constamment sur vos gardes pour assumer la responsabilité de l’intelligence de l’IA ainsi que de la vôtre ». Cet état d’esprit de vigilance constante est essentiel, mais il nécessite des outils pratiques pour fonctionner au quotidien.

 

L’effet GPS : que se passe-t-il lorsque nous cessons de réfléchir ?

Cette nécessité de vigilance est plus urgente que jamais. Une tendance inquiétante se dessine : les chercheurs constatent que l’utilisation fréquente de l’IA est liée à un déclin des capacités de réflexion critique. Dans une récente étude du MIT, 54 participants ont été invités à rédiger des essais en utilisant l’une des trois approches suivantes : leurs propres connaissances (« uniquement leur cerveau »), Google Search ou ChatGPT. Le groupe qui a utilisé l’outil d’IA a montré le plus faible engagement cérébral, la plus faible mémoire et la plus grande insatisfaction à l’égard de ses écrits.

Ce déchargement cognitif a produit des essais homogènes et « sans âme », manquant d’originalité, de profondeur et d’engagement critique. Ironiquement, les compétences mêmes nécessaires pour évaluer les résultats de l’IA, telles que le raisonnement, le jugement et le scepticisme, sont érodées ou supprimées par une dépendance excessive à la technologie.

C’est comme si votre sens de l’orientation s’estompait progressivement parce que vous vous fiez au GPS pour tous vos déplacements, même dans votre propre quartier. Lorsque le GPS tombe en panne à cause d’une erreur du système ou d’une perte de signal, vous êtes désorienté. La compétence que vous aviez autrefois s’est atrophiée parce que vous avez externalisé vos capacités de navigation au GPS.

Fahed Bizzari explique que « l’IA multiplie votre intelligence appliquée de manière exponentielle, mais ce faisant, elle érode votre intelligence fondamentale. Tout le monde se réjouit aujourd’hui des gains de productivité, mais cela finira par poser un énorme problème ». Son argument souligne un risque plus profond lié à la dépendance excessive à l’IA. Non seulement nous commettons plus d’erreurs, mais nous perdons également notre capacité à les détecter.

 

La réflexion rapide n’est pas toujours synonyme de réflexion intelligente

Nous aimons penser que nous évaluons les informations de manière rationnelle, mais notre cerveau ne fonctionne pas ainsi. Comme l’explique le psychologue Daniel Kahneman, nous avons tendance à nous fier au « système 1 », qui est rapide, automatique et intuitif. Il est efficace, mais il comporte des inconvénients. Nous tirons des conclusions hâtives et faisons confiance à tout ce qui semble crédible. Nous ne prenons pas le temps d’approfondir notre réflexion, ce qui nous rend particulièrement vulnérables aux erreurs de l’IA.

Les outils d’IA génèrent des réponses assurées, raffinées et faciles à accepter. Ils nous donnent ce qui semble être une bonne réponse, presque instantanément et avec un minimum d’effort. Comme elles semblent faire autorité, le « système 1 » les approuve sans même que nous les remettions en question. C’est là que réside le danger.

Pour détecter les angles morts, les exagérations ou les hallucinations de l’IA, nous devons passer outre ce réflexe mental du « système 1 ». Cela signifie activer le « système 2 », qui est le mode de raisonnement plus lent et plus réfléchi. C’est la partie de notre raisonnement qui vérifie les sources, teste les hypothèses et évalue la logique. Si le « système 1 » est ce qui nous fait trébucher avec l’IA, le « système 2 » est ce qui nous protège.

 

Les cinq clés : un cadre pour transformer les passagers en pilotes

Il est impossible de développer l’IA en toute sécurité sans développer la pensée critique. Fahed Bizzari avertit que si nous baissons notre garde, l’IA deviendra le pilote, et non le copilote, et nous deviendrons des passagers involontaires. À mesure que les entreprises s’appuient de plus en plus sur l’IA, elles ne peuvent pas se permettre d’avoir plus de passagers que de pilotes. Toutes les personnes chargées d’utiliser l’IA, des analystes aux cadres supérieurs, doivent activement orienter les décisions dans leur domaine.

Heureusement, la pensée critique peut s’apprendre, se pratiquer et se renforcer avec le temps. Cependant, comme notre cerveau est programmé pour l’efficacité et privilégie la pensée rapide et intuitive du « système 1 », il appartient à chacun d’entre nous d’utiliser de manière proactive le « système 2 » pour repérer les raisonnements erronés, les préjugés cachés et les réponses trop confiantes de l’IA.

Voici comment mettre cela en pratique avec le cadre des « Cinq Clés », qui décompose la pensée critique en cinq éléments clés, chacun avec une perspective à la fois en termes de mentalité et de méthode.

 

#1. L’autorégulation

Même si nous considérons les résultats comme neutres, nous les percevons à travers nos propres filtres personnels. Nous devons surveiller et remettre en question nos réactions initiales, qui sont souvent influencées par nos préjugés, nos heuristiques et nos hypothèses. Il est essentiel de reconnaître nos limites cognitives et de garder l’esprit ouvert.

Mentalité : être réfléchi et ouvert d’esprit.

Méthode : faites une pause intentionnelle avant d’accepter les résultats de l’IA afin d’activer votre « système 2 » et demandez-vous ce qui influence votre réaction instinctive à l’information.

 

#2. L’évaluation

Peu importe à quel point les résultats de l’IA semblent raffinés ou perfectionnés, ils ne doivent pas être considérés aveuglément comme réels, exacts ou complets. Nous devons vérifier la qualité et la fiabilité de leurs sources. Les outils d’IA sont le reflet de la qualité des données qui leur sont fournies, et ils ont tendance à halluciner. Cela signifie que nous devons faire preuve de vigilance dans la validation de leurs résultats. Cependant, il est également important de calibrer votre scepticisme en fonction des enjeux et du contexte. Par exemple, les tâches routinières ayant peu de conséquences ne nécessitent pas la même rigueur que les décisions stratégiques qui ont un impact sur les clients, les finances ou la réputation de la marque.

Mentalité : être sceptique mais juste.

Méthode : vérifiez que les citations clés existent et sont correctement représentées, en particulier pour les affirmations qui semblent surprenantes ou trop commodes.

 

#3. L’analyse

Si nous nous concentrons uniquement sur les éléments superficiels, nous risquons de passer à côté de détails cruciaux et de mal comprendre la situation dans son ensemble. Nous devons décomposer ou déconstruire les informations en disséquant les arguments principaux, en identifiant les éléments clés, en isolant les hypothèses sous-jacentes et en repérant les lacunes cachées. Ce processus analytique permet de distinguer le « signal » du « bruit ».

Mentalité : être curieux et méthodique.

Méthode : posez des questions complémentaires sur l’affirmation principale. Remettez en question les hypothèses qui sous-tendent les chiffres ou le récit.

 

#4. L’inférence

Lorsque la plupart des résultats de l’IA semblent fiables et convaincants, nous pouvons ne pas évaluer leur logique réelle. Nous pouvons ne pas remarquer si les arguments sont bien structurés ou si les conclusions découlent réellement des preuves. Sans un examen plus approfondi, nous pouvons passer à côté de faiblesses logiques ou de sophismes dans les résultats de l’IA qui conduisent à des conclusions erronées.

Mentalité : être logique et discipliné.

Méthode : retracez le raisonnement qui sous-tend les résultats de l’IA. Demandez-vous si les conclusions découlent des preuves ou conduisent à d’autres conclusions.

 

#5. L’interprétation

Sans contexte adéquat, les outils d’IA peuvent mal interpréter ce qui est approprié, réaliste ou nécessaire dans chaque situation spécifique. Nous devons réfléchir de manière plus large aux informations, en tenant compte des contraintes du monde réel, des implications éthiques et des nuances organisationnelles que l’IA pourrait ne pas percevoir. Cette perspective humaine détermine la manière dont nous adaptons les résultats de l’IA ou lorsque nous les rejetons entièrement.

Mentalité : être réfléchi et sensé.

Méthode : réfléchissez à ce qui pourrait manquer à l’outil d’IA en termes de contexte, de nuances, d’éthique ou de contraintes du monde réel.

 

La méthode PSR : une vérification rapide pour les esprits pressés

Si ces cinq clés constituent une base solide pour la réflexion critique liée à l’IA, elles ne fonctionnent pas en vase clos. Tout comme les pilotes doivent adapter leur approche en fonction des conditions météorologiques, du type d’avion et de la destination, nous devons être capables d’adapter nos capacités de réflexion critique à différentes circonstances. Votre concentration et votre niveau d’effort seront déterminés par les facteurs clés suivants :

  • L’expertise dans le domaine. Un pilote expérimenté sera moins dépendant de son copilote qu’un pilote novice. Si vous avez une connaissance approfondie d’un sujet, vous serez plus à même de détecter les problèmes dans les résultats de l’IA. Si vous ne disposez pas d’une expertise suffisante dans le domaine, vous serez tenté de faire davantage confiance à l’outil d’IA. Cependant, vous devez être plus prudent et rigoureux avec le cadre, car vous êtes moins à même de repérer les problèmes potentiels.
  • La culture organisationnelle. Les capacités de réflexion critique individuelles ne peuvent s’épanouir que dans des environnements qui les favorisent. Même les pilotes les plus expérimentés ont besoin d’un contrôle aérien et de conditions de piste adéquates pour atterrir en toute sécurité. Les entreprises doivent encourager activement la remise en question des résultats de l’IA par le biais de formations, de l’allocation de temps et d’exemples donnés par leurs dirigeants. Si les entreprises attendent ce niveau de vigilance de la part de leurs employés, elles ne peuvent se plaindre si une partie de l’efficacité est sacrifiée au profit de l’efficacité globale.
  • Les contraintes de temps. Idéalement, vous souhaitez être aussi rigoureux que possible lorsque vous appliquez la pensée critique aux résultats de l’IA. Cependant, par souci de pragmatisme, vous pouvez adopter une approche de « triage » dans laquelle les décisions à enjeux élevés font l’objet d’un traitement complet, tandis que les tâches routinières font l’objet d’une évaluation simplifiée.

De nombreux scénarios impliquant des résultats de l’IA ne nécessitent pas un examen approfondi, c’est la raison pour laquelle il existe une méthode rapide pour intégrer la pensée critique dans l’utilisation quotidienne de l’IA. Cela est particulièrement important car, comme l’a souligné Fahed Bizzari, « les modèles linguistiques actuels de l’IA ont été conçus principalement dans un souci de plausibilité, et non d’exactitude. Ils peuvent donc faire passer le plus gros mensonge du monde pour une vérité factuelle et convaincante ».

Pour contrer ce problème précis, il suffit d’appliquer la méthode PSR :

  • Postulats, c’est-à-dire quelles sont les hypothèses sous-jacentes ?
  • Sources, c’est-à-dire est-ce que je peux me fier à cette information ?
  • Rester objectif, c’est-à-dire est-ce que je fais preuve d’objectivité ?

Pour illustrer cette approche, nous allons prendre l’exemple d’un outil d’IA auquel nous avons demandé de proposer une stratégie marketing pour une petite entreprise.

  • Postulats : « Quelles sont les hypothèses sous-jacentes concernant mon public cible, mon budget ou les conditions du marché ? »
  • Sources : « Il est fait mention d’un taux de conversion comme référence dans le secteur. Existe-t-il une source fiable pour cette estimation ? »
  • Rester objectif : « La stratégie met l’accent sur les campagnes LinkedIn, ce qui correspond à mes préférences professionnelles. Est-ce que j’accepte cette recommandation parce qu’elle confirme mes préjugés ou parce qu’il s’agit réellement de la meilleure approche ? »

Cette évaluation rapide peut révéler des angles morts potentiels qui pourraient transformer des recommandations prometteuses de l’IA en erreurs commerciales coûteuses, comme une campagne marketing malavisée.

 

L’avenir de l’IA dépend de la pensée humaine

Si davantage d’employés prennent simplement l’habitude de « toujours demander avant d’utiliser les résultats de l’IA », votre entreprise peut commencer à instaurer une culture qui protège activement contre la dépendance excessive à l’IA. Qu’ils utilisent le cadre complet des cinq clés ou la méthode rapide PSR, les employés passent du statut de passagers passifs à celui de pilotes engagés qui orientent activement l’utilisation et la confiance accordée à l’IA.

L’IA peut améliorer notre réflexion, mais elle ne doit jamais la remplacer. Si elle n’est pas contrôlée, l’IA encourage les raccourcis qui conduisent aux erreurs coûteuses que nous avons vues précédemment. Utilisée à bon escient, elle devient un partenaire stratégique puissant. Il ne s’agit pas de se décharger de la cognition, mais de la mettre à niveau en associant des outils puissants à des esprits réfléchis et engagés.

En fin de compte, la valeur de l’IA ne viendra pas du fait qu’elle nous retire du processus, mais de la rigueur avec laquelle nous appliquons notre esprit critique à ce qu’elle nous aide à générer.

 

Une contribution de Brent Dykes pour Forbes US, traduite par Flora Lucas


À lire également : IA : maîtriser la puissance pour éviter la dépendance

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC