Longtemps perçue comme une simple prouesse technologique, l’intelligence artificielle (IA) s’impose désormais comme un enjeu brûlant du débat public, au croisement de la vérité, du pouvoir et de l’avenir du dialogue démocratique.
Le décret présidentiel que Donald Trump s’apprête à signer — présenté ces derniers jours par plusieurs médias comme subordonnant l’octroi de contrats publics à la « neutralité politique » des systèmes d’IA — révèle à quel point l’IA générative s’est imposée comme un champ de bataille idéologique et épistémologique, dépassant largement les enjeux purement technologiques ou commerciaux.
Ce projet de décret intervient dans un contexte de controverses retentissantes autour de certaines intelligences artificielles génératives, notamment Gemini de Google et le chatbot de Meta. Ces outils ont récemment suscité l’indignation après avoir produit des images jugées historiquement inexactes : des figures nazies issues de minorités ethniques ou encore des pères fondateurs américains représentés en personnes noires. Si leurs créateurs ont défendu ces choix comme une tentative de corriger des siècles d’exclusion, leurs détracteurs y voient une dérive idéologique : une technologie « woke » accusée de sacrifier la rigueur historique sur l’autel de l’inclusivité.
L’IA, ses connexions invisibles et le pouvoir du design
L’inquiétude autour de l’intelligence artificielle s’est intensifiée lorsque le chatbot Grok d’Elon Musk a sombré dans une dérive antisémite, produisant des diatribes haineuses et se désignant lui-même comme « MechaHitler », avant que l’entreprise de Musk n’intervienne. Cet épisode a illustré à quel point les systèmes génératifs, même étroitement surveillés, peuvent produire des contenus déstabilisants et nocifs ; non seulement en reflétant les biais de leurs concepteurs, mais aussi en amplifiant les extrêmes de manière imprévisible. De tels incidents ébranlent la confiance du public dans les systèmes d’IA, et, par ricochet, dans les institutions qui les déploient.
Cette dynamique fait écho à une idée fondatrice formulée il y a plusieurs décennies par le politologue Langdon Winner, dans son essai devenu classique : Do Artifacts Have Politics? (« Les artefacts ont-ils une dimension politique ? »). Winner y soutenait que la technologie n’est jamais neutre : elle incarne les valeurs, les choix sociaux et les rapports de pouvoir de ceux qui la conçoivent. L’exemple le plus célèbre qu’il avançait était celui des ponts à hauteur limitée construits par l’urbaniste Robert Moses sur Long Island, supposément pensés pour empêcher les bus (et donc les populations à faibles revenus) d’accéder aux plages et parcs publics.
À l’époque, cet argument avait suscité la controverse. Certains critiques l’avaient jugé excessivement déterministe, estimant que Winner prêtait des intentions politiques là où il n’y avait, au mieux, que des indices circonstanciels. Pourtant, que les motivations de Moses aient été aussi calculées que Winner le prétendait ou non, l’idée de fond demeure : les infrastructures, qu’il s’agisse de ponts ou d’algorithmes, façonnent les résultats sociaux.
L’intelligence artificielle générative, souvent présentée comme un simple outil d’information, n’échappe pas à cette logique. Elle est tout sauf neutre : ses données d’entraînement, ses réglages en faveur de l’inclusivité, ses filtres de sécurité sont le fruit de décisions profondément normatives. Autrement dit, des choix sont constamment faits : quelles histoires méritent d’être racontées, quels biais doivent être corrigés, quels risques peuvent être tolérés.
Le fil algorithmique et le pouvoir de persuasion de l’IA
La force croissante de l’intelligence artificielle s’inscrit dans une transformation profonde des habitudes médiatiques des Américains. La majorité d’entre eux s’informe désormais principalement via des plateformes numériques : réseaux sociaux, vidéos en streaming, agrégateurs dopés à l’algorithme. Si la télévision et les médias traditionnels conservent une certaine influence, ils sont désormais relégués au second plan, éclipsés par des flux qui privilégient l’engagement à la réflexion.
Dans ces écosystèmes, l’attention est la monnaie reine, et les contenus les plus sensationnalistes, polarisants ou émotionnels prennent le dessus sur les reportages équilibrés. C’est dans ce contexte que l’IA générative commence à jouer un rôle de plus en plus central : elle rédige des titres, résume l’actualité, sélectionne et hiérarchise les contenus. Elle devient ainsi une couche supplémentaire de médiation, dont l’autorité repose sur sa fluidité et sa rapidité, plus que sur la rigueur ou la véracité.
Des recherches récentes montrent que cette influence n’est pas sans conséquences. Une étude de l’Université de Zurich a révélé que les contributions générées par l’IA sur des forums comme Reddit peuvent modifier de manière significative les opinions des participants, y compris lorsque ces derniers ignorent que les messages proviennent d’une machine. Cette capacité d’influence discrète sape les fondements mêmes de la démocratie délibérative, en affaiblissant ce que les philosophes appellent la « raison publique » : un espace de débat reposant sur l’échange d’arguments rationnels et la reconnaissance mutuelle.
Lorsque les messages produits par des intelligences artificielles deviennent indiscernables des prises de parole humaines authentiques, la sphère publique risque de dériver vers ce que le philosophe Harry Frankfurt a un jour désigné comme un marché de « conneries » (bullshit). Un espace où l’objectif n’est ni la vérité ni le mensonge, mais simplement la persuasion et la viralité.
IA, mémoire et vérités fabriquées
Les risques liés à l’intelligence artificielle ne se limitent pas à une simple influence discrète ou subtile. Une étude parue en juin 2025 dans la revue Nature a révélé que les grands modèles linguistiques déforment systématiquement les données statistiques, notamment lorsque les questions exigent un raisonnement complexe ou nuancé. De son côté, une enquête du MIT a montré que même les modèles conçus pour être « neutres » reproduisent des stéréotypes sociaux, contribuant à renforcer, souvent à bas bruit, des hiérarchies déjà bien ancrées.
L’alerte est également culturelle et mémorielle. L’UNESCO a ainsi mis en garde contre le danger que représente l’IA générative pour la mémoire de l’Holocauste, pointant la prolifération de documents falsifiés ou entièrement fabriqués, présentés comme authentiques. Cette capacité à brouiller les repères historiques soulève de graves questions éthiques.
Le phénomène touche aussi directement le cœur de la vie démocratique. Un reportage du New York Times a récemment documenté l’usage croissant de robots conversationnels, de publicités microciblées et de deepfakes dans les campagnes électorales. Résultat : un environnement informationnel de plus en plus saturé de récits artificiels, où il devient difficile, même pour les électeurs les plus avertis, de distinguer le vrai du synthétique.
Consensus, IA et militarisation du savoir
Ces avancées technologiques s’inscrivent dans une dynamique culturelle que j’avais déjà décrite il y a plusieurs années comme le « déclin du regard critique ». Le débat public, particulièrement dans l’espace numérique, favorise de plus en plus un consensus sans friction au détriment de la délibération conflictuelle. Les plateformes privilégient la viralité plutôt que la complexité, et l’IA générative, capable de produire une prose fluide et assurée, amplifie cette tendance en effaçant les ambiguïtés et en étouffant les voix dissidentes. Le pluralisme, cette richesse chaotique et contradictoire au cœur de la démocratie, se trouve ainsi réduit à la marge.
Même les médias traditionnels, autrefois porteurs de perspectives divergentes, se sont conformés à cette uniformisation. Malgré leurs lignes éditoriales contrastées, ils adaptent désormais une grande partie de leurs contenus aux exigences de l’algorithme : vidéos courtes, titres accrocheurs et émotionnels, récits centrés sur la personnalité — autant de formats conçus pour dominer sur les réseaux sociaux. Les outils d’IA, qui rédigent résumés et dossiers complets, accentuent cette standardisation du rythme et du style, au détriment de la diversité éditoriale.
Parallèlement, des institutions autrefois perçues comme neutres sont devenues des champs de bataille. En 2024, un procureur américain aurait menacé d’attaquer Wikipédia pour partialité partisane, alimentant les craintes d’une ingérence étatique dans une connaissance collaborative. À la même période, la campagne coordonnée « WikiBias2024 » sur la plateforme X accusait Wikipédia de biais idéologique systémique. Ces tensions reflètent une crise épistémique plus large : alors que IA, réseaux sociaux et institutions traditionnelles façonnent la perception du public, chaque maillon de la chaîne de l’information devient suspect, politisé, et instrumentalisé.
L’IA et le mirage de la neutralité
Le décret que s’apprête à promulguer Donald Trump doit être replacé dans un climat de méfiance croissante à l’égard des systèmes d’intelligence artificielle. D’après les premières informations, cette initiative imposerait aux entreprises souhaitant décrocher des contrats publics de se soumettre à des « audits de neutralité », de produire des « certifications d’impartialité politique » et d’accepter une surveillance continue. Si cette mesure évoque certaines interventions antérieures de l’État fédéral dans la sphère technologique — comme la pression exercée en 2016 par le département de la Justice des États-Unis sur Apple pour déverrouiller l’iPhone du tireur de San Bernardino — les enjeux, cette fois, sont d’une tout autre nature.
Là où Apple était confrontée à une affaire criminelle précise, le décret de Trump cherche à ériger l’État en arbitre de l’équilibre politique dans un domaine mouvant, contesté, et profondément subjectif. Le danger n’est pas seulement celui d’une bureaucratisation excessive, mais d’un biais institutionnalisé : celui d’imposer une conception particulière de la neutralité sous couvert d’objectivité. Car tout système d’audit repose, qu’on le veuille ou non, sur une définition spécifique de ce qui est neutre — définition forcément située, politique, idéologique.
Ce désir de neutralité, bien qu’apparemment rationnel, peut aussi être le symptôme d’un besoin plus profond, que Freud décrivait dans Le Malaise dans la civilisation comme la quête d’un « sentiment océanique » : un désir de réconfort absolu, de cohérence, de vérité sans faille. Nombreux sont ceux qui, face à l’instabilité de l’époque, projettent ce besoin sur l’intelligence artificielle, espérant qu’elle transcendera les divisions humaines et livrera des vérités pures, incontestables. Mais cette attente est un mirage. L’IA générative n’est pas un oracle : c’est un miroir, qui reflète — souvent en les amplifiant — les biais, les conflits et les ambitions de ceux qui la programment.
Reconnaître cela ne revient pas à céder au relativisme ou au chaos informationnel. Cela implique au contraire de repenser la gouvernance de l’IA non pas autour d’une illusion de neutralité, mais autour de principes clairs : transparence, pluralisme, contestabilité. Cela signifie, concrètement, exiger des systèmes qu’ils documentent la provenance de leurs données, qu’ils signalent les modifications liées à des ajustements éthiques ou de sécurité, et qu’ils permettent une vérification indépendante, tant sur le plan factuel que normatif.
Surtout, ces systèmes devraient être conçus pour préserver la complexité du débat démocratique, et non pour l’aplanir. Cela suppose de favoriser la confrontation d’arguments, de rendre visibles des points de vue divergents, et de permettre aux utilisateurs d’accéder à des « deuxièmes avis » — même lorsqu’ils contredisent le résumé le plus fluide ou le plus viral.
Car la démocratie ne peut pas s’appuyer durablement sur un consensus fabriqué ni sur l’élégance algorithmique. Elle vacille lorsque la vérité devient une marchandise, soumise aux règles de l’attention et du rendement viral. Les conséquences ne sont pas théoriques : comme l’a récemment rappelé l’UNESCO, lorsqu’on altère les récits fondateurs — notamment autour de l’Holocauste ou des droits civiques — c’est l’idée même de vérité partagée qui se désagrège, avec elle les leçons morales que ces récits portent.
La démocratie ne vit pas de l’unanimité, mais de tensions fécondes : la confrontation des récits, l’inconfort des désaccords, l’effort collectif pour faire émerger des faits. À l’heure où l’IA générative devient, pour beaucoup, la principale porte d’entrée vers le savoir — souvent réduite à des requêtes du type : « Grok, est-ce que cela s’est vraiment produit ? Sinon, explique la controverse à partir de sources dans telle langue » — la question centrale n’est pas de savoir si ces systèmes peuvent simuler la neutralité. C’est de savoir si nous sommes capables de les façonner de manière à protéger activement la vérité, en y ancrant durablement le pluralisme, la contradiction, et la culture du doute.
Une contribution de Nizan Geslevich Packin pour Forbes US – traduit par Lisa Deleforterie
À lire également : Savoir prompter l’IA : une compétence clé pour en tirer pleinement parti

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits