Rechercher

Une IA des lumières

Alors que la course mondiale à l’intelligence artificielle (IA) s’intensifie, deux questions majeures sont autant essentiel qu’existentiel : celle du leadership et celle de la souveraineté. Souvent confondues, elles poursuivent pourtant des objectifs fondamentalement distincts, l’un économique, l’autre politique. Or, ni le leadership ne garantit la souveraineté, ni la souveraineté ne confère automatiquement un leadership. Saisir cette nuance – et en mesurer les implications stratégiques, est essentiel pour l’Europe, et plus encore pour la France, si elle entend non seulement peser sur l’avenir de l’IA, mais aussi y inscrire une trajectoire singulière, fidèle à ses valeurs et à sa vision du progrès.

Un article d’Hamilton Mann, issu du numéro hors-série Forbes Sustainability

 

Le leadership ou la visée de maître du monde

La domination des États-Unis sur l’IA repose sur trois piliers, une narration mondiale qui façonne les imaginaires, une représentation omniprésente qui accapare l’attention, une conception technique hégémonique.


Dès sa création en 2015, OpenAI a cristallisé l’attention mondiale en se donnant pour mission de développer une intelligence artificielle générale (AGI) « bénéfique pour l’humanité ». Derrière cette ambition technique, c’est une véritable rhétorique messianique qui s’est installée, plaçant l’entreprise au centre d’un récit global sur l’avenir de l’humanité.

Ce storytelling, savamment orchestré, a permis à OpenAI non seulement de se positionner comme pionnier technologique, mais aussi comme acteur moral, prétendant fixer les règles du jeu d’une technologie encore largement spéculative. Sam Altman, son dirigeant, en est devenu l’incarnation : figure médiatique invitée à Davos, auditionnée par le Sénat américain, il porte la parole d’une IA présentée à la fois comme promesse de progrès économique et menace existentielle à encadrer.

Cette posture d’autorité morale trouve un écho puissant dans la pop culture américaine qui, depuis des décennies, sculpte notre imaginaire collectif autour de l’IA. Des œuvres comme Her, Ex_Machina, Black Mirror ou Westworld ont popularisé une vision ambivalente et fascinée de l’IA, tantôt complice, tantôt ennemie, mais toujours pensée, construite et incarnée dans un contexte américain.

Résultat : les États-Unis ont cadré la question de l’IA bien au-delà du champ technologique. Ils en ont défini les peurs, les espoirs et les termes du débat. Ils n’ont pas seulement produit des modèles, ils ont produit le récit dans lequel ces modèles prennent sens.

La domination américaine en matière d’IA ne s’observe pas seulement dans la technologie elle-même, mais aussi dans sa diffusion et sa légitimation à l’échelle mondiale. Les modèles de langage les plus connus – GPT (OpenAI/ Microsoft), Claude (Anthropic), Gemini (Google/DeepMind) – sont tous issus de la Silicon Valley, laissant peu de place aux alternatives, Mistral étant l’une des rares exceptions européennes à émerger timidement.

Cette concentration du paysage se traduit par une pénétration massive des outils dans les usages quotidiens : ChatGPT a franchi la barre des 100 millions d’utilisateurs actifs en à peine deux mois, tandis que Microsoft impose Copilot comme compagnon par défaut dans l’univers Windows, instaurant une présence quasi structurelle de l’IA américaine dans les environnements de travail.

Ce déploiement s’accompagne d’une autre forme de suprématie, plus silencieuse mais tout aussi déterminante : celle de la reconnaissance académique. Les articles scientifiques les plus influents sur les architectures fondamentales de l’IA, qu’il s’agisse des transformers, des mécanismes d’attention ou des modèles de diffusion, sont issus de Google Brain, DeepMind ou OpenAI, dont les publications deviennent les textes canoniques d’un savoir normatif.

Les États-Unis ne dominent pas seulement les interfaces, ils façonnent les références. Leurs modèles deviennent les standards implicites du secteur, à la fois dans l’usage populaire et dans la pensée, imposant un biais d’attention systémique qui marginalise toute alternative en dehors du prisme américain. Et sans aucun doute, le modèle de développement de l’IA adopté par les acteurs américains repose sur une architecture technique impressionnante.

L’entraînement de modèles comme GPT-4 ou Gemini 1.5 s’appuie sur des infrastructures centralisées colossales, mobilisant des milliers de GPU (Graphics Processing Units), particulièrement efficaces pour des calculs massivement parallèles comme ceux nécessaires à l’entraînement de modèles d’IA, alimentant des clusters de supercalculateurs dont la puissance brute est devenue l’indicateur principal de performance.

Cette logique de démesure est justifiée par la scaling law, formulée par OpenAI et DeepMind, selon laquelle les performances des modèles croîtraient proportionnellement à la taille des paramètres et à la masse de données traitées. C’est dans cette course exponentielle que s’inscrivent les modèles phares comme GPT-3 (175 milliards de paramètres), PaLM (540 milliards), ou encore GPT-4, dont la taille exacte reste tenue secrète.

Oui, les États-Unis ont pris une avance nette dans l’IA « grand public ». Mais être le premier à entrer dans la course ne garantit ni d’en connaître la destination, ni d’en finir premier. Le leadership des États-Unis sur l’IA, aussi imposant soit-il, n’a rien d’immuable et leur modèle de développement de l’IA est aussi impressionnant que vulnérable. Leur stratégie repose sur un triptyque risqué : centralisation, surenchère de taille, et dépendance à un matériel critique. Nvidia, aujourd’hui fournisseur quasi exclusif de GPU pour l’IA, s’appuie sur la production de TSMC (Taiwan Semiconductor Manufacturing Company Limited), située à Taïwan, un point névralgique devenu un véritable goulet d’étranglement technologique.

En 2023, la rareté d’accès à ces composants est devenue un enjeu géopolitique de première importance, au point de conditionner la souveraineté numérique des États. Dans cette logique, Microsoft a annoncé sa participation à un partenariat visant à mobiliser jusqu’à 100 milliards de dollars en collaboration avec des entreprises comme BlackRock et d’autres acteurs, pour la construction d’un supercalculateur dédié à l’IA (projet Stargate, en partenariat avec OpenAI), illustrant à quel point cette dépendance à l’infrastructure est devenue systémique.

Ainsi, le choix technique initial des géants américains leur a permis de dominer l’écosystème par la force de frappe. Mais il les enferme aussi dans un modèle coûteux et rigide, dont le gigantisme devient à la fois leur vitrine et leur talon d’Achille, par une dette technique tout autant gigantesque qui rend leurs systèmes lourds. Lourds, par le poids financier de sa maintenabilité : le coût estimé de GPT-4 est de plusieurs dizaines de millions de dollars rien que pour l’entraînement. Sam Altman a reconnu que ChatGPT coûte plusieurs centaines de millions de dollars par an à faire tourner. Lourds, par le poids du besoin en énergie pour opérer : GPT-3 aurait nécessité plus de 1 287 MWh pour son entraînement initial, selon l’université de Californie à Berkeley (soit l’équivalent de 205 vols allers-retours entre Paris et New York), et GPT-4, 62 318 MWh. Selon Hugging Face, les plus grands modèles consomment plus qu’une ville moyenne pendant leur phase d’entraînement.

Lourds, par le poids des croyances qui les ont fait naître et rendent difficile le fait de les remettre en question et de se réinventer : changer d’architecture revient à tout ré-entraîner. OpenAI reste sur le paradigme du « transformer géant », car pivoter vers des approches plus légères ou hybrides casserait leur avantage d’échelle. Plus les modèles grandissent, plus ils s’alourdissent, plus l’innovation se transforme en itération,  le progrès en perfectionnement, accélérant la date de péremption de l’avantage compétitif initial.

Le plus grand frein à l’innovation radicale, c’est la peur de renverser le trône sur lequel on est assis. Comme dans l’industrie automobile américaine du XXe siècle, ce qui fut un avantage structurel devient une fragilité stratégique. L’innovation radicale est freinée par le poids du legacy. Les leaders d’hier deviennent parfois les suiveurs de demain, prisonniers de leur propre succès initial.

 101th picture page 12

 

Les États-Unis, bien qu’ayant été rapides à l’entrée, sont aujourd’hui enfermés dans ce que l’on pourrait appeler l’illusion de la rapidité : maintenir la cadence, même si d’autres modèles, plus distribués, plus agiles, moins coûteux, plus frugaux, commencent à émerger.

Oui, les États-Unis dominent par la narration, la visibilité, et l’architecture. Mais ce trépied repose sur une dette structurelle, technique, énergétique, matérielle, financière et cognitive qui font qu’ils ne dominent plus par l’agilité, mais par l’inertie. 

 

La souveraineté ou la visée de maître de soi

Être souverain, ce n’est pas imposer ses modèles. C’est pouvoir refuser ceux des autres. Ce n’est pas conquérir, c’est choisir. Pouvoir décider librement de ce que l’on veut faire d’une technologie, de la manière dont on veut l’encadrer, la distribuer, l’adopter, ou la refuser parce qu’elle ne correspond pas à ses valeurs, ses priorités, sa vision du monde. C’est là que réside la véritable puissance : dans la liberté de choisir ce que l’on adopte ou rejette, indépendamment des pressions extérieures. C’est au demeurant ce qui est par exemple au cœur de ce que représente l’AI Act.

Bien que souvent critiqué comme étant un excès de réglementation, voire un frein à l’innovation, cet acte européen ne cherche pas à plaire à tout prix au reste du monde. Il affirme une position : celle de mettre des garde-fous éthiques, démocratiques et humains là où d’autres acteurs majeurs, américains notamment mais pas exclusivement, souhaiteraient, souvent pour leur avantage, laisser ces technologies évoluer sans qu’il y ait de shérif dans la ville, et encore moins européen.

Loin d’un simple corpus juridique, l’AI Act est un acte de souveraineté. Il ne vise pas à grimper plus haut que la Silicon Valley ou à imiter les stratégies de Pékin. Il dit simplement : voici comment nous, Européens, choisissons de vivre avec l’IA. Voici le seuil à partir duquel nous considérons qu’une technologie devient inacceptable, trop risquée, trop opaque, ou incompatible avec nos droits fondamentaux.

En cela, il pose un standard. Et comme tout standard, il devient extraterritorial. Parce que toute entreprise, où qu’elle soit dans le monde, souhaitant opérer sur le territoire européen, devra s’y conformer. Ce n’est pas une conquête, c’est une cohérence, qui invite au respect de principes plutôt qu’à la course à la performance brute.

Toute innovation, aussi brillante soit-elle – et plus encore lorsqu’elle porte en elle un potentiel immense – ne peut faire l’économie d’une question essentielle : est-elle compatible avec le monde que nous voulons ? Il vaut mieux anticiper cette question et prévoir dans l’imperfection, que d’y répondre dans l’urgence, ou pire, surseoir, au nom d’une perfection illusoire.

La souveraineté, ce n’est pas grimper plus haut que les autres. C’est savoir où on pose les pieds. C’est affirmer qu’avant d’aller vite, il faut savoir vers où l’on va. La souveraineté se construit, non pas contre les autres, mais pour soi-même, en définissant les conditions d’un rapport libre, critique et éclairé à la technologie. Elle ne consiste pas à tout maîtriser, mais à savoir ce qu’il est vital de ne pas déléguer. Ce n’est donc pas seulement une question de puissance technologique, mais de profondeur stratégique, de vision de société et de choix civilisationnels.

Quatre piliers fondateurs forment autant de lignes vers un projet souverain, singulier et soutenable de l’IA pour la France et l’Europe :

1. Ancrer notre souveraineté dans un maillon vital de l’IA

Il n’est pas nécessaire d’être omniprésent pour être incontournable. Ce que la France, et l’Europe, doivent viser, ce n’est pas la suprématie tous azimuts, mais l’indispensabilité ciblée. Être petit peut suffire… à condition d’être stratégiquement positionné. Cela peut être sur une brique logicielle ouverte, une architecture matérielle sobre, une filière de modèles spécialisés, ou un secteur-clé (santé, énergie, climat, défense cognitive). La souveraineté technologique ne vient pas de l’accumulation, mais de la maîtrise d’un nœud critique, celui qui nous permet d’avancer sans une dépendance exclusive aux autres. C’est le pouvoir du « verrou technologique » : l’acteur qui détient la pièce qui manque impose sa présence à la table, quel que soit son poids économique global.

2. Briser les monopoles par la diplomatie technologique

Sortir de la dépendance ne signifi e pas s’isoler, mais élargir les alliances. Pour desserrer l’étau de l’hégémonie américaine, il ne suffit pas de produire « français » ou « européen » : il faut co-construire des alternatives avec ceux qui n’ont pas été invités à la table du Gafam. Cela passe par des partenariats technologiques avec l’Inde, l’Afrique, l’Amérique latine. Ces alliances stratégiques ne sont pas qu’économiques : elles sont géo-éthiques. Ensemble, ces nations peuvent imposer une autre trajectoire de l’IA, plus inclusive, plus sobre, plus contextualisée. Multiplier les voies, c’est multiplier les voix. Et dans une ère numérique saturée, le pouvoir réside dans la pluralité des récits possibles.

3. Créer un sanctuaire d’intelligence humaine

La course à l’IA est souvent pensée comme une bataille d’infrastructures. Mais la véritable compétition est cognitive. La ressource rare, ce n’est pas le silicium, c’est la pensée critique appliquée à la technologie.

La France doit devenir un sanctuaire de cerveaux libres : un lieu où les chercheurs, les ingénieurs, les philosophes et les innovateurs peuvent penser et bâtir sans être pris en otage par les logiques de rentabilité immédiate ou de conformisme idéologique. Cela suppose une réinvention de notre rapport à l’éducation, à la recherche, à l’entreprise, et même à l’échec. Un écosystème souverain se construit là où les intelligences veulent vivre, pas seulement produire.

4. Forger une vision civilisationnelle de l’IA

C’est sans doute le pilier le plus négligé, et pourtant le plus fondamental : à quoi voulons-nous que l’IA serve ? Non pas sur un plan consumériste, mais sur un plan civilisationnel.

Nous ne pouvons pas opposer aux visions américaines et chinoises une simple version régulée du même projet. Il faut une autre intention. Une autre finalité. Ni l’obsession de la performance comme aux États-Unis, ni le contrôle étatique absolu comme en Chine, mais une troisième voie : une IA fondée sur la raison, l’esprit critique, et les valeurs humanistes. C’est ici que la France peut se distinguer. L’IA française doit inventer sa propre singularité. Une IA fondée non pas sur la prédiction des comportements, mais sur l’émancipation des esprits. Une IA qui argumente plutôt qu’elle n’assène, qui explique plutôt qu’elle n’impose, ou ne manipule, qui met en perspective plutôt qu’elle ne réduit, qui questionne plutôt qu’elle ne renforce les biais, qui stimule l’esprit critique, renforce l’éducation, met l’humain (sa dignité, sa liberté, sa rationalité) au centre de ses décisions, plutôt qu’elle n’encourage une passivité algorithmique ou sacrifie l’avenir de notre environnement sur l’autel de la vitesse. Une IA intègre, par construction, non dominée par l’aléatoire et l’exclusif d’une intelligence performative, mais guidée par une architecture de l’intégrité. Une IA qui éclaire, pas une IA qui aveugle. Une IA inspirée par les Lumières. Là où d’autres construisent des IA pour capter l’attention, nous devons construire des IA qui la restaure et la fait grandir.

 

En définitive, l’Europe, et la France en particulier, n’ont pas besoin de courir après le leadership américain, ni de craindre de ne pas le détenir. L’enjeu n’est pas d’être le plus gros, le plus rapide, ou le plus spectaculaire. L’enjeu est d’être le plus libre, le plus aligné avec nos valeurs, et le plus visionnaire dans la manière de penser l’IA pour le futur que nous souhaitons. Car ceux qui éclairent le monde ne sont pas toujours ceux qui parlent le plus fort, mais souvent ceux qui savent rallumer la lumière quand l’ombre de la puissance devient aveuglante. Leadership et souveraineté ne sont pas synonymes. Le premier vous rend visible. Le second vous rend libre. La France n’a pas à gagner la course. Elle a à défi nir et à accomplir sa propre course. Être leader, peut-être. Être libre, toujours. 

Au sujet de l’auteur

Hamilton Mann, dirigeant dans le domaine de la tech, est un pionnier et une autorité reconnue dans le domaine de l’IA et de la transformation numérique.

Il est lecturer à l’Insead et à HEC Paris, doctorant en IA à l’École des Ponts Business School – École des Ponts et Chaussées, et figure parmi les lauréats du Thinkers50 Radar, qui distingue les penseurs émergents les plus influents au monde dans le domaine du management.

Son ouvrage, salué par la critique, Artificial Integrity: The Paths to Leading AI Toward a Human-Centered Future (Wiley, 2024), challenge les paradigmes actuels de l’IA pour établir une nouvelle frontière de son développement, guidée par l’intégrité – comme une émulation native à son fonctionnement – plutôt que par la seule intelligence algorithmique. L’ouvrage a été distingué par le réputé Next Big Idea Club, la référence américaine en matière de sélection des livres internationaux les plus influents du moment, cofondé par quatre auteurs de best-sellers du New York Times, qui distingue les ouvrages les plus visionnaires de notre époque et met en lumière les idées de rupture les plus prometteuses à l’échelle mondiale.

artificial integrity cover 3d retextension 1

 


À lire également : Déficit de prévision : pourquoi l’IA pourrait compromettre la transition juste ?

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC