Rechercher

Bulle de l’IA ? Ce que la théorie de la croissance endogène révèle

IA
Bulle de l'IA. Source : Getty Images

Cette année, les investissements des géants de la tech dans les infrastructures – centres de données, usines de semi-conducteurs, réseaux électriques – ont compté pour près de la moitié de la croissance du PIB. Certains y voient déjà les signes d’une nouvelle bulle, gonflée par la frénésie autour de l’IA. Mais il existe une autre lecture possible de ces dynamiques macroéconomiques. La théorie de la croissance endogène, développée par l’économiste Paul Romer (couronné par le prix Nobel pour ses travaux) offre en effet un cadre éclairant pour comprendre l’impact de l’IA sur l’économie.

 

Théorie de la croissance endogène et non-rivalité des idées

Au cœur des travaux de Paul Romer se trouve un concept clé : la non-rivalité des idées. Contrairement aux ressources matérielles, la connaissance technologique n’est pas « consommée » lorsqu’elle est utilisée : plusieurs acteurs peuvent s’appuyer sur la même innovation sans l’épuiser.

C’est particulièrement visible avec l’intelligence artificielle. Les investissements massifs dans ce domaine — qu’il s’agisse de la formation de grands modèles, du développement de plateformes logicielles ou de la construction d’infrastructures de données — produisent des savoirs qui peuvent être réemployés, combinés et déployés à grande échelle à un coût marginal quasi nul. Développer un modèle de langage de pointe coûte très cher au départ, mais une fois conçu, il peut être déployé dans une multitude de secteurs et d’usages, chaque application supplémentaire n’entraînant qu’un coût marginal négligeable.


Les idées ne sont toutefois pas des biens publics au sens strict : leurs inventeurs en tirent un bénéfice économique. Les connaissances technologiques ne sont pas gratuites, mais elles ont cette propriété unique de pouvoir être exploitées dans de multiples applications et se recombiner avec d’autres savoirs pour créer de nouvelles avancées.

Si l’on traite ces investissements en IA comme une forme de capital spécifique — appelons-le « capital IA » — on peut les intégrer dans une fonction de production à l’échelle de l’économie, aux côtés du capital traditionnel et du travail. Chaque fois que la technologie permet de « faire plus avec moins », la productivité totale des facteurs s’élève : on obtient davantage de production par unité combinée de capital et de travail. Autrement dit, la frontière des possibilités de production s’élargit. Et c’est dans l’interaction entre les producteurs d’équipements, les fournisseurs de solutions et les utilisateurs finaux que cette dynamique prend toute son ampleur, en stimulant la productivité globale de l’économie.

La connaissance a cette particularité d’être non rivale : elle peut être partagée et utilisée sans s’épuiser. À l’échelle de l’économie, son accumulation génère donc des rendements croissants. Dans ce processus, le matériel informatique et les logiciels d’IA avancent main dans la main : ensemble, ils alimentent la production de nouvelles connaissances, via la recherche, l’expérimentation et le déploiement.

Lorsqu’une entreprise investit dans ces technologies, elle récolte certes des bénéfices privés — une meilleure efficacité, de nouveaux produits — mais elle crée aussi des retombées positives pour l’ensemble de l’économie. Ses méthodes, ses normes de données ou ses outils peuvent être imités, adaptés, et ainsi repousser la frontière de productivité de tout un secteur. L’exemple de la logistique optimisée par l’IA illustre bien ce mécanisme : une innovation locale devient rapidement un levier global.

Dans le cadre théorique de Romer, la croissance repose sur la création intentionnelle de nouvelles idées. Or, l’IA agit comme une technologie générique qui accélère ce processus : génération automatisée de code, découverte de médicaments, conception assistée dans l’industrie… Les investissements en logiciels et en infrastructures informatiques produisent ainsi des méta-rendements : ils améliorent la production existante tout en renforçant la capacité même d’innovation.

Les équipements spécialisés — GPU, serveurs, infrastructures cloud — jouent ici un rôle central. Romer souligne combien le capital physique et la connaissance sont complémentaires : plus une économie investit dans ces infrastructures, plus elle peut développer et recombiner des savoirs liés à l’IA. C’est un cercle vertueux : les progrès matériels rendent la création de connaissances plus efficace, ce qui accroît à son tour la demande en matériel. L’interaction entre les grands investisseurs en infrastructures et les utilisateurs d’IA pourrait ainsi devenir un puissant moteur de croissance économique.

 

Théorie de la croissance endogène et rendements différés de l’IA

Romer a montré que les retombées sociales des investissements dans la connaissance dépassent souvent les gains privés : il est difficile pour une entreprise de s’approprier pleinement les bénéfices de ses innovations. Dans l’IA, cet effet est particulièrement visible. Articles de recherche, frameworks open source, modèles pré-entraînés ou mobilité des talents diffusent le savoir-faire entre entreprises et secteurs. C’est pourquoi des politiques publiques ciblées — subventions pour la R&D en IA, investissements dans les infrastructures informatiques — peuvent améliorer le bien-être général, comme le prédit le modèle de Romer.

Le cadre de la croissance endogène explique aussi pourquoi les rendements de l’IA peuvent se manifester avec un décalage :

  • Diffusion des connaissances : les premiers utilisateurs génèrent des savoirs dont d’autres bénéficient seulement avec le temps.
  • Non-rivalité des idées vs actifs complémentaires rivaux : les connaissances peuvent être mises à l’échelle facilement, mais les actifs complémentaires — travailleurs qualifiés, routines organisationnelles, nouveaux flux de travail — sont rivaux et s’accumulent plus lentement. D’où un décalage entre gains privés et gains sociaux.
  • Fonction de production des idées : le « stock technologique » s’accroît via la R&D, les logiciels et l’IA. Mais les effets sur la croissance dépendent de la manière et de l’ampleur avec lesquelles ces idées sont appliquées à la production — ce qui prend du temps. Des investissements supplémentaires, comme la formation de nouveaux modèles, peuvent être nécessaires pour transformer ces connaissances en gains tangibles.

 

Théorie de la croissance endogène et coûts d’inférence de l’IA

Les modèles d’IA générative impliquent trois types de coûts fixes : le talent, la formation et l’inférence. L’inférence — le processus consistant à faire passer des données dans un modèle pour obtenir un résultat — pose un défi informatique différent de celui de la formation du modèle. La théorie de la croissance endogène de Romer offre un éclairage intéressant : elle considère les connaissances et les idées comme des biens non rivaux, dotés de propriétés économiques particulières.

L’énorme investissement initial pour former un modèle — collecte de données, puissance de calcul, recherche — correspond, selon Romer, au coût de création des idées. Une fois le modèle opérationnel, le coût marginal de chaque inférence est relativement faible : il s’agit seulement des ressources informatiques nécessaires pour exécuter la tâche. C’est un peu comme pour l’industrie pharmaceutique : des milliards sont dépensés pour développer un médicament, mais produire un comprimé supplémentaire coûte beaucoup moins cher.

À mesure que le nombre d’utilisateurs croît, les coûts fixes sont répartis sur une base plus large, générant des rendements croissants. C’est ce mécanisme qui permet à des entreprises comme OpenAI de proposer des modèles sophistiqués à des tarifs relativement bas par requête : les coûts colossaux de formation sont partagés entre des millions d’utilisateurs, rendant chaque utilisation supplémentaire très peu coûteuse.

Comme le souligne l’informaticien Arvind Narayanan dans un article récent : « En cas de correction ou de krach du marché, les entreprises d’IA réduiront — voire supprimeront — leurs dépenses consacrées à la recherche et à la formation coûteuse de nouveaux modèles, ainsi que les salaires faramineux des chercheurs. Mais elles pourront continuer à proposer des chatbots comme ChatGPT, car les coûts d’inférence — le coût réel d’utilisation des modèles — restent dérisoires. Seules certaines fonctionnalités particulièrement gourmandes, comme la génération d’images, pourraient être limitées. »

L’accent mis par Romer sur le capital humain illustre bien pourquoi les modèles d’IA nécessitent non seulement des puces et de l’électricité, mais aussi des ingénieurs qualifiés et des infrastructures sophistiquées pour optimiser, mettre en cache et mettre à l’échelle les systèmes.

Ce cadre théorique suggère que les coûts d’inférence suivent un schéma typique : investissement initial massif, suivi d’une baisse spectaculaire des coûts marginaux à mesure que l’échelle augmente. C’est exactement ce que l’on observe dans la pratique. Cette dynamique explique aussi pourquoi la puissance de l’IA tend à se concentrer entre les mains de quelques grands acteurs capables de tirer parti de ces rendements d’échelle croissants.

Un rapport du Stanford Institute for Human-Centered Artificial Intelligence (HAI) confirme que ces effets sont à l’œuvre : les coûts d’inférence ont déjà tendance à baisser grâce à d’importants progrès dans l’optimisation des modèles. Qu’il s’agisse ou non d’une bulle à court terme, les investissements massifs dans l’IA auront des effets positifs à long terme : intensification de la R&D, réduction des coûts pour les entreprises, accélération de la production de nouvelles idées… Les infrastructures d’IA ne seraient peut-être que le début. Le meilleur reste à venir !


Une contribution de Anjana Susarla pour Forbes US – traduit par Lisa Deleforterie 


À lire également : Fintech : les 5 premiers postes menacés par l’IA générative

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC