À chaque fois que Vasmi Boppana, vice-président senior de l’IA chez AMD, fait le point sur les progrès de son équipe auprès de la PDG Lisa Su, la réponse de cette dernière reste la même : « Excellent travail. Mais il faut aller plus vite. »
Il peut sembler inhabituel pour une entreprise de semi-conducteurs d’accorder une telle importance aux logiciels. Pourtant, c’est bien lui qui décuple la puissance des précieuses puces au cœur de la révolution de l’intelligence artificielle. Les logiciels permettent d’exploiter pleinement les performances du silicium, d’en optimiser les capacités et de donner aux ingénieurs les moyens de programmer le matériel. Surtout, ils créent une forme de loyauté technologique : une fois formés sur la plateforme logicielle d’un fabricant, les ingénieurs ont souvent du mal à en adopter une autre.
Selon Vasmi Boppana, les logiciels ont joué un rôle clé dans l’une des plus grandes victoires d’AMD en plus d’un demi-siècle d’histoire : un contrat de plusieurs milliards de dollars permettant à OpenAI, le créateur de ChatGPT, d’utiliser les puces MI450 d’AMD pour alimenter jusqu’à 6 gigawatts de puissance de calcul destinés à ses produits d’intelligence artificielle. Dans le cadre de cet accord, OpenAI aura la possibilité d’acquérir jusqu’à 160 millions d’actions, soit environ 10 % du capital d’AMD. Un partenariat majeur pour le groupe, qui cherche à combler son retard sur le leader du marché, Nvidia.
Les origines de cet accord remontent à 2023, lorsque OpenAI a commencé à exécuter certains de ses modèles sur du matériel AMD. Au fil des années suivantes, AMD a sollicité l’expertise du géant de l’IA pour concevoir ses futures puces MI450. OpenAI a également contribué à faire évoluer les logiciels d’AMD, a confié M. Boppana à Forbes.
« À mesure que notre relation avec OpenAI s’est approfondie, nous avons étendu notre collaboration à l’ensemble de la pile technologique — mais surtout au niveau logiciel », explique-t-il. AMD a notamment travaillé avec OpenAI pour rendre Triton, le langage open source de ce dernier pour la programmation des GPU, compatible avec ses propres puces. Jusque-là, Triton ne prenait en charge que les GPU de Nvidia.
« L’opportunité est tellement immense qu’OpenAI ne peut pas se contenter de travailler uniquement avec Nvidia », estime Sid Sheth, PDG de d-Matrix.
L’accord entre AMD et OpenAI survient à un moment où la soif de puissance de calcul semble devenue insatiable. Plus tôt cette année, le président américain Donald Trump, OpenAI, Oracle et SoftBank ont dévoilé le projet Stargate, un investissement colossal de 500 milliards de dollars destiné à développer des centres de données et des infrastructures d’IA aux États-Unis. Quelques semaines plus tard, Apple annonçait un engagement du même ordre de grandeur.
L’engouement mondial pour l’intelligence artificielle a transformé Nvidia, autrefois surtout connue pour ses puces de jeu, en un mastodonte de 4 500 milliards de dollars. Fin septembre, OpenAI a conclu un partenariat de 100 milliards de dollars avec Nvidia, visant à fournir 10 gigawatts supplémentaires de puissance de calcul.
Dans le même temps, une nouvelle génération de start-up de semi-conducteurs — Cerebras, SambaNova, Groq ou encore d-Matrix — s’est lancée dans la course, développant des puces taillées sur mesure pour l’ère de l’IA, optimisées pour des charges de travail spécifiques plutôt que pour l’approche plus généraliste des acteurs historiques.
Selon Sid Sheth, PDG de d-Matrix, cette explosion de l’IA signifie qu’aucun acteur ne détiendra le monopole de la puissance de calcul. « Les opportunités sont si vastes qu’il est impensable qu’OpenAI se limite à Nvidia », confie-t-il à Forbes. « Les clients sont désormais prêts à apprendre à travailler avec les logiciels d’AMD. »
Depuis longtemps, Nvidia s’appuie sur ses logiciels pour consolider sa domination. CUDA, son environnement de programmation, a érigé une véritable forteresse autour de la formation des modèles d’IA. Pour l’inférence, autrement dit le calcul nécessaire pour faire fonctionner les modèles, la barrière technique est plus facile à franchir : le processus est moins complexe. C’est précisément dans ce domaine qu’OpenAI prévoit d’utiliser les puces d’AMD. « La barrière n’est pas aussi importante », observe M. Sheth. « Le seuil de difficulté diminue avec le temps. »
La cadence effrénée de l’industrie de l’IA a elle aussi joué un rôle clé, souligne M. Boppana. « Si le monde était statique, figé dans le temps, avec uniquement des logiciels hérités et des architectures identiques… alors oui, l’obstacle serait considérable », explique-t-il. « Mais dans l’univers de l’IA, le rythme de l’innovation rend les outils de programmation des puces de plus en plus accessibles. À l’avenir, cet écart deviendra de moins en moins significatif. »
Grâce à son accord avec OpenAI, AMD est désormais à des années-lumière de la situation dans laquelle elle se trouvait en 2014, lorsque Lisa Su en a pris les commandes. À l’époque, l’entreprise semblait à bout de souffle : un quart des effectifs venait d’être licencié et le titre stagnait autour de 2 dollars. Aujourd’hui, l’action dépasse les 235 dollars, propulsant la capitalisation boursière du groupe à près de 382 milliards.
AMD, qui avait manqué le virage du mobile et souffrait d’un marché du PC en berne, a depuis opéré un spectaculaire redressement. Sous la direction de Lisa Su, la société a décroché des contrats majeurs dans les centres de données auprès de géants comme Google et Amazon. Son ambition désormais : faire d’AMD un acteur incontournable de la prochaine grande vague technologique : l’intelligence artificielle.
« Je pense qu’AMD est sur le point d’entrer dans une nouvelle phase », déclarait Lisa Su dans un article de couverture de Forbes en 2023. « Nous devions prouver que nous étions une bonne entreprise, et je pense que nous l’avons fait. Désormais, il s’agit de montrer, une fois encore, que nous pouvons être exceptionnels et laisser une empreinte durable dans le monde. C’est ce genre de défi qui me motive. »
Si tout se déroule comme prévu, le déploiement des 6 gigawatts de puissance pourrait ouvrir la voie à d’autres contrats d’envergure. Et devenir le fournisseur privilégié d’OpenAI pourrait bien être le catalyseur de cette nouvelle étape pour AMD.
Un article de Richard Nieva pour Forbes US – traduit par Lisa Deleforterie
À lire également : Accord Nvidia/OpenAI : le concepteur de puces investit 100 milliards dans le créateur de ChatGPT

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits