En avril 2025, Nvidia a discrètement acquis Lepton AI, une jeune pousse chinoise spécialisée dans les services de cloud GPU. Fondée en 2023, la start-up s’était donné pour mission de mutualiser la puissance de calcul GPU provenant de divers fournisseurs cloud, afin de la proposer en location. Si le montant de l’acquisition reste confidentiel, on sait en revanche que les deux cofondateurs de Lepton AI (Yangqing Jia et Junjie Bai) ont rejoint les rangs de Nvidia pour poursuivre le développement de leur produit.
Avant son rachat, Lepton AI avait levé 11 millions de dollars en financement d’amorçage auprès d’investisseurs tels que CRV et Fusion Fund. Nvidia a rebaptisé Lepton AI « DGX Cloud Lepton » et a relancé le service en juin 2025. Selon l’entreprise, ce nouveau service offre une plateforme unifiée dédiée à l’intelligence artificielle, associée à un système de mise en relation qui permet aux développeurs d’accéder à des dizaines de milliers de GPU, via un réseau mondial de fournisseurs de services cloud.
Comment fonctionne DGX Cloud Lepton
DGX Cloud Lepton agit comme une plateforme unifiée pour l’intelligence artificielle, combinée à une place de marché du calcul. Son objectif : rapprocher les développeurs de la puissance GPU disponible à l’échelle mondiale. Le service agrège les capacités de calcul fournies par des partenaires comme AWS, CoreWeave ou Lambda, et les rend accessibles via une interface logicielle centralisée et homogène.
Quel que soit l’emplacement des clusters, les développeurs peuvent ainsi accéder facilement aux ressources GPU sans se soucier de l’infrastructure sous-jacente. Nvidia y superpose une pile logicielle unifiée — incluant NIM, Nemo, Blueprints et Cloud Functions — garantissant une expérience cohérente pour exécuter les workflows d’IA, peu importe le fournisseur cloud utilisé.
DGX Cloud Lepton prend en charge trois types de flux de travail principaux :
- Dev Pods : des environnements de développement interactifs — comme Jupyter Notebook, SSH ou VS Code — conçus pour le prototypage, l’expérimentation et les itérations rapides.
- Batch Jobs : des charges de travail non interactives, massivement parallélisables, telles que l’entraînement de modèles ou le prétraitement de données. Ces tâches peuvent s’exécuter sur plusieurs nœuds, avec un suivi en temps réel et des métriques détaillées.
- Inference Endpoints : le déploiement de modèles — qu’ils soient préentraînés, affinés ou personnalisés — sous forme de points de terminaison évolutifs et hautement disponibles. Ces services sont compatibles avec les conteneurs NVIDIA NIM ou avec des conteneurs personnalisés.
En complément, DGX Cloud Lepton propose toute une suite de fonctionnalités opérationnelles : observabilité en temps réel, mise à l’échelle automatique à la demande, espaces de travail personnalisables, ainsi que des garanties de sécurité et de conformité. Les utilisateurs peuvent également choisir la région d’hébergement de leurs données afin de respecter les exigences en matière de souveraineté et de localisation des données.
Le réseau mondial en pleine expansion de DGX Cloud Lepton
Nvidia multiplie les partenariats avec les principaux fournisseurs de cloud et d’infrastructure à travers le monde. Parmi les acteurs clés figurent Andromeda, AWS, CoreWeave, Foxconn, Hugging Face, Lambda, Microsoft Azure, Mistral AI, Together AI ou encore Yotta.
Lors de la récente conférence GTC à Paris, Nvidia a annoncé sa collaboration avec plusieurs grands fournisseurs européens afin de répondre aux exigences locales en matière de souveraineté des données. Un partenariat avec Hugging Face a également été officialisé pour proposer des clusters de formation d’IA en tant que service.
Sur le plan financier, Nvidia s’est alliée à des sociétés européennes de capital-risque (Accel, Elaia, Partech et Sofinnova Partners) pour offrir jusqu’à 100 000 dollars de crédits GPU, ainsi qu’un accompagnement par des experts Nvidia, aux start-ups éligibles de leurs portefeuilles via DGX Cloud Lepton.
Le service, encore en phase de pré-lancement, propose des tarifs variables selon le fournisseur cloud. Les développeurs intéressés peuvent dès maintenant demander un accès anticipé sur le site de Nvidia.
Avec DGX Cloud Lepton, Nvidia entend démocratiser l’accès à la puissance GPU dans le monde entier. Plutôt que de lancer sa propre plateforme cloud en concurrence avec les géants du secteur, l’entreprise mise sur un modèle d’agrégation, en s’appuyant sur ses partenaires pour offrir une capacité de calcul unifiée et accessible aux développeurs.
Une contribution de Janakiram MSV pour Forbes US – traduit par Lisa Deleforterie
À lire également : Intelligence artificielle et gestion d’actifs : opportunité ou menace ?

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits