logo_blanc
Rechercher

Intelligence Artificielle : Facebook Aide Intel À Fabriquer Sa Première Puce IA

L’entreprise américaine Intel, spécialisée dans la fabrication de puces, est considérée comme une retardataire dans le marché très prisé de l’intelligence artificielle (IA). Le fabriquant de puces graphiques Nvidia s’est présenté comme l’acteur clé des derniers développements du deep learning, une branche importante de l’IA qui implique la formation d’ordinateurs se servant de grandes quantités de données.

Cependant, le géant Intel va tenter de rattraper son retard en sortant plus tard cette année sa première puce dédiée à des opérations relevant de l’IA. Pour ce premier grand pas, l’entreprise s’est associée à un collaborateur de taille: Facebook.

« Nous sommes exaltés de notre collaboration étroite avec Facebook qui partage avec nous son savoir technique tandis que nous mettons cette nouvelle génération de matériel informatique IA sur le marché, » a écrit le PDG d’Intel, Brian Krzanich, dans une publication de blog ce mardi.

Intel développe la première génération de cette puce qui n’est disponible que pour un nombre limité de partenaires, dont Facebook, afin de recevoir des retours en vue de la deuxième version prévue pour l’année prochaine. Facebook est un acteur important de l’IA, aussi bien dans la recherche – dirigée par le pionnier du deep learning, Yann LeCun – que dans l’application des dernières techniques d’intelligence artificielle à grande ampleur sur son réseau social.

Intel désigne la puce à venir par le terme de processeur de réseau neuronal (ou NNP). Elle a précédemment porté le nom de code « Lake Crest ». Comme la désignation le suggère, le processeur est optimisé de manière à comporter des réseaux neuronaux, ce qui est une manifestation du deep learning.

« C’est la première puce au monde dédiée aux réseaux neuronaux, » déclare Naveen Rao, vice-président de la branche IA d’Intel, lors d’une interview.

Selon Naveen Rao, la puce fonctionne aussi bien pour l’exécution d’algorithmes que pour la formation des modèles d’intelligence artificielle, ce qui constitue l’aspect informatique le plus intensif, actuellement dominé par Nvidia. Les processeurs graphiques de Nvidia (les GPU) ont bien fonctionné avec le deep learning, à cause de leur capacité à effectuer des calculs parallèles (en informatique, le calcul parallèle est l’exécution simultanée d’une même tâche, répartie entre plusieurs processeurs). Un GPU comprend des milliers d’ordinateurs minuscules qui fonctionnent en même temps, chacun étant dédié au rendu des pixels. Il y a quelques années, les chercheurs ont découvert que les capacités des GPU étaient presque idéales pour l’exécution d’algorithmes de deep learning, lesquels requièrent aussi des milliers de calculs parallèles. Intel a également indiqué que le NNP produirait aussi de bons résultats dans le calcul parallèle, en utilisant un certain nombre de nouveaux concepts de puce.

Intel prévoit de publier les normes de performance de sa puce IA en fin d’année.

Naveen Rao travaille sur cette puce depuis 2014, époque de sa fondation de la startup d’intelligence artificielle Nervana, qu’Intel a acquise pour 400 millions de dollars l’année dernière. Parce que le projet de puce a commencé en dehors d’Intel, la première puce sera fabriquée par l’entreprise Taiwan Semiconductor Manufacturing Company, et non par Intel. L’entreprise américaine a dit qu’elle prendrait le relais de la fabrication avec la deuxième version de la puce, et qu’elle ferait de celle-ci une puce plus disponible que la première version.

Intel continue à dominer une part colossale (99%) du marché des processeurs, mais les processeurs graphiques de Nvidia sont devenus essentiels pour les derniers développements de l’IA, sans oublier que son business des centres de données explose. Pour son dernier trimestre financier, Nvidia a déclaré en août des recettes de 416 millions de dollars, soit une augmentation de 175% sur un an. Néanmoins, pour son dernier trimestre financier Intel a indiqué en juillet que son business des centres de données était bien plus important que celui de Nvidia, avec 4.4 milliards de dollars de recettes, mais une croissance de seulement 9% par rapport à l’année dernière. Par conséquent, l’action boursière de Nvidia a quasiment triplé ces douze derniers mois, contre une augmentation de moins de 6% pour celle d’Intel sur la même période.

Dans cette nouvelle ère de l’IA, Intel se doit d’aller au-delà de son CPU général afin de rester dans la course. Intel a acquis plusieurs entreprises, la plus grande d’entre elles étant Altera, acquise en 2015 pour 16.7 milliards de dollars. Le mois dernier, Intel a dit être en train de travailler sur une puce neuromorphique, dont le but est de fonctionner comme un véritable cerveau, mais ce projet est expérimental et se trouve à des années de toute commercialisation.
« La force d’Intel c’est notre vaste portfolio, » a commenté Naveen Rao.

Quant à Nvidia, l’entreprise s’est attelée à des actions plus spécifiques à l’IA pour son matériel informatique. Sa dernière architecture de puce graphique, nommée Volta, contient ce qui est désigné par le nom de Tensor Cores: des ordinateurs spécialisés, conçus pour exécuter les opérations mathématiques utilisées dans des logiciels de deep learning.

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC