logo_blanc
Rechercher

La fin d’année tourmentée de l’IA générative

IA

En cette fin d’année, la sortie de Gemini de Google et la commercialisation prochaine de l’IA « anti-woke » Grok par Musk vont occuper une large part de l’actualité de l’IA. Que faut-il attendre de ces IA génératives ? Vont-elles supplanter ChatGPT ? Répondre à ces questions nécessite de comprendre la logique d’une industrie dont les opportunités de développement sont immenses, et les besoins financiers colossaux.

Par Eric Braune, Professeur associé – Omnes Education Research

Le questionnement concernant l’opportunité d’une commercialisation à marche forcée des différentes solutions d’IA testées dans les laboratoires de R&D oppose ordinairement les « accelerationists » partisans d’une monétisation rapide aux « doomers » qui privilégient les questions de sécurité et tentent de faire primer celles-ci sur toute autre considération.

La victoire de Sam Altam, héraut des premiers, sur le conseil d’administration, plus prudent, de l’entité à but non lucratif d’OpenAI a ouvert la voie à une série d’annonces qui alimente l’actualité de l’IA depuis un mois. Les atermoiements passés ont laissé place à un sentiment d’urgence. Tour à tour, OpenAI dévoilait son projet d’IA générale dénommé Q*. Alphabet annonçait la sortie imminente de son IA générative, Google Gemini. Elon Musk informait de la commercialisation de Grok, une IA anti-woke nourrie des messages laissés sur X.com, l’ex-twitter. Bien sûr, les communications des différentes entreprises impliquées dans l’IA soulignent les bénéfices uniques que les utilisateurs tireront des solutions proposées. En arrière-plan, les considérations strictement financières restent dans l’ombre. Pourtant un bref éclairage sur celles-ci permet de mieux cerner ce qui se joue, à court terme, pour l’avenir de ces entreprises.

Une erreur de télescope 

Un court rappel de faits récents suffit à décrire l’extraordinaire pression supportée par les dirigeants des entreprises impliquées dans l’IA générative. Le 6 février 2023, Google annonçait le déploiement de son chatbot Bard, un concurrent de ChatGPT. A la suite de cette présentation, Google postait une vidéo de démonstration des possibilités offertes par Bard. Or celle-ci contenait une erreur factuelle : Bard attribuait au télescope Webb la prise des toutes premières photos d’une planète en dehors de notre propre système solaire. Vite relayée par les réseaux sociaux puis par l’agence Reuters, l’erreur commise par Bard soulignait les lacunes de la R&D de Google. Les conséquences furent terribles. Le volume des transactions de l’action Alphabet, la société mère de Google, était multiplié par trois et le titre perdait 9% de sa valeur. L’attribution au mauvais télescope de la première prise de photos d’une planète en dehors du système solaire, a amputé la capitalisation boursière d’Alphabet de 100 milliards de dollars.

Extraordinaire volatilité financière des entreprises impliquées sur ce marché.

Le succès de la monétisation de ChatGPT appelle une réponse rapide de Google et X. aucune de ces entreprises n’est en mesure d’échapper à la primauté de cette logique financière. Alphabet est cotée au Nasdaq et l’impact d’une erreur sur la valeur du titre est démontrée. OpenAI aujourd’hui valorisée 90 milliards de dollars est largement financée par des fonds de capital-risque[1]. Ces derniers sortiront du capital en revendant leurs parts à un géant de la Tech ou en introduisant l’entreprise en bourse. Dans les deux cas les gains tirés de la vente des parts d’OpenAi seront corrélés à la capacité de cette entreprise à monétiser ses solutions IA. A l’inverse, les échecs ou la mise en évidence de risques liés au fonctionnement de ChatGPT se traduiront par une diminution de sa valorisation. Enfin, Twitter, achetée 44 milliards de dollars par Elon Musk ne vaudrait plus aujourd’hui que 19 milliards, dettes comprises ! Ces chiffres questionnent la capacité de X (nouveau nom de Twitter) à suivre la course lancée par les autres acteurs du marché. Ils expliquent peut-être le choix d’Elon Musk de nourrir son IA des messages postés sur X. Une décision qui questionne les biais de cette future IA générative.

Les dirigeants des entreprises citées semblent aujourd’hui pris dans un étau. D’un côté, ils doivent démontrer aux investisseurs potentiels leur capacité à monétiser rapidement des solutions IA. De l’autre, les failles, les manques, les lacunes de ces solutions peuvent conduire à des réductions importantes de leurs valorisations financières. Sur le court terme, les problématiques financières exposées expliquent certainement une large part des annonces récentes des entreprises de ce secteur d’activité. A moyen terme, d’autres défis menacent la pérennité de ces entreprises.

Une IA générative mature avant l’émergence d’une IA générale

Google a appris de ces erreurs et la démonstration de Gemini s’est voulu davantage prosaïque que celle de Bard en février. Face aux images d’une omelette en train de cuire, Gemini peut affirmer sans commettre d’erreur que l’omelette n’est pas cuite car les œufs sont encore liquides ! Les loupés de Bard concernant l’attribution des premières images de planètes en dehors de notre système solaire s’effacent devant la conviction que Gemini nous aidera dans les tâches du quotidien. C’est une belle façon de relativiser l’idée de progrès.

Au-delà de la boutade, la sortie de Gemini interroge les développements futurs de l’IA générative. Google DeepMind affirme que Gemini surpasse GPT-4 sur 30 des 32 mesures standard de performance. Et pourtant, les marges entre les deux IA sont minces. Gemini rassemble les meilleures capacités actuelles de l’IA dans un ensemble puissant. À en juger par les démonstrations, il fait beaucoup de choses très bien, mais peu de choses que nous n’ayons jamais vues auparavant. Malgré le battage médiatique autour de la prochaine grande nouveauté, Gemini pourrait être le signe de la maturité des technologies qui sous-tendent l’IA générative. N’espérer pas voir Gemini résoudre des problématiques de mathématique élémentaire. Comme ChatGPT, les algorithmes de Gemini sont fondés sur la prédiction auto-régressive de Token. En d’autres termes les deux IA sont inaptes au raisonnement. L’incapacité de l’une comme de l’autre à ordonnancer une série de tâches en vue de la résolution d’un problème ou de la réponse à une question complexe limite leur utilisation.

Des aptitudes presque infinies ? 

Les modèles d’IA générale, font l’objet de travaux de recherche très importants de la part des plus grands laboratoires, comme FAIR, DeepMind, OpenAI. La capacité d’auto-organisation de ces modèles leur ouvre les portes de domaines extrêmement vastes d’applications. Leur structure les rapproche de l’intelligence humaine. Les « doomers » craignent que le développement de tels modèles conduise à une intelligence artificielle incontrôlable. Notamment, des préoccupations liées à la sécurité pourraient survenir si des systèmes d’IA générale étaient autorisés à définir leurs propres objectifs et commençaient à interagir avec le monde réel, qu’il soit physique ou numérique, de diverses manières. La victoire d’Altman sur son conseil d’administration a rendu ces avertissements inaudibles et nous pouvons parier sur le lancement commercial d’une première IA générale dans les 6 ans. Toutefois, cette victoire n’est pas complète tant elle souligne l’incapacité des entreprises du secteur à s’auto-réguler. Dans ce contexte, la tentative de régulation imposée par l’UE est méritoire et souligne l’impossibilité du développement de l’IA en dehors de tout cadre légal.

Le futur de l’IA n’est pas écrit

L’IA générale ne représente pas l’unique avenir des algorithmes de l’IA. Le MIT a récemment procédé à un spin off en vue de la proposition d’une IA polyvalente, facile à entrainer et à spécialiser.  LiquidAI a déjà levé 37,5 millions $ pour sa phase d’amorçage auprès de sociétés de capital-risque. Le terme « liquide » souligne la flexibilité obtenue grâce à la réduction de la taille de réseaux neuronaux. Ainsi, alors que ChatGPT 4 repose sur 175 milliards de paramètres et 50 000 neurones, un réseau liquide a besoin de 20 000 paramètres et moins de 20 neurones pour fonctionner. Les réseaux liquides sont donc plus faciles à entrainer et consomment moins de capacité computationnelle. La petite taille et l’architecture simple des réseaux neuronaux liquides autorise également une plus grande interprétabilité. Comprendre la fonction de chacun des 20 neurones d’un réseau neuronal liquide est plus facile que d’appréhender la fonction des 50 000 neurones de GPT-4.

L’IA liquide offre des modèle plus rentables, fiables, explicables et performants

Une caractéristique attrayante et potentiellement distinctive des réseaux neuronaux liquides réside dans leur capacité à ajuster leurs paramètres pour optimiser le « succès » au fil du temps. Contrairement à la plupart des modèles qui traitent des tranches isolées ou des instantanés de données, ces réseaux prennent en considération des séquences de données et ajustent de manière dynamique l’échange de signaux entre leurs neurones. Ces propriétés permettent aux réseaux neuronaux liquides de s’adapter aux changements de leur environnement et de circonstances, même en l’absence d’un entraînement spécifique pour anticiper ces changements. Les premiers tests indiquent que les réseaux neuronaux liquides surpassent les autres modèles d’IA dans la prédiction de valeurs futures. Un grand nombre de domaines, depuis la chimie atmosphérique jusqu’à la circulation automobile tireront un grand bénéfice du déploiement de tels modèles. Dès à présent, la conduite autonome a enregistré des progrès impressionnants en exploitant les propriétés des réseaux de neurones liquides.

Une approche prudente et raisonné de l’IA ? 

La recherche et le développement des modèles d’IA nécessitent des moyens financiers considérables et nous devons nous réjouir de l’intérêt de différentes catégories investisseurs pour ces travaux. A titre d’exemple, Mistral AI porte les espoirs d’indépendance technologique de la France dans le domaine de l’IA et l’annonce de sa dernière levée de fonds, 385 millions d’euros, augure de la compétitivité future de ses modèles. La monétisation des IA génératives de Google ou X, après celle d’OpenAi,  répond d’abord et avant tout, à une logique financière. Pour chacune de ses entreprises, l’échec de la monétisation de son modèle d’IA générative peut coûter très cher. Toutefois, aucune d’entre-elles ne peut signaler à ses investisseurs le retard pris par sa R&D en repoussant la mise sur le marché de son produit. Grok va donc suivre Gemini et les comparaisons entre les avantages des IA d’OpenAI, Google et X vont se multiplier. Pourtant, fondées sur des algorithmes d’un même type, ces trois IA présentent les mêmes limites intrinsèques. Il faut donc regarder plus loin, suivre les développements de l’IA générale ou les progrès d’une conduite autonome portée par les modèles neuronaux liquides. Il faut également reconnaitre l’incapacité des majors du secteur à s’auto-réguler. Dans ce contexte, l’Artificial Intelligence Act adopté par l’Union Européenne tempère le triomphe de Sam Altman sur les partisans d’une approche prudente et raisonné de l’IA. Dans les secteurs de haute technologie, comme dans bien d’autres domaines, les victoires ne sont jamais définitives.   

 

[1] Le 8 décembre 2023, Microsoft qui a pourtant investi 10 milliards $ dans OpenAI déclarait ne détenir aucune part de cette entreprise.

 

À lire également : Les faux commentaires en ligne pourraient ruiner la confiance dans l’économie numérique : il est urgent d’agir 

 

 

 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC