logo_blanc
Rechercher

Pourquoi Elon Musk attaque OpenAI ?

Depuis novembre 2022 et le lancement de ChatGPT, l’intelligence artificielle est sur toutes les lèvres. ChatGPT a atteint un million d’utilisateurs en cinq jours – contre deux mois et demi pour Instagram, deux ans pour Twitter et trois ans et demi pour Netflix – et 100 millions en deux mois, quand TikTok en a mis neuf. OpenAI est devenu le leader incontournable d’une industrie encore émergente. Mais pourquoi son co-fondateur Elon Musk attaque-il en justice sa propre création ?

Une contribution d’Oihab Allal-Chérif, Professeur à NEOMA Business School

 

Cela fait plus d’une décennie qu’Elon Musk alerte le monde sur les dangers de l’IA, ce qui peut paraître paradoxal pour l’un des hommes qui a le plus contribué à l’innovation à notre époque et dont les activités reposent largement sur cette technologie. En 2015, Elon Musk était ami avec Larry Page, cofondateur de Google qui employait trois quarts des talents de l’IA dans le monde. Pendant sa fête d’anniversaire, Elon Musk s’est rendu compte lors d’une conversation avec lui que son interlocuteur prenait à la légère les dangers associés à l’IA et les risques qu’une technologie aussi puissante puisse tomber entre de mauvaises mains. C’est une des motivations de la création d’OpenAI : contrer le géant Google.

 

Les avertissements répétés d’Elon Musk

Dès octobre 2014, pendant l’AeroAstro Centennial Symposium devant des étudiants du MIT, Elon Musk s’inquiète : « Je pense que nous devrions être très prudents en matière d’intelligence artificielle. Si je devais deviner quelle est notre plus grande menace existentielle, c’est probablement celle-là. Nous devons donc être très prudents ». Il ajoute : « Avec l’intelligence artificielle, nous invoquons le démon; » Pour lui, le créateur d’une IA très puissante pourrait croire à tort qu’il serait capable d’en garder le contrôle ce qui représente « un risque fondamental pour l’existence de la civilisation ». Une avancée trop rapide et non maîtrisée de l’IA résulterait probablement selon lui en une catastrophe planétaire – comme l’invention d’une arme qui dépasserait notre compréhension ou la création d’une infinité de réalités alternatives – et en l’extinction de la race humaine.

 

En janvier 2015, Elon Musk exprime ses inquiétudes dans une lettre ouverte co-signée par Stephen Hawking et de nombreux experts de l’IA et de la robotique. L’astrophysicien a expliqué dans un discours à la Web Summit Technology Conference : « Réussir à créer une IA efficace pourrait être le plus grand événement de l’histoire de notre civilisation. Ou le pire. Nous ne le savons tout simplement pas. Nous ne pouvons donc pas savoir si nous serons infiniment aidés par l’IA, ou si elle nous ignorera et nous marginalisera, ou si nous serons éventuellement détruits par elle ». Bill Gates soutien la démarche et se demande pourquoi certains ne sont pas plus préoccupés par les avancées dans le domaine de l’IA. Au contraire, Mark Zuckerberg qualifie Elon Musk d’irresponsable et se dit optimiste quand aux impacts bénéfiques de l’IA pour un monde meilleur.

En février 2017, lors du World Government Summit de Dubaï, Elon Musk explique que face aux progrès technologiques l’intelligence humaine devra fusionner avec l’IA pour ne pas devenir obsolète. Il réitère ses propos en juillet 2017, lors d’une rencontre des Gouverneurs américains au National Governors Association Summer Meeting. En septembre 2017, en réponse à un commentaire de Vladimir Putin sur le pouvoir potentiel de l’IA pour contrôler le monde, Elon Musk exprime sur Twitter son inquiétude que la course des nations pour le développement de l’IA soit la cause de la Troisième Guerre Mondiale. En 2018, invité d’honneur du festival SXSW à Austin au Texas, Elon Musk déclare : « Ecoutez moi bien : l’intelligence artificielle est plus dangereuse que les bombes atomiques ». Plus que la puissance future de l’IA, il redoute les usages hostiles et malveillants qui pourraient en être faits.

En février 2020, Elon Musk post sur Tweeter : « Toutes les organisations développant une IA avancée devraient être réglementées, y compris Tesla. » Il précise ensuite que cette régulation doit venir à la fois des gouvernements de chaque pays et des organisations mondiales comme les Nations Unies. En novembre 2023, lors du AI Safety Summit, conférence sur la sécurité de l’IA, pendant une conversation avec le Premier ministre Britannique Rishi Sunak, Elon Musk affirme que : « Nous sommes témoins de la force la plus disruptive de l’histoire. » Le 24 janvier 2024, Elon Musk a demandé un renforcement du contrôle de Tesla assurant lors d’une conférence téléphonique : « Je ne cherche pas à obtenir des avantages économiques supplémentaires. Je veux juste être un gestionnaire efficace d’une technologie très puissante. »

 

 

 

Elon Musk est associé à la pensée libertarienne qui est par principe contre les contraintes et les régulations inutiles et pour un maximum de liberté pour les individus et les organisations. C’est ce qui motive son approche de la liberté d’expression totale qu’il souhaitait appliquer sur X, ex-Tweeter. C’est donc assez paradoxal qu’Elon Musk soit celui qui exprime le plus sa volonté d’une régulation proactive et non réactive de l’IA. Bien qu’il considère qu’en général les régulations sont ennuyeuses et pénibles, les risques sont trop élevés pour permettre à l’IA de se développer sans entrave. C’est également suspect compte tenu des enjeux financiers associés aux entreprises Tesla, xAi, ou Neuralink contrôlées par Elon Musk, parfois accusé de vouloir simplement ralentir les progrès de la concurrence. Sa sincérité est toutefois démontrée par le fait qu’il souhaite appliquer premièrement à lui-même les régulations qu’il souhaite voir imposées aux autres.

 

La création d’OpenAI

Fin 2015, Elon Musk a co-fondé OpenAI avec Sam Altman, Greck Brockman et plusieurs autres associés. Comme son nom l’indique, OpenAI s’inspire alors des logiciels open source, accessibles à tous et utilisables et modifiables par tous. Le but de cette organisation ouverte à but non-lucratif est de développer une intelligence artificielle sûre pour le bénéfice de l’humanité. La technologie ainsi développée ne pourrait pas être monétisée, mais serait utilisée pour améliorer la société.

Avec environ cinquante millions de dollars, Elon Musk est le principal investisseur dans le projet initial dont toutes les découvertes, codes et brevets doivent être ouverts et partagés avec d’autres institutions et avec le public. OpenAI recrute les meilleurs chercheurs dans le domaine de l’apprentissage profond qui utilise des réseaux de neurones pour analyser et résoudre des problèmes complexes. C’est la mission que l’organisation s’est donnée qui a convaincu ces talents de la rejoindre, et pour certains de quitter Google.

 

 

 

En 2018, Elon Musk quitte le conseil d’administration pour manifester son désaccord avec la stratégie mise en œuvre par les autres membres et après avoir probablement tenté de prendre le contrôle d’OpenAI. Les autres membres du Conseil d’administration n’auraient pas accepté qu’il prenne la présidence et ont donné une nouvelle orientation à l’entreprise.

 

Echec et trahison

Depuis, Open IA est devenue exactement le contraire de ce qu’il voulait créer : une entreprise fermée à but lucratif contrôlée par une des plus grandes multinationales du monde : Microsoft. Le groupe a investi 13 milliards de dollars dans la startup entre 2019 et 2023, prenant le contrôle de tous les projets et en faisant de fait une filiale. Le code de GPT-4 n’a pas été rendu public et les déclarations des dirigeants de Microsoft ne laissent guère de doute sur la place qu’ils souhaitent donner à cette technologie dans leurs futures offre commerciale. C’est donc la plus grande peur d’Elon Musk qui se concrétise comme une prophétie autoréalisatrice : tout ce qu’il a fait pour l’éviter semble n’avoir contribué qu’à accélérer le processus. Il confesse lui-même avoir été idiot et déplore que son projet d’une IA sûre et ouverte pour le bénéfice de l’humanité soit devenu la machine à cash de Microsoft.

Le 29 mars 2023, Elon Musk s’est associé à Steve Wozniak (cofondateur d’Apple) et plus d’un millier d’experts pour demander un moratoire de six mois dans le développement de l’IA. Au-delà du buzz médiatique, cette démarche spectaculaire n’a pas vraiment eu d’effets, si ce n’est d’alerter l’opinion publique et les politiques sur les enjeux éthiques de l’IA. Mais il apparaît illusoire de souhaiter une pause dans la recherche et développement qui ne permettrait qu’au acteurs internationaux qui ne la respecteraient pas de prendre de l’avance. Elon Musk est cette fois passé à l’offensive judiciaire pour dénoncer le revirement d’OpenAI, son allégeance à Microsoft, et les potentiels conséquences dramatiques pour l’humanité.

Que l’un des hommes les plus riches du monde – première ou deuxième fortune mondiale depuis plusieurs années – attaque en justice sa propre création n’est pas anodin. C’est la parfaite illustration que la situation est totalement hors de contrôle et qu’il apparaît urgent de mettre en place des modes de régulation et de gouvernance internationaux.

 


À lire également : Chat GPT impacte-t-il l’enseignement supérieur ?

 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC