Rechercher

Sommes-nous à l’aube d’un nouvel hiver de l’IA ?

IA
IA | Source : Getty Images

Plus de 70 ans après que le mathématicien et pionnier de l’informatique britannique Alan Turing ait posé la question de savoir si les machines peuvent penser, le monde investit des milliards pour y répondre. L’intelligence artificielle (IA) domine les gros titres, les portefeuilles de capital-risque et les discussions dans les salles de réunion. La possibilité d’un autre hiver de l’IA peut sembler farfelue. Cependant, l’histoire montre que la trajectoire de l’IA n’a jamais été linéaire. Elle a évolué par cycles d’exubérance et de désillusion, avec des périodes de progrès suivies de longs gels.

 

« Je propose d’examiner la question suivante : “Les machines peuvent-elles penser ?” », Alan Turing, Computing Machinery and Intelligence, 1950.

 


Comprendre les hivers de l’IA

Un hiver de l’IA est une période caractérisée par un déclin important du financement, de l’intérêt et de l’enthousiasme pour l’IA. Ces ralentissements se traduisent par une baisse des investissements, un affaiblissement des progrès de la recherche et une diminution de l’intérêt commercial. Le terme a été utilisé pour la première fois en 1984 lors d’un débat à la réunion annuelle de l’Association américaine pour l’IA.

À cette occasion, les chercheurs Roger Schank et Marvin Minsky ont averti que la vague d’enthousiasme qui balayait alors les milieux d’affaires et de la recherche n’était pas viable. Ils ont prédit une réaction en chaîne qui commencerait par le pessimisme des scientifiques, suivi du scepticisme de la presse, de fortes réductions des investissements et, finalement, de l’effondrement des efforts de recherche. Leur avertissement est devenu réalité : en quelques années, l’industrie de l’IA, qui pesait plusieurs milliards de dollars au milieu des années 1980, a commencé à s’effondrer.

 

Le premier hiver de l’IA : du milieu des années 1970 à 1980

Le premier hiver de l’IA a duré environ de 1974 à 1980. L’un des premiers signes avant-coureurs est apparu dans le domaine de la traduction automatique, qui avait retenu l’attention pendant la guerre froide. À l’époque, les agences américaines, dont la CIA, investissaient massivement dans l’espoir que les ordinateurs puissent traduire instantanément des documents russes. Cependant, au milieu des années 1960, les progrès se faisaient attendre. Le Comité consultatif sur le traitement automatique des langues (ALPAC) a déclaré que la traduction automatique était plus lente, moins précise et plus coûteuse que le travail humain. Son rapport, publié en 1966, a mis fin au soutien américain dans ce domaine et a fait dérailler de nombreuses carrières.

Au Royaume-Uni, Sir James Lighthill, un éminent mathématicien, a rédigé en 1973 un rapport très critique. Commandé par le Parlement britannique, ce rapport concluait que l’IA n’avait pas atteint ses « objectifs grandioses ». Il affirmait que la plupart des tâches pouvaient être accomplies plus efficacement dans d’autres disciplines scientifiques et soulignait le problème de l’« explosion combinatoire ». Cela signifiait que les algorithmes qui semblaient efficaces sur des problèmes restreints et contrôlés devenaient rapidement ingérables face à la complexité du monde réel.

À mesure que le nombre de possibilités augmentait, le temps et les ressources nécessaires pour calculer les réponses explosaient et les progrès s’enlisaient. À la suite de ce rapport, le gouvernement britannique a démantelé la plupart des programmes de recherche en IA au Royaume-Uni, ne laissant que quelques universités actives jusqu’à l’apparition de nouveaux financements une décennie plus tard.

Aux États-Unis, les pressions financières se sont également accrues. Au cours des années 1960, l’Agence pour les projets de recherche avancée de défense (DARPA) avait investi des millions dans l’IA avec un minimum de contrôle. Cela a changé avec les amendements Mansfield de 1969 et 1973, qui ont restreint les fonds fédéraux consacrés à la recherche. Ce changement a réduit la recherche universitaire à long terme et ouverte, et réorienté les fonds vers des travaux appliqués à court terme.

Au début des années 1970, la DARPA a commencé à exiger des résultats concrets et à évaluer les propositions en matière d’IA par rapport à des objectifs rigoureux. De nombreux projets n’ont pas été à la hauteur et, en 1974, l’agence avait fortement réduit son soutien. Le financement autrefois généreux et flexible a cédé la place à des investissements très ciblés, marquant la fin d’une époque où l’IA bénéficiait d’un financement facile.

 

Le deuxième hiver de l’IA : fin des années 1980 à milieu des années 1990

Le deuxième hiver de l’IA a commencé à la fin des années 1980 et s’est prolongé jusqu’au milieu des années 1990. Il a débuté avec l’effondrement du marché des ordinateurs spécialisés, conçus pour exécuter le langage de programmation préféré des chercheurs en IA. En 1987, les stations de travail polyvalentes égalaient ou surpassaient les performances des systèmes spécialisés à un prix bien inférieur. Sans raison d’acheter du matériel coûteux, tout ce marché a disparu presque du jour au lendemain, contraignant de nombreux fabricants à mettre la clé sous la porte.

Dans le même temps, les promesses commerciales des systèmes experts ont commencé à s’estomper. Ces programmes basés sur des règles, conçus pour reproduire la prise de décision des spécialistes, avaient connu un succès initial. Cependant, à mesure que leur adoption se généralisait, leurs limites sont apparues. Les systèmes experts étaient fragiles, coûteux à entretenir et incapables de s’adapter aux changements de conditions. La mise à jour des règles nécessitait souvent des armées de programmeurs, et les systèmes pouvaient commettre des erreurs élémentaires. Au début des années 1990, l’intérêt a diminué, les coûts de maintenance ont augmenté et les déploiements sont devenus moins fréquents.

Le ralentissement était mondial. Le projet ambitieux de cinquième génération lancé au Japon en 1981 pour construire des machines capables de converser, de traduire et de raisonner comme des humains n’a pas répondu aux attentes. Aux États-Unis, la Strategic Computing Initiative de la DARPA, qui finançait autrefois plus de 90 projets, a également réduit ses activités après que ses dirigeants aient rejeté l’IA, la qualifiant de « programmation intelligente » plutôt que de prochaine vague technologique.

Bien que le domaine ne soit jamais tombé complètement en sommeil, l’effondrement du matériel dédié, la fragilité des systèmes experts et l’échec des mégaprojets nationaux ont contribué à provoquer le deuxième hiver de l’IA.

 

Renaissance : depuis la fin des années 1990

Le paysage de l’IA a changé à la fin des années 1990 et au début des années 2000, grâce à la convergence de plusieurs facteurs : l’augmentation de la puissance de calcul, la disponibilité de vastes ensembles de données numériques et l’innovation dans les méthodes d’apprentissage basées sur les données. Au lieu de s’appuyer sur des règles établies manuellement, l’IA a commencé à apprendre à partir d’exemples. Cette approche statistique a jeté les bases de l’apprentissage automatique moderne.

Une percée a eu lieu en 2012 lorsqu’un système vaguement inspiré du cortex visuel humain a surpassé tous ses concurrents lors d’un grand concours de reconnaissance d’images grâce à l’utilisation de grandes quantités de données d’entraînement et de processeurs puissants. Quelques années plus tard, des chercheurs ont présenté le Transformer. Ce modèle se concentre sur les schémas d’attention, apprenant essentiellement à l’IA à déterminer quels mots ou informations sont les plus importants dans un contexte donné. Cette approche a permis de traiter et de comprendre efficacement d’immenses quantités de texte, transformant les applications basées sur le langage et jetant les bases des grands modèles linguistiques.

Depuis le début des années 2010, l’intérêt, le financement et l’adoption ont explosé, marquant une renaissance différente des hivers précédents. Ce renouveau, souvent appelé « boom de l’IA », continue d’étendre sa portée et son influence.

 

Pourquoi les risques d’un nouvel hiver de l’IA sont faibles ?

Les hivers de l’IA précédents ont été déclenchés par un schéma commun : une forte dépendance au financement public, des promesses exagérées et des technologies fragiles qui ont cédé sous le poids des exigences du monde réel. Aujourd’hui, le contexte est différent.

L’IA ne dépend plus d’une poignée d’agences gouvernementales. Le financement public reste important, mais un écosystème de capital-risque bien développé alimente désormais une grande partie des investissements, répartissant les risques entre les start-up et les laboratoires privés. Cette diversification rend un effondrement soudain moins probable.

L’économie de l’informatique a changé. Autrefois, le matériel était trop cher ou trop limité. Aujourd’hui, les coûts continuent de baisser, tandis que les plateformes cloud, les puces spécialisées et les mégadonnées sont largement accessibles. La technologie de l’IA est plus robuste, avec des architectures modernes qui s’adaptent à tous les domaines et des progrès dans le domaine de l’apprentissage profond et du traitement du langage naturel qui apportent une réelle valeur ajoutée.

La gouvernance fait enfin l’objet d’une attention particulière. Des politiques favorables, accompagnées d’investissements dans les infrastructures, sont mises en œuvre dans le monde entier, notamment aux États-Unis, avec le récent plan d’action pour l’IA. Des normes et des mesures de responsabilité sont en discussion afin de créer des garde-fous pour la croissance.

Ensemble, ces facteurs réduisent les risques d’un nouvel hiver de l’IA. Le domaine est plus résilient, plus diversifié et mieux intégré à l’économie que lors des cycles précédents.

 

Éviter le prochain hiver de l’IA

L’histoire montre que la dynamique peut rapidement s’inverser si les promesses dépassent les résultats. Exagérer la proximité de l’intelligence humaine ou ignorer les questions éthiques, sécuritaires et énergétiques érode la confiance et déclenche des réactions négatives.

Les risques sont aujourd’hui plus élevés, car l’IA est intégrée dans les infrastructures critiques et les stratégies nationales. Une perte de confiance pourrait entraîner un durcissement de la réglementation, un retrait des investisseurs et un scepticisme du public, avec des conséquences bien plus graves que celles observées au cours des dernières décennies.

Pour éviter un nouvel hiver de l’IA, il faut associer l’innovation à des attentes réalistes, à des investissements constants dans les infrastructures et à une volonté de transparence sur les progrès et les limites. Les risques persistent, car les investisseurs poursuivent les bulles spéculatives, les coûts informatiques et énergétiques augmentent et les politiques peinent à suivre le rythme effréné du marché. Pourtant, il y a des raisons d’être optimiste. Les chercheurs développent désormais des systèmes capables de traiter simultanément du texte, des images et du son, tandis que les ingénieurs conçoivent des algorithmes plus efficaces.

À l’avenir, la question posée par Alan Turing reste sans réponse. L’histoire montre clairement que le véritable défi consiste à concilier ambition et responsabilité afin que le printemps actuel de l’IA perdure et ne cède pas la place à un nouvel hiver.

 

Une contribution de Paulo Carvão pour Forbes US, traduite par Flora Lucas


À lire également : Entre hiver démographique et révolution IA, les marchés à l’épreuve de transitions majeures

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC