logo_blanc
Rechercher

Intelligence Artificielle : 700 Ans d’Histoire

Image par Gerd Altmann de Pixabay

1978XCON (eXpert CONfigurer) est un programme expert en configuration d’ordinateurs qui peut sélectionner les composants en fonction des attentes du client.

1979 – Le « Cart de Stanford » (générations de véhicules autonomes de l’université de Stanford) parvient à traverser une pièce pleine de chaises en 5 heures environ, et sans intervention humaine. Il devient l’un des tout premiers véhicules autonomes.

1980 WABOT-2 est construit à Waseda. C’est un androïde musicien capable de communiquer avec une personne réelle, de lire une partition, et de jouer des morceaux de difficulté moyenne sur un orgue électronique.

1981 – Le Ministre japonais du Commerce International et de l’Industrie accorde un budget de 850 millions de dollars (soit l’équivalent de presque 4 milliards de francs à l’époque, soit environ 676 millions d’euros) au projet d’ordinateurs de cinquième génération. Le projet a pour objectif de développer des ordinateurs qui pourrait suivre des conversations, traduire des langues, interpréter des images et raisonner comme les humains.

1984 – Sortie du film « Electric Dreams » dont le sujet traite d’un triangle amoureux entre un homme, une femme et un ordinateur.

1984 – Au meeting annuel de la « Fourth National Conference on Artificial Intelligence » (quatrième conférence nationale sur l’IA), Roger Schank et Marvin Minsky lancent une alerte sur l’arrivée d’un « hiver de l’IA », prédisant une imminente explosion de la bulle IA (ce qui se produira trois ans plus tard), semblable à la réduction des investissements pour la recherche dans le domaine dans les années 1970.

1986 – Première voiture sans chauffeur, une camionnette Mercedes-Benz, équipée de caméras et de capteurs, roule à une vitesse maximale de 88 km/h dans des rues vides.

Octobre 1986 – David Rumelhart, Geoffrey Hinton et Ronald Williams publient « Learning Representations by back-propagating Errors » (Apprendre des représentations par la rétropropagation des erreurs), et décrivent une nouvelle procédure, la rétropropagation, pour des réseaux d’unités similaires aux neurones.

1987 – La video « Knowledge Navigator » présentée à l’Educom lors de la keynote du CEO d’Apple, John Sculley, prédit un avenir dans lequel les applications de savoir seraient accessibles à des agents intelligents travaillant sur des réseaux connectés à des quantités importantes d’information numérisée.

1988 – Judea Pearl publie « Le raisonnement probabiliste dans les systèmes intelligents« . On lit de lui, lors de son Turing Award : « Judea Pearl a créé les bases de représentation et de calcul pour le traitement de l’information sous incertitude. On lui attribue l’invention des réseaux Bayesiens, un formalisme mathématique pour définir des modèles complexes de probabilité, de même que les principaux algorithmes utilisés pour l’inférence dans ces modèles. Ce travail ne révolutionne pas seulement le champ de l’IA, mais aussi est devenu un outil important pour beaucoup d’autres secteurs de l’ingénierie et des sciences naturelles ».

1988 – Rollo Carpenter développe le chat-bot (robot de conversation) Jabberwacky pour « simuler une conversation humaine d’une façon intéressante, divertissante et drôle ». C’est une première tentative de création d’une IA en interaction avec l’humain.

1988 – Des membres du centre de recherches IBM TJ Watson publient « Une approche statistique de la traduction« . Ils annoncent le passage des méthodes de traduction automatique fondées sur des règles à celles fondées sur les probabilités. Plus largement, on passe à un apprentissage machine fondé sur l’analyse statistique d’exemples connus et non plus sur la compréhension de la tache à accomplir (le projet Candide d’IBM qui traduisait correctement entre anglais et français était basé sur 2,2 millions de paires de phrases, issues principalement des procédures du parlement canadien).

1988 – Marvin Minsky et Seymour Papert produisent une version augmentée de leur livre de 1969, « Perceptrons« . Dans le prologue, « Une Vue depuis 1988« , ils écrivent : « L’une des raisons pour lesquelles le progrès a été si lent dans ce champ de recherches est que des chercheur, non familiers de l’histoire de ce champ, ont perpétué bon nombre des mêmes erreurs avant eux commises ».

1989 – Yann LeCun et d’autres chercheurs chez AT&T Bell Labs sont parvenus à appliquer un algorithme de rétropropagation à un réseau neuronal multi-couche pour lui faire reconnaître des codes postaux. Vu les limitations du matériel à l’époque, il a fallu 3 jours pour accomplir la tache, mais c’était déjà une amélioration importante par rapport aux débuts.

1990 – Rodney Brooks publie « Les Éléphants ne jouent pas aux Echecs« . Il y propose une nouvelle approche des systèmes intégrant une intelligence artificielle, en particulier les robots, sur la base d’une interaction continue avec l’environnement. « Le monde est son propre meilleur modèle… L’astuce est de le capter de la bonne façon et suffisamment souvent ».

1993 – Vernor Vinge écrit « The Coming Technological Singularity« . Il prédit que dans les 30 années à suivre, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère de l’Homme sera terminée ».

1995 – Richard Wallace développe le chat-bot ALICE (Artificial Linguistic Internet Computer Entity), inspiré d’ELIZA (voir plus haut), mais en lui ajoutant le langage naturel via une collection d’échantillons d’une taille sans précédent, autorisée depuis l’avènement du Web.

1997 – Sepp Hochreiter et Jürgen Schmidhuber propose un type de réseau neuronal récurrent (Long Short-Term Memory) utilisé aujourd’hui dans la reconnaissance des caractères et de la voix.

1997Deep Blue devient le premier programme de jeu d’échecs à battre un champion du monde en titre.

1998 – Dave Hampton et Caleb Chung créent Furby, le premier robot animal domestique.

1998 – Yann LeCun, Yoshua Bengio et d’autres publient des articles sur l’application des réseaux neuronaux à la reconnaissance de l’écriture manuscrite et sur l’optimisation de la rétropropagation.

2000 – Cynthia Breazeal, du MIT, développe Kismet, un robot qui peut reconnaître et simuler des émotions.

2000Asimo, robot humanoïde intelligent de Honda, est capable de marcher aussi rapidement qu’un humain et livrer des plateaux aux clients à table au restaurant.

2001 IA, Intelligence Artificielle, un film de Spielberg, met en scène David, un enfant androïde programmer pour aimer.

2004 – Le premier Grand Challenge de la DARPA, un prix pour des véhicules autonomes, est lancé dans le désert Mojave. Aucun des véhicules engagés ne termine les 240 km de route.

2006 – Oren Etzioni, Michele Banko et Michael Cafarella lancent le terme de « machine reading » (lecture machine), « une compréhension autonome d’un texte sans aucune supervision ».

2006 – Geoffrey Hinton publie « Learning multiple Layers of Representation » qui résume les idées ayant conduit aux « réseaux neuronaux multi -couches qui contiennent des connexions haut-bas et à leur formation à générer des données sensorielles plutôt que les classer ». C’est la nouvelle approche du deep-learning.

2007 – Fei Fei Li et ses collègues de Princetown commencent à assembler ImageNet, une grosse base de données d’images annotées pour aider les logiciels de reconnaissance d’objet.

2009 – Rajat Raina, Anand Madhavan et Andrew Ng publient « Large-scale Deep Unsupervised Learning using Graphics Processors » (L’apprentissage non supervisé à grande échelle à l’aide de processeurs graphiques ) et affirment que les processeurs graphiques modernes dépassent largement les capacités de calcul des processeurs multi-cœurs, et peuvent révolutionner l’applicabilité des méthodes d’apprentissage non supervisé.

2009 – Google entame, en secret, le développement d’une voiture sans chauffeur. En 2014, elle deviendra la première à passer l’épreuve du permis de conduire dans le Nevada.

2009 – Au laboratoire d’information intelligente de l’université de Northwestern, on développe Stats Monkey, un programme qui rédige des informations et des nouvelles de sport, sans intervention humaine.

2010 – Lancement du Challenge de reconnaissance visuelle à grande échelle d’ImageNet (ILSVCR), un concours annuel de reconnaissance d’objet par une IA.

2011 – Un réseau neuronal à convolution gagne le concours allemand de reconnaissance de panneaux de signalisation avec 99,46 % de succès (humains : 99,22%).

2011Watson, un ordinateur de questions / réponses participe au jeu Jeopardy! et bat deux anciens champions.

2011 – Des chercheurs à l’IDSIA , en Suisse, font état d’un taux d’erreur de 0,27 % dans la reconnaissance de l’écriture manuscrite par un réseau neuronal à convolution, amélioration importante depuis les 0,25 à 0,40 % les années précédentes.

Juin 2012 – Jeff Dean et Andrew Ng relatent une expérience au cours de laquelle ils ont montré 10 millions d’images sans indication et tirées au hasard de Youtube à un très grand réseau neuronal et « à notre grand amusement, l’un de nos neurones artificiels a appris à répondre sur des images de… chats ».

Octobre 2012 – Un réseau neuronal à convolution créé par des chercheurs de l’université de Toronto atteint un taux d’erreur de seulement 16 % à la compétition de reconnaissance d’objet d’ImageNet. C’est une nette amélioration depuis les 25 % de l’année d’avant.

Mars 2016Alpha Go de Google bat le champion de Go, Lee Sedol.

 

Le web est une source d’information important pour l’histoire de l’IA. Mais il existe aussi de la documentation en français.

 

 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC