Machine Learning : Les Applications Intéressent Tous Les Secteurs D’Activité

Le ‘machine learning’, ou apprentissage automatique par l’ordinateur, commence à imprégner toutes les disciplines scientifiques et techniques, la recherche médicale, l’enseignement et la formation professionnelle. Tous les secteurs d’activité s’y intéressent sérieusement.

Le 15 mars dernier, au jeu de Go, le supercalculateur AlphaGo de Google l’a largement remporté, par 4 victoires à 1, face au coréen Lee Se-Dol, champion du monde de la spécialité. Déjà en octobre 2015, la machine avait largement battu le meilleur joueur d’Europe, Fan Hui, par 5 contre 0. « Je suis stupéfié par le résultat», a déclaré le champion coréen. «AlphaGo a joué des coups qu’aucun humain ne fera jamais (…) L’ordinateur «a  parfaitement fermé le jeu ».

Devant les prouesses de ces ordinateurs champions, tous les scientifiques s’inclinent. Cela rappelle la défaite, en 1997, du russe Garry Kasparov, champion d’échecs, face au supercalculateur Deep Blue d’IBM, ou en 2007,  la victoire du méga-ordinateur Watson (IBM) au jeu Jeopardy.

« C’est époustouflant ! », s’est exclamé Olivier Teytaud, spécialiste en intelligence artificielle à l’INRIA, auteur du logiciel MoGo. « Très impressionnant»,  a dit Tristan Cazenave, Paris-Dauphine, spécialiste de la programmation des jeux à Paris Dauphine, lors de la parution d’un article début 2016 relatant la défaite du joueur Fan Hui face à l’ordinateur. Commentaire de la revue : «Le logiciel de Google montre un jeu étonnamment mature, solide, patient mais incisif quand il le faut. »


Le secret de Google

Google garde jalousement le secret. AlphaGo a été conçu par de jeunes passionnés de jeux d’arcades, co-fondateurs en 2010 de DeepMind, une start-up ‘Licorne’ achetée une fortune par Google en 2014. Tout ce que l’on sait sur ses capacités de ‘machine learning’ ici, c’est que l’ordinateur a joué plusieurs centaines de milliers de parties de jeu de Go. Avant de devenir « imbattable », il aurait emmagasiné 30 millions de mouvements de joueurs super-doués.

Il faut savoir que le jeu de Go est très difficile à simuler, car le nombre de combinaisons possibles est immense (estimé à 10 puissance 600, contre 10 puissance 120 « seulement » pour le jeu d’échecs !).

Face à Facebook

Dans cette nouvelle guerre de l’intelligence artificielle dérivant du ‘machine learning’ de nouvelle génération (ou ‘Advanced learning machine’, dit le cabinet Gartner),  les enjeux sont colossaux. Car, on rejoint ici un autre territoire stratégique, celui du Big data et des ‘data scientists’.

FaceBook n’est pas en reste : il a recruté en 2015 le chercheur français Yann LeCun (**) à la direction de son département AI (Artificial intelligence). Le logiciel de jeu de Go de Facebook est déjà en ligne. La course risque fort de s’accélérer dans les mois qui viennent avec des applications ‘business’ concrètes.

Le plus étonnant est que le ‘machine learning’, qu’on traduit souvent par « apprentissage automatique »), tout comme l’intelligence artificielle ou les réseaux neuronaux ou « convolutifs » (Yann LeCun)  ne datent pas d’aujourd’hui.  Mais la combinaison récente avec les systèmes de calculs massivement parallèles, propres au Big data, donne un nouvel élan. De nouveaux horizons s’ouvrent d’autant que, parallèlement, les travaux sur l’informatique quantique (et non plus seulement binaire)  suscite de nouveaux algorithmes très prometteurs.

Des retombées spectaculaires

Les retombées seront très prometteuses dans le monde de la santé, de l’industrie, de l’éducation/formation, de la modélisation climatique, etc.

Prenons un exemple spectaculaire, dans le domaine de la biologie. Depuis l’Antiquité, on avait observé que certains être vivants sont capables de régénérer une grande partie de leur organisme (et pas seulement leur queue). A l’université Tufts (Massachusetts), une application très sophistiquée de ‘machine learning’ vient de permettre de reconstituer un tel modèle de régénération pour le ver Planaire, un ver plat d’eau douce, capable de se reconstituer entièrement, sur plusieurs segments (forme de clonage).

Il s’agit d’un algorithme dit « évolutionnaire » (ou évolutionniste) qui a permis de répliquer comment les cellules souches du ver se reconstruisent une à une, chacune ayant la connaissance du plan global de l’organisme entier, avec le rôle de chacune. On en revient bien sûr à l’ADN (génome). Ici, l’application a permis de relever le nombre immense de réactions chimiques en cascade au niveau des protéines (produites par l’ADN, précisément) ainsi que les mécanismes physiques engendrés.

L’application a été capable de digérer toutes les données génétiques, biologiques et physiologiques connues sur ce ver planaire issues d’une quinzaine d’expériences et d’observations antérieures. Elle a alors produit des « lignées » de modèles ou ‘patterns’ qui s’affrontent, c’est-à-dire mis en concurrence. On sélectionne ceux qui semblent rendre le mieux compte des résultats expérimentaux observés. Puis, nouveau cycle de calcul, l’algorithme affine de nouveaux modèles, en introduisant des variations aléatoires, correspondant à des mutations cellulaires, et ces nouveaux modèles sont eux-mêmes challengés (concurrencés/sélectionnés).  Et ainsi de suite, après des centaines de cycles de calcul, les chercheurs sont parvenus à un modèle référent unique de « cascades biochimiques ».  Le modèle a fini par correspondre à tous les résultats des précédentes expérimentations.

Des systèmes complexes à la… science fiction

Ainsi, sans même savoir (lire, comprendre) comment les processus s’enchaînent (vu la complexité de l’ensemble des interactions en jeu), il a été possible de refaire ces expérimentations pour aboutir à un même modèle qui fonctionne : c’est-à-dire qu’il devient possible de prévoir le résultat d’une nouvelle expérience et de le valider en le comparant avec une expérience réelle menée en parallèle. CQFD… Il reste à montrer que la méthode est universelle (s’agissant de biochimie, dans un premier temps).  Mais on mesure ainsi les progrès considérables opérés ces 5 dernières années. Les applications vont être décisives pour divers processus complexes mettant en jeu des réseaux d’interactions entre éléments disparates – ce qui rejoint la validation de « signaux faibles ».

En parallèle, des ‘datascientits’ nous assurent qu’ils peuvent prédire qu’un client va quitter sa banque, qu’il va dénoncer son contrat ou abandonner sa commande en cours ou qu’un système de navigation aérienne va tomber en panne.. Or ces mêmes chercheurs disent qu’ils ne sauront eux-mêmes pas bien expliquer pourquoi tels ou tels incidents ou comportements auront été identifiés, mais la prédiction va devenir de plus en plus fiable… Entre science-fiction et réalité, d’autres questions –éthiques, réglementaires – vont ressurgir.

_ _ _

(*) Le jeu de Go consiste à conquérir le maximum de territoire à l’aide de pions blancs ou noirs sur un plateau de 19 lignes par 19 soit 361 cases.

 

_ _ _

Repères

Pour devenir champion du jeu de Go, le logiciel Alphago (DeepMind, Google) a appris 30 millions de mouvements de joueurs professionnels.

Le jeu de Go contient jusqu’à 10 puissance 600 combinaisons de jeu possible, contre 10 puissance 170 pour le jeu d’échecs

 

Témoignages

(**) Yann LeCun, professeur au Collège de France, directeur Intelligence Artificielle chez FaceBook :

« La compréhension de l’apprentissage « en profondeur » [deep learning] nous permettra non seulement de construire des machines plus intelligentes, mais aussi nous aidera à comprendre l’intelligence et les mécanismes de l’apprentissage humain. »

Christophe Chalons, Chief Analyst, cabinet PAC (Les défis de 2016)

« L’accent va de plus en plus être mis sur l’humain, qu’il soit utilisateur de produits logiciels, client ou salarié (…) Les technologies de ‘machine learning’ (auto-apprentissage) et d’analyse cognitive tendront à être embarquées dans les logiciels, devenant utilisables par tout un chacun. »

Alexander Linden, cabinet Gartner:

«Advanced Machine Learning, deep neural nets (DNNs) move beyond classic computing and information management to create systems that can autonomously learn to perceive the world, on their own».

Stanford University: «Machine learning is the science of getting computers to act without being explicitly programmed».

_ _ _

Ressources

(**)http://yann.lecun.com/

http://www.frenchweb.fr/4-idees-recues-sur-le-machine-learning/225482

http://www.infoworld.com/article/3017251/data-science/what-machine-learning-will-gain-in-2016.html

Ouvrage ‘Data Science: fondamentaux et études de cas’, Machine Learning avec Python et R (plateforme Kaggle), par Eric Biernat et Michel Lutz (Octo Technology), préface de Yann LeCun, Editions Eyrolles (10/2015)

une intelligence artificielle résout seule une énigme biologique

http://www.infoworld.com/article/3017251/data-science/what-machine-learning-will-gain-in-2016.html