Les médias croulent sous la masse de rapports traitant des récentes expérimentations d’intelligence artificielle réalisées par Facebook. Ces expérimentations ont eu pour résultat la capacité des machines à créer leur propre langage, incompréhensible des humains. Il fut par la suite rapporté que Facebook aurait mis fin à l’expérimentation en raison de la crainte d’avoir créé une chose que l’entreprise n’aurait pas pu contrôler.

Si l’histoire n’est pas que pure intox, elle a tout de même connu des distorsions et de mauvaises retranscriptions. Il est vrai que les robots ont créé leur propre “langage”, mais ce n’était pas afin de cacher quoi que ce soit à leurs maîtres humains : l’objectif était simplement qu’ils soient plus efficaces. De plus, l’une des raisons pour lesquelles l’expérience fut interrompue est que son but n’était pas de prouver ce que les chercheurs savaient déjà de la capacité des machines à créer un langage, mais précisément de faire en sorte que les machines puissent échanger avec les humains.

“Si l’idée de robots dotés d’intelligence artificielle créant leur propre langage peut être alarmante ou inattendue pour les personnes extérieures au secteur, il s’agit pourtant d’un sous-champ de l’intelligence artificielle bien établi, des publications ayant porté sur le sujet depuis des décennies,” écrit le chercheur en intelligence artificielle Dhruv Batra dans un post Facebook. Il ajoute que “des robots tentant d’accomplir une tâche vont souvent trouver des manières contre-intuitives d’augmenter la récompense. Analyser la fonction de récompense et changer les paramètres d’une expérience n’est pas la même chose que de “mettre fin” à une expérimentation impliquant l’intelligence artificielle. Si cela était le cas, chaque chercheur en intelligence artificielle aurait “mis fin” à son expérience en interrompant un travail sur une machine.”

En d’autres mots, les machines ont fait ce que la plupart des gens font en conversant : éliminer le verbiage inutile et les redondances pour en venir au point principal.

Les machines peuvent négocier

Les détails de l’expérimentation furent rassemblés dans un article publié le 14 juin par l’équipe de recherche en intelligence artificielle de Facebook (FAIR). Cet article explique que le but de la recherche était de voir comment les machines négocieraient les unes avec les autres, et avec les humains. Ironiquement, cela n’avait rien à voir avec le fait déjà connu qui est que les machines peuvent créer leurs propres langages ; l’intérêt était de savoir si “elles pouvaient entretenir des conversations sensées avec les gens.”

D’après les chercheurs de la FAIR, l’expérimentation consistait en l’étude de la “négociation sur une tâche à problèmes multiples,” en montrant à deux robots “une même sélection d’objets (par exemple deux livres, un chapeau et trois balles) et leur apprendre à les partager entre eux en négociant le partage.” Comme les humains, les machines étaient programmées pour négocier en vue de l’issue qui leur était la plus favorable, du point de vue de leur intérêt personnel, mais contrairement à beaucoup d’êtres humains, “le robot de cette expérience négocie jusqu’à ce qu’il parvienne à un résultat satisfaisant”, de façon incroyablement intelligente.

“Il y avait des cas où les robots feignait d’abord un intérêt dans un objet sans valeur, pour ensuite faire “un compromis” en le cédant – une tactique de négociation effective à laquelle les gens ont fréquemment recours. Ce comportement n’était pas programmé par les chercheurs ; il fut découvert par le robot, comme une manière d’atteindre ses buts.”

Pour ce qui est de la paranoïa au sujet des machines créant leur propre langage, les chercheurs ont spécifiquement traité cette caractéristique non pas par crainte de la domination du monde par les robots, mais pour rendre possible aux machines l’interaction avec les humains, ce qu’elles ont apparemment bien accompli.

“Dans les expérimentations menées par FAIR, la plupart des gens n’ont pas réalisé qu’ils parlaient à un robot et non à une personne, ce qui montre que les robots ont appris à tenir une conversation dans un anglais courant.”

Aussi, comme les humains, le meilleur robot de négociation obtint des résultats mitigés qui “coïncidaient avec ceux des négociateurs humains. Il fit les meilleurs marchés à peu près aussi souvent que les pires, démontrant que les robots FAIR peuvent non seulement parler une langue mais aussi penser intelligemment à que dire.”

Peut-on apprendre des machines ?

Il est difficile de rapporter cette histoire sans penser aux questions d’ordre politique, et à la façon dont les robots pourraient peut-être faire don de leur science à nous autres, humains. Les sujets de société les plus sérieux, comme par exemple la santé ou l’immigration, nécessitent les négociations de personnes intelligentes et leur volonté de faire des compromis afin d’obtenir les meilleurs résultats possibles. Il arrive souvent que nos dirigeants ne puissent parvenir à un accord et qu’ils finissent par abandonner un sujet, quand les ordinateurs, d’après les expérimentations menées par Facebook, sont eux capables de s’atteler à une tâche jusqu’à ce qu’un accord satisfaisant en résulte.

Il ne s’agit pas de congédier chacun de nos sénateurs et députés et de les remplacer par quelques ordinateurs s’opposant les uns aux autres, mais peut-être nos dirigeants gagneraient-ils à considérer le travail de ces chercheurs en intelligence artificielle, et à s’interroger sur la façon dont ils pourraient améliorer leurs résultats. À bon entendeur.