Intelligence Artificielle : Tout Savoir Sur La 4ème Révolution Economique

Née dans les années 1940, l’intelligence artificielle (I.A.), qui désigne les dispositifs imitant ou remplaçant l’humain dans certaines mises en œuvre de ses fonctions cognitives[1], s’est faufilée ces dernières années plus ou moins discrètement au cœur de nos vies de tous les jours, de nos entreprises et de nos sociétés. Elle l’a fait derrière des noms et concepts variés auxquels elle est intimement liée, comme machine learning, big data, informatique cognitive, Internet of Things, algorithmes.

 

Des fortunes y sont investies par les grands acteurs du numérique, et un nombre croissant de start-up se lance à la conquête de ces terrains inconnus et prometteurs. Nous ne sommes pourtant toujours qu’aux balbutiements de ce qui est pressenti comme une 4ème révolution économique, qui changera en profondeur une multitude de secteurs – de la médecine aux transports, en passant par l’agriculture -, notre rapport au travail, et ira jusqu’à mettre en question certaines de nos valeurs.

 


Entre les discours solutionnistes, à la limite d’un pseudo-messianisme, et ceux qui voient dans l’intelligence artificielle le démon ou le danger absolu, il convient d’adopter une vision débarrassée de la mystification qui plane sur ce domaine, et de reprendre un rôle responsable :

la nature des bouleversements qu’apporteront les algorithmes et notre capacité à en bénéficier dépendront en grande partie des choix que nous faisons aujourd’hui en termes d’investissement, de débat public et de réglementation.

 

Comme pour tout outil ou technologie au potentiel immense, depuis la maîtrise du feu à la fission nucléaire en passant par l’électricité, l’I.A. présente des risques réels. Mais le sensationnel des débats sur la singularité[2] (intéressants par ailleurs) éclipse des questions aujourd’hui plus concrètes ainsi que les succès déjà réels du secteur.

 

Parmi les interrogations pertinentes, la question principale – pourtant souvent oubliée – est celle de l’utilisation que nous faisons des algorithmes, et non de leur nature. Des algorithmes de prise de décision et de reconnaissance d’images relativement similaires peuvent par exemple être utilisés pour du diagnostic médical ou pour construire des armes autonomes, et ce choix peut être encadré sans remettre en question l’innovation et la recherche.

 

En plus de la question de la protection de la vie privée, qui commence à être posée assez largement, la possibilité de s’approcher d’une dystopie à la “meilleur de mondes” est également crédible. La multiplication des algorithmes de personnalisation et de bien-être pose le risque de nous restreindre individuellement dans une vision du monde étroite mais confortable, réduisant ainsi notre liberté de façon indolore.

 

Les questions de sécurité informatique, déjà critiques mais peu médiatisées, vont aussi devenir encore plus centrales avec l’omniprésence croissante de l’I.A.

Les conséquences sur l’emploi et sur la place de l’humain de l’automatisation d’une partie des tâches aujourd’hui réalisées par des employés – qui ne se limiteront pas aux emplois peu qualifiés – sont difficiles à prévoir mais méritent également d’être anticipées.

 

Mais dans le secteur médical comme ailleurs, le remplacement de l’humain par l’algorithme sera l’exception plutôt que la règle. Le médecin n’est pas remplacé, et encore moins diminué, il est augmenté par l’algorithme qui lui rend intelligibles des informations auxquelles il n’avait pas accès. Le secteur médical, en particulier à travers les instruments d’imagerie, truffés d’algorithmes de traitement d’images et d’aide au diagnostic, bénéficie déjà grandement de cette innovation technique pour sauver des vies. D’autres secteurs comme le transport et l’agriculture de précision, avec un impact direct sur la planète, commencent également à être impactés positivement par le secteur.

 

Ces exemple illustrent la possibilité pour les algorithmes d’augmenter l’humain plutôt que de le remplacer ou le diminuer, en lui permettant d’accéder à des informations inaccessibles jusqu’alors, et en le libérant de la partie automatisable, répétitive ou froidement analytique de son travail.

 

S’assurer que nous tirons le meilleur de l’intelligence artificielle et nous prémunir contre ses risques passent par la mise en place et le respect de certains garde-fous. Parmi eux, l’un des plus importants semble l’interprétabilité des décisions prises par les algorithmes, qui passe d’une part par la maîtrise de leur conception, et par la capacité d’en tester les comportements par des mises en situation, d’autre part. Un algorithme utilisé sur des questions sociales, d’orientation ou de recherche d’emploi, doit par exemple pouvoir être testé sur des questions de discrimination. La confiance aveugle dans des algorithmes black box doit être absolument évitée.

 

Plus généralement, les questions éthiques primordiales ne doivent pas masquer les résultats et promesses formidables de l’intelligence artificielle, et encore moins remettre en question la pertinence de la recherche scientifique dans ce secteur. Les grandes entreprises technologiques ainsi que certains acteurs gouvernementaux comme les États-Unis et l’UE ne s’y trompent pas et investissent déjà massivement dans ces technologies, et devraient redoubler de moyens sur ces sujets.

 

Les algorithmes, correctement définis et utilisés, ont le potentiel de nous dispenser de tâches pénibles, répétitives, aliénantes, et de nous donner accès à de nouvelles capacités. Pour quoi faire ? C’est exactement le genre de question auxquelles un ordinateur n’apportera pas de réponse qui ne lui aura été soufflée par un humain.

[1] Source : https://fr.wikipedia.org/wiki/Intelligence_artificielle

[2] La singularité technologique est l’hypothèse que l’invention de l’intelligence artificielle va aboutir à une superintelligence qui dépasserait l’humain et prendrait le contrôle.