IA | L’intelligence artificielle arrivera-t-elle un jour au niveau de l’intelligence des humains ? Le débat est relancé après que Meta, la maison mère de Facebook ait annoncé le 13 Juin 2023, avoir mis au point un nouveau modèle d’intelligence artificielle qui serait capable de « comprendre le monde sous-jacent », s’approchant ainsi de la qualité de raisonnement d’un humain. Voilà une annonce qui ne laissera personne indifférent et qui mérite quelques éléments de réflexion susceptibles d’alimenter bien des conversations.
De quoi parle-t-on ? « JEPA » (pour « Joint Embedding Predictive Architecture »), en s’appuyant sur architecture encore expérimentale serait capable d’apprendre, de raisonner, d’imaginer, de concevoir et de planifier des actions, marquant ainsi une vraie rupture avec les modèles d’IA générative actuels qui, il est vrai, sont en grand majorité construit à partir d’une structure relativement basique même s’ils donnent souvent l’illusion du contraire.
Au lieu de se concentrer sur d’énormes quantités de données et de textes générés ou instruits par des humains, le modèle JEPA se concentre sur la comparaison de représentations abstraites d’images, de sons ou de textes en lieu et place de récolter des téraoctets de données (comme le fait le Machine Learning). L’idée est de comprendre puis de répliquer le fonctionnement du cerveau humain qui analyse, tous les jours, sans s’en apercevoir, énormément d’informations simplement en observant le monde qui l’entoure. Par cette innovation, les imprécisions inhérentes à l’IA générative traditionnelle seraient ainsi largement amoindries.
Quand on parle aujourd’hui d’IA générative, tout le monde pense à ChatGPT bien sûr ou encore à Bard. JEPA n’a rien en commun avec ChatGPT ou tout autre modèle de langage conversationnel de même type. Avec JEPA, beaucoup d’observateurs affirment déjà que l’on vient de franchir un cap important. Pour autant doit-on s’enthousiasmer de cette innovation ? Est-elle autant disruptive qu’elle y parait ? En fait nous considérons que JEPA ne constitue pas une révolution en soi sur le plan technologique. C’est en revanche une innovation majeure sur les cas d’usages qui ne manqueront pas d’être exploités.
Que peut devenir l’intelligence humaine face à ce tsunami technologique? L’intelligence humaine est-elle menacée par les innovations qui sont censées nous faciliter la vie mais qui pourraient également nous asservir ?
Mais qu’entend-on par intelligence humaine ?
Définir l’intelligence relève d’une complexité certaine tant on peut trouver dans la littérature de nombreux essais qui traitent du sujet avec autant de variantes que d’auteurs (ou presque). Cette complexité prend encore une autre dimension quand il s’agit de l’associer à l’intelligence humaine. La définition de l’intelligence n’est donc pas aisée et reste un sujet controversé. Selon Paul Guillaume (1878-1962), « Dire de quelqu’un qu’il est intelligent, c’est porter un jugement de valeur ».
Nous considérons qu’une machine dotée d’une intelligence artificielle, aussi sophistiquée qu’elle soit, ne peut être considérée comme “intelligente” mais plutôt comme étant une interface s’appuyant sur une technologie basée sur des algorithmes lui permettant de produire des résultats qui se rapprochent d’une forme de rationalité. Peut-on demander à une machine d’expliquer le raisonnement qui a conduit au résultat fourni ? La réponse est non.
Elle ne fait qu’appliquer une programmation imaginée et créée par un humain. Les applications IA vont ainsi permettre aux systèmes d’assurer un apprentissage automatique (ou machine learning) des situations permettant de développer des modèles prédictifs de plus en plus perfectionnés en fonction de la quantité de données traitées. Ainsi et comme le ferait une intelligence humaine qui acquiert au fil du temps des connaissances et une compréhension situationnelle, l’apprentissage automatique repose sur des entrées, comme des données d’entrainement ou des graphiques de connaissances, pour comprendre l’environnement de la situation que l’IA doit gérer.
Il n’est pas dans notre propos de relater les différents types d’apprentissage. Mais selon la complexité, on pourra s’orienter vers un type d’apprentissage supervisé, non supervisé, par renforcement. Globalement, tous les systèmes utilisant les bases d’une intelligence artificielle apprennent sans comprendre et décident sans comprendre. Réaliser des opérations de façon automatique sans en comprendre le sens, ne peut en aucun être comparée à une définition de l’intelligence.
L’intelligence artificielle dispose d’une capacité de mémoire immensément importante rendue nécessaire par la grande quantité nécessaire de données (data) qu’elle doit absorber pour apprendre et donc renforcer la qualité de l’apprentissage automatique. Après un entraînement variable dans le temps en fonction de la complexité du sujet à traiter et du volume de données disponible, le système utilisant une IA va acquérir une expérience, faire preuve d’une certaine logique et ainsi améliorer la qualité des analyses prédictives qui vont en découler. Parle-t-on alors d’intelligence des machines ? Assurément non, mais d’intelligence augmentée pour les individus qui vont utiliser cette IA.
Les humains ont une énorme capacité intellectuelle à généraliser leur apprentissage dans différents domaines alors que la machine ne s’enrichit que d’éléments pour lesquels elle a été programmée. N’oublions pas que l’élaboration de ces machines et des algorithmes associés demande, pour être performante, une certaine dose d’intelligence humaine pour la conception, le correctif et l’amélioration après expérience de ces dispositifs. Il s’agit donc là d’une réelle différence entre une IA qui demande de la logique, et l’humain pour qui l’intelligence développée ne demande pas une pure logique.
Selon Olivier Houdé, l’intelligence se situerait dans l’inhibition, c’est-à-dire dans notre capacité à bloquer des intuitions pour nous adapter à l’environnement. En d’autres termes, être intelligent reviendrait à utiliser notre cerveau de façon utile et de manière circonstanciée. Nous partageons cette approche qui nous amène donc à considérer qu’un algorithme ne pourrait être considéré comme intelligent à partir du moment où la logique simple ne peut saisir parfaitement le monde et son espace environnemental.
La machine ne surpasse donc pas l’homme car c’est lui qui reste encore le maître du jeu. La machine montre une capacité supérieure à absorber des données. Sa capacité de traitement des données est également plus rapide que celle d’un homme. Ses marges d’erreurs sont plus faibles. Pour autant, l’algorithme s’entraîne sur des données alimentées de façon mécanique, et sans qu’un contrôle puisse en amont être réalisé sur la véracité de l’information. La machine peut donc aussi commettre des erreurs d’interprétation, des paralogismes voire émettre des aberrations. Il n’y a que l’humain qui est mesure de corriger les heuristiques et d’interpréter les données d’une façon logique. Jusqu’où ses connaissances pourront-elles le porter ?
La programmation algorithmique de la machine ne lui permet pas de s’adapter au futur. Lorsque de nouveaux concepts ou situations se présenteront dans notre écosystème, l’homme s’adaptera comme il l’a toujours fait. La machine ne pourra réagir qu’en fonction de données historiques qu’elle connaît et qui ne seront plus cohérentes avec l’évolution de la situation. Par ailleurs, n’omettons pas le fait que c’est encore l’homme qui crée ou qui contrôlent les algorithmes. S’il commet des erreurs, la machine ne va pas les détecter. Les résultats fournit par les machines sont tous explicables mathématiquement, même si parfois cela est contraignant et peut prendre du temps.
On ne peut donc décemment pas parler d’intelligence. Les machines n’ont pas de conscience et ne peuvent pas s’adapter aux situations futures, une faculté propre à l’humanité. En lançant JEBRA, Méta entend s’inspirer de la pensée humaine. JEBRA est une tentative visant à limiter les imprécisions et les erreurs encore perceptibles avec l’IA générative traditionnelle. Une étape vient d’être franchie. Reste maintenant à voir sur la durée si les réalisations seront en adéquation avec les espérances de Méta.
Conclusion
Déclarer qu’une technologie est intelligente, que cette intelligence est semblable à la nôtre, ne peut fait naitre que la confusion. Nous avons voulu souligner dans ce court article que les hommes créent des technologies et non l’inverse. Les qualités de ces dernières sont strictement bornées par les caractéristiques des entrainements qu’elles ont reçus. Et que des ingénieurs ont définis. Ainsi, lorsque nous admirons les développements récents de l’IA générative nous reconnaissons les dernières avancées de la connaissance humaine et sa maitrise croissante de technologies nouvelles. Nous pouvons prêter des traits proprement humains aux machines. Ceux-ci ne sont que les raffinements d’une conception portée par des individus particulièrement brillants.
Les machines ne sont pas intelligentes. Elles ne peuvent expliquer ou justifier les algorithmes qui guident leurs préconisations. Les limites de ces dernières leur sont par conséquent inconnues. De plus, les machines apprennent et décident sans comprendre. La question du sens et des conséquences concrètes de leurs propositions sont en dehors du cadre de leur algorithme. Faut-il ici rappeler le proverbe rabelaisien : « Science sans conscience n’est que ruine de l’âme » ? Une connaissance sans réflexivité ne permet à l’homme de progresser. Enfin, elles sont incapables de généraliser les résultats de leurs apprentissages à différents domaines et leurs capacités d’adaptation à des situations nouvelles sont très limitées.
Si les machines ne sont pas intelligentes, les débats actuels concernant leur future place dans notre environnement professionnel sont donc biaisés. Toutefois, ces débats permettent de réaffirmer les spécificités d’un travail humain tout entier porté notre intelligence commune et unique. Cette intelligence nous permet d’interroger les intérêts et les limites des heuristiques que nous utilisons. Elle questionne chaque jour nos routines et nous permet de dépasser le caractère purement rituel de nos comportements. Cette intelligence, nous conduit à évaluer, en conscience, les conséquences de nos décisions. Cette évaluation oriente l’équilibre de nos décisions, entre rationalité économique et obligation éthique. Enfin, nous disposons d’une capacité particulière nous permettant de trouver des similitudes, d’établir des ponts, entre des situations nouvelles et celles que nous avons déjà rencontrées. Cette aptitude nous permet d’explorer des territoires et des domaines de connaissances toujours nouveaux.
Soyons certains que ce n’est pas en entrainant une intelligence artificielle avec toujours plus de données qu’on atteindra le niveau de l’intelligence humaine. Oui les machines seront de plus en plus perfectionnées mais en aucun cas que cela augure un monde dominé par celles-ci. L’intelligence artificielle est et restera au service de l’intelligence humaine.
Article rédigé par :
Pascal MONTAGNON – Directeur de la Chaire de Recherche Digital, Data Science et Intelligence Artificielle – OMNES EDUCATION
Eric BRAUNE – Professeur associé – OMNES EDUCATION
<<< A lire également: Faut-il interdire l’IA générative au bureau ? >>>
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits