Si le Sommet mondial de l’IA qui s’est tenu à Paris a été l’occasion de sensibiliser le grand public et les entreprises françaises aux défis économiques et sociétaux majeurs de l’« IA Race », il a aussi permis aux scientifiques de pointer toutes les incertitudes auxquelles les experts, les développeurs et les dirigeants politiques et d’entreprises sont confrontés. Parmi toutes les révolutions technologiques en cours, l’essor effréné de l’IA agentique montre bien à quel point nous avançons sur une ligne de crête vertigineuse.
Une contribution du Dr Jules Brochard et du Dr David Alcaud, Square Research Center
La révolution des agents autonomes de l’IA
En 2025, l’IA agentique marque déjà une révolution technologique de plus, la troisième en trois ans : 2023 fut l’année des chatBots, et 2024 celle des RAGs, intégrant aux chatBots les données internes des entreprises. Ces nouveaux agents révolutionnent en offrant des systèmes capables de prendre des décisions, d’apprendre et de s’adapter à leur environnement sans intervention humaine constante. Un agent autonome perçoit son environnement numérique, prend des décisions et agit sans intervention humaine directe. e. Loin des robots tondant votre pelouse ou des véhicules autonomes, ces agents commencent par accéder à votre micro et vos fichiers pour analyser vos réunions, en faire les comptes rendus, déduire les prochaines étapes, trouver les personnes à contacter et les inviter au prochain créneau disponible. Ils se connectent et exploitent ainsi tous nos outils informatiques “classiques”, se répartissent les tâches et s’optimisent continuellement par essai-erreur.
Tous les grands acteurs de l’IA commercialisent déjà ces promesses à grand renfort de publicité. Microsoft vient de conclure son « AI Tour Paris 2025 » : Corine de Bilbao, présidente de Microsoft France y a vanté l’intégration de ses agents IA dans les secteurs stratégiques français : science (ITER), industrie (Alstom), services (La Poste, Generali, Amadeus), manufacture (ENGIE, Legrand) et administratif (Région Sud). Mistral déploie ses agents dans les grands groupes : Dassault, Zalando, France Travail, BNP Paribas, AXA, et annonce, début juin, décupler ses services grâce à Mistral Compute, son partenariat avec Nvidia. Estimé aujourd’hui à plus de quatre milliards d’euros, le marché de l’IA agentique est attendu à 112 milliards d’ici dix ans. 25% des entreprises du Fortune 500 l’emploie déjà pour répondre aux nouvelles attentes en matière de disponibilité (24/7), d’hyper-personnalisation et d’instantanéité des réponses.
Le besoin d’agents régulateurs, des agents autonomes ?
Pour autant, les scientifiques alertent sur les limites et danger inhérents à cette autonomie. Lors du sommet scientifique de l’IA à l’Ecole Polytechnique, Ece Kamar, vice-présidente du laboratoire de recherche « Frontière de l’IA » de Microsoft, illustrait déjà ces risques : après avoir demandé à un agent IA d’aller résoudre les mots croisés du New York Times, l’agent a ouvert un navigateur, trouvé le site web, la bonne page et la solution, mais a dérapé au premier pop-up venu. Au lieu d’ignorer la demande d’identification, puisque l’accès au mot de passe lui est interdit, il élabore une stratégie de contournement en le réinitialisant via les emails auxquels il a bien accès. Comme le résume Yoshua Bengio, directeur du rapport scientifique sur la sécurité de l’IA commandité par l’ONU : « plus ils sont intelligents, plus ils trichent ». Asuman Özdağlar, Professeure au MIT, le démontre par théorème et simulations, en “raisonnant” ces agents dégénèrent, devenant incapables de coopérer efficacement. C’est le dilemme du prisonnier étendu à toutes les strates d’une entreprise : chacun optimise localement sans notions de l’intérêt global.
Si la tentation est donc grande d’investir dans des agents qui font office de nouveaux collaborateurs modèles, le risque majeur est de sous-estimer la perte de contrôle et de confiance qui en découle. Michael Jordan, professeur à UC Berkeley, martèle le point : « Il faut que l’on comprenne comment fonctionnent les IA, pour pouvoir leur faire confiance. ». Un employé qui « hallucine » et défend seulement ses propres intérêts ne manquera pas de soulever des questions managériales. Il est déraisonnable, voire irresponsable, de croire les agents IA plus vertueux. C’est cette relation homme-machine qu’il faut repenser, pour permettre à tous les dirigeants et managers de soumettre, plutôt que de soustraire, ces nouveaux « collaborateurs » à leur propre sens critique. Reste à savoir qui est prêt à chercher à s’en donner les moyens.
À lire également : Le coût social de la course à l’IA, un sujet tabou ?

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits