La révolution de l’IA agentique ne s’ajoute pas au système, elle le recompose. Elle suppose donc une véritable refonte organisationnelle, éthique et technique. Un changement de paradigme qui place l’exigence de maîtrise architecturale au cœur des priorités des organisations.
Une contribution de François Jaussaud, Head of Fraud and Security Intelligence, France.
De copilote à acteur autonome
Selon une étude Deloitte, 25 % des entreprises utilisant l’IA générative lanceront des projets pilotes d’IA agentique en 2025, un chiffre qui pourrait atteindre 50 % en 2027 (1). Jusqu’à présent, l’intelligence artificielle a surtout endossé un rôle de copilote : analyse de données, génération de contenus, aide à la décision. L’humain restait aux commandes et l’algorithme intervenait en soutien. Avec l’IA agentique, on parle désormais d’entités logicielles autonomes, conçues pour agir dans le monde réel, surveiller des risques, gérer des flux logistiques, anticiper des ruptures et coordonner des systèmes. Et cela, parfois, sans sollicitation humaine directe.
Structurer cette transformation avec un référentiel clair
L’IA agentique suppose donc une véritable refonte organisationnelle, éthique et technique. Pour ne pas subir cette mutation, mais l’accompagner lucidement, encore faut-il un cadre d’analyse rigoureux. Le spectre DORESE – emprunté aux doctrines militaires – propose une lecture à six entrées : Doctrine, Organisation, Ressources humaines, Équipements, Soutien, Entraînement. Un prisme utile pour mesurer à quel point l’IA agentique engage une transformation systémique, bien au-delà du simple choix technologique. Prenons un exemple concret. Du point de vue de la doctrine, il ne suffit plus de dire “on va automatiser tel processus”. Il faut définir jusqu’où l’autonomie est acceptable, dans quels cas l’humain doit reprendre la main, et comment on documente les choix d’un agent autonome. Une évolution radicale qui appelle une nouvelle forme de gouvernance.
De nouvelles fonctions pour encadrer l’IA
Adapter l’agent à sa mission
Souveraineté et maîtrise technologique en ligne de mire
La tentation est grande, pour de nombreuses organisations, d’opter pour des plateformes “tout-en-un”, promettant rapidité, intégration, simplicité. Mais cette facilité a un coût. Car derrière les boîtes noires, se cachent souvent des logiques industrielles peu compatibles avec les exigences de souveraineté, de traçabilité et d’éthique. À l’heure où l’Europe met en œuvre l’AI Act, premier cadre légal structurant pour les systèmes à risque, la question n’est plus : “Peut-on déployer des agents autonomes ?”, mais bien : “Comment les conçoit-on pour qu’ils soient au service d’une finalité claire, contrôlable, explicable ?”. Dans les secteurs critiques (cybersécurité, finance, santé), les projets d’IA agentique bien encadrés produisent déjà des gains mesurables en réactivité, robustesse et performance. Mais leur réussite repose sur une exigence : la maîtrise architecturale.
La question n’est pas aujourd’hui de savoir si ces agents seront présents dans nos organisations, mais dans quelles conditions nous choisirons de leur faire confiance. Et cette réponse — technique, politique, humaine — nous appartient entièrement.
(1) L’IA agentique (Autonomous GenAI agents) transformera la productivité des entreprises – Deloitte
(2) Agentic AI Market Size & Share Analysis – Growth Trends & Forecasts (2025 – 2030)
À lire également : Le mirage du contrôle : la vie privée à l’ère de l’IA agentique

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits