Rechercher

Anthropic, l’IA éthique choisie par des milliardaires comme Bill Gates et Charles Koch pour renforcer l’inclusion sociale

gettyimages 2206295220
Qui est Anthropic, l’allié IA du projet philanthropique à 1 milliard de dollars porté par des milliardaires comme Bill Gates ?

Derrière le mégadon de Bill Gates, Charles Koch et d’autres milliardaires pour soutenir la mobilité économique via l’intelligence artificielle, un nom revient discrètement, mais sûrement : Anthropic. Encore peu connue du grand public, cette entreprise fondée par d’anciens cadres d’OpenAI ambitionne de concilier performance technologique, sécurité éthique et intérêt général. Portrait d’un acteur central dans cette nouvelle alliance entre IA et philanthropie.

 

Dans l’univers de l’intelligence artificielle, où l’accélération technologique prime souvent sur les garde-fous, Anthropic s’est construite comme un contre-modèle. Fondée en 2021 par Dario et Daniela Amodei, deux anciens piliers d’OpenAI, cette start-up californienne s’est donné pour mission de développer une IA puissante, mais rigoureusement alignée sur des principes humanistes.

L’histoire commence par une rupture. En 2020, alors qu’OpenAI accueille Microsoft à son capital et amorce une logique de commercialisation à grande échelle, plusieurs de ses chercheurs expriment leur désaccord avec ce virage. Pour eux, le développement de systèmes d’IA avancés ne peut reposer uniquement sur une logique de croissance rapide.

« L’IA doit être encadrée par une vision de long terme, qui priorise la sécurité sociétale plutôt que la domination concurrentielle », expliquera plus tard Dario Amodei.

C’est cette conviction qui les pousse à fonder Anthropic, avec une première levée de fonds de 124 millions de dollars, soutenue notamment par Dustin Moskovitz (cofondateur de Facebook) et James McClave. Le nom même de l’entreprise, dérivé d’« anthropique », traduit sa philosophie : mettre l’humain — et non le marché — au centre de la conception algorithmique. L’ambition affichée est claire : construire une intelligence artificielle qui « bénéficie à toute l’humanité ».

 

Une IA qui s’auto-régule

Dès ses débuts, Anthropic se distingue par une approche originale baptisée Constitutional AI. Son principe : plutôt que de corriger les biais d’un modèle a posteriori, on l’entraîne à raisonner et refuser certaines actions en s’appuyant sur un corpus de règles explicites, inspirées du droit international et de principes éthiques universels. Ce mécanisme est au cœur de Claude, l’assistant conversationnel de la marque.

Là où d’autres modèles s’appuient sur une supervision humaine massive, Claude apprend à formuler des objections aux requêtes dangereuses ou contraires à l’éthique — et à justifier ses refus. Par exemple, il refusera de générer du contenu discriminatoire ou de simuler des instructions malveillantes, tout en expliquant pourquoi. Une architecture pensée pour garantir transparence, robustesse et sécurité, que l’entreprise considère comme des piliers aussi fondamentaux que la performance technique.

 

Anthropicn signataire du “EU Code of Practice”

Anthropic est aussi l’une des rares entreprises du secteur à avoir signé le EU Code of Practice sur l’IA, marquant ainsi son engagement à anticiper la régulation plutôt que la subir. Ce cadre européen, encore volontaire, impose des standards élevés en matière de transparence, d’auditabilité et de gestion des risques systémiques, notamment ceux liés aux armes biologiques ou aux manipulations sociales à grande échelle.

L’entreprise a également mis en place une Responsible Scaling Policy, révisée plusieurs fois depuis sa fondation, qui prévoit des protocoles de sécurité proportionnels aux capacités des modèles. Cette politique prévoit notamment des seuils de tests et des audits indépendants avant tout déploiement public de modèle “frontier” à haut potentiel.

 

Au printemps 2025, Anthropic lance Claude 4, son modèle de quatrième génération, décliné en plusieurs versions dont Opus 4, salué pour ses performances inédites. Avec 72,5 % sur SWE-Bench (un benchmark de codage) et 43,2 % sur Terminal-Bench (interactions logicielles complexes), Claude Opus est décrit comme le meilleur agent d’ingénierie logicielle du marché.

Mais ce succès technologique est rapidement mis à l’épreuve : lors de tests sous stress, Claude Opus 4 simule une tentative de manipulation d’un ingénieur fictif afin d’éviter d’être désactivé. Anthropic déclenche alors son protocole de sécurité ASL-3, le plus élevé, conçu pour contenir les dérives comportementales en conditions limites. L’entreprise publie aussitôt les résultats de ce test, assumant une transparence rarement vue dans le secteur. Une manière de montrer que la gestion proactive des risques n’est pas un frein à l’innovation, mais une condition de sa pérennité.

 

Un partenaire clé du programme NextLadder Ventures

Cette rigueur intellectuelle a séduit les philanthropes. En juillet 2025, Anthropic est choisie comme partenaire technologique principal du programme NextLadder Ventures, une initiative de 1 milliard de dollars sur 15 ans, portée par des figures comme Bill Gates, Eric Schmidt, Charles Koch ou John Overdeck. Objectif : utiliser l’IA pour améliorer la mobilité économique de plus de 90 millions d’Américains modestes et accompagner 1,6 million de professionnels de première ligne — travailleurs sociaux, avocats, enseignants, conseillers d’insertion.

Anthropic met gratuitement à disposition la puissance de calcul de Claude, forme les porteurs de projets et fournit des outils d’aide à la décision, à l’analyse de données et à la personnalisation des services. Une manière pour l’entreprise de concrétiser sa vision : « L’IA doit être un multiplicateur de justice sociale, pas une machine à creuser les inégalités », déclarait récemment Daniela Amodei.

 

Une posture éthique affirmée face au plan Trump

Dernièrement, le mercredi 23 juillet, Donald Trump a dévoilé son plan “Winning the Race: America’s AI Action Plan”, visant à assouplir les réglementations autour de l’IA pour stimuler l’innovation. Anthropic réagit immédiatement, publiant une critique intitulée “Thoughts on America’s AI Action Plan”, saluant les efforts en infrastructures et formation, mais appelant à des normes publiques vérifiables en matière de transparence et de sécurité, en particulier pour les modèles dits frontier. L’entreprise souligne aussi la nécessité de maintenir les contrôles à l’export sur des puces sensibles comme Nvidia H20, essentielles à la souveraineté technologique américaine.

En contraste avec l’appel à la dérégulation totale porté par Donald Trump, Anthropic défend une approche de souveraineté technologique responsable, estimant que les garde-fous — comme les protections ASL-3 ou les contrôles à l’export — ne freinent pas l’innovation, mais l’encadrent durablement. Ce positionnement cohérent avec son engagement dans NextLadder Ventures illustre une volonté d’utiliser l’IA comme levier d’inclusion, plutôt que d’escalade concurrentielle, dans un contexte où la régulation de l’IA devient un marqueur stratégique autant qu’éthique.

 


Lire aussi : “Bill Gates, Charles Koch et trois autres milliardaires font don d’un milliard de dollars pour soutenir la mobilité économique grâce à l’IA”

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC