Tous les articles
IA OpenAI Anthropic Pentagone Éthique

Pentagon. Anthropic a dit non. OpenAI a dit oui. Ça ne change probablement rien.

Le 27 février 2026, OpenAI lève 110 milliards de dollars et signe avec le Pentagone — le deal qu'Anthropic venait de refuser. Derrière le duel éthique apparent, quatre lectures complémentaires : stratégie RH, négociation commerciale, jeu du lock-in, et un problème structurel bien plus vieux que l'IA.

Pentagon. Anthropic a dit non. OpenAI a dit oui. Ça ne change probablement rien.
· 14 min de lecture · Thomas Silliard

6 mars 2026 — Premier épisode


Pentagon. Anthropic a dit non. OpenAI a dit oui. Ça ne change probablement rien

Cette semaine j’ai suivi en direct une affaire qui m’a pris beaucoup plus de temps que prévu à démêler. Sur Twitter, Dario Amodei et Sam Altman publiaient leurs positions en temps réel. Des employés signaient des lettres ouvertes. Des millions d’utilisateurs supprimaient leurs abonnements. Et les PDG de deux des labos IA les plus importants du monde se traitaient mutuellement de menteurs — en public.

Au premier regard : un conflit éthique entre deux entreprises.

En creusant : quelque chose de plus structurel, plus ancien, et plus intéressant.

Voici ce que j’en ai compris.


L’objectif de cette newsletter

Avant d’entrer dans les faits, une note sur ce qu’on essaie de faire ici.

Ce n’est pas un résumé d’actualité. Il y en a beaucoup.

L’objectif est de raisonner en premiers principes : partir des faits vérifiables, chercher les conséquences de second et troisième ordre — ce qu’on ne dit pas, pourquoi les choses se passent comme ça, ce que ça révèle sur les mécaniques profondes. Et en tirer des grilles de lecture utilisables dans la vie quotidienne et en business.

Parce que ce qui se joue ici dépasse largement OpenAI et Anthropic.


Acte 1 — Les protagonistes (2021–2024)

Pour comprendre cette affaire, il faut commencer deux ans avant.

Anthropic est fondé en 2021 par Dario Amodei, sa sœur Daniela, et une douzaine d’ingénieurs — tous anciens d’OpenAI. Motif officiel : des désaccords profonds sur la direction que prenait leur ancien employeur en matière de sécurité IA.

Dès le départ, Anthropic se positionne différemment. Ils publient un document appelé “Constitutional AI” — une approche pour aligner les modèles sur des valeurs explicites, issues de sources comme la Déclaration universelle des droits de l’Homme. En janvier 2026, ils publient une “Constitution” formelle pour Claude — un cadre éthique rédigé avec des philosophes, qui établit une hiérarchie claire : sécurité > éthique > guidelines internes > utilité.

C’est du sérieux sur le papier. Et c’est rare dans l’industrie.

OpenAI, de son côté, suit une trajectoire inverse. Fondé en 2015 comme organisation à but non lucratif, il se transforme progressivement en entreprise commerciale — avec une valorisation qui atteindra 730 milliards de dollars en 2026. Leur model spec existe aussi. Il est plus prescriptif, moins philosophique. Et récemment : intégration de publicité dans le tier gratuit de ChatGPT — un signal clair sur la direction commerciale prise.

Sur le terrain de l’utilisation quotidienne, la réalité est l’inverse de ce qu’on pourrait attendre. ChatGPT est aujourd’hui l’une des IA les plus bridées en pratique : des couches de filtres, des refus fréquents dès qu’un sujet devient sensible, des métaprompts de sécurité empilés. Plus tu l’utilises sur des cas complexes, plus tu te heurtes aux garde-fous.

Claude Code, lui, est un outil conçu pour les développeurs — il tourne directement dans l’éditeur, sans surcouche de filtres, sans blocages au milieu d’une session de travail. C’est précisément pour ça qu’il est adopté massivement par les développeurs professionnels. L’IA la plus “ouverte” en pratique vient d’Anthropic, pas d’OpenAI. Ce paradoxe sera important pour la suite.

Juin 2024 : Anthropic devient le premier labo frontier à déployer ses modèles sur les réseaux classifiés du gouvernement américain — via un partenariat avec Palantir. Pas de résistance idéologique à travailler avec la défense. Un contrat signé, des équipes déployées.

Juillet 2025 : le contrat est formalisé à 200 millions de dollars. Le Pentagone accepte explicitement l’Acceptable Use Policy d’Anthropic — incluant des restrictions sur les armes autonomes et la surveillance de masse. Les deux parties ont signé en sachant ce que chacune posait comme conditions.


Acte 2 — Le changement de régime (janvier 2026)

L’administration Trump arrive avec une vision différente de l’IA militaire.

Janvier 2026 : Pete Hegseth, nouveau secrétaire à la Défense, publie un mémo de stratégie IA pour le DoD. Il exige que tous les contrats IA incluent une clause “any lawful use” — accès sans restriction à tout usage légal. Pas de carve-outs. Pas d’exceptions négociées.

Pour Anthropic, c’est directement incompatible avec leur Acceptable Use Policy. Ils ont un contrat en cours qui dit l’inverse.

Les négociations commencent.


Acte 3 — La semaine du 24 février (la séquence complète)

Lundi 24 fév : Le Pentagone fixe un ultimatum. Anthropic doit accepter la clause “any lawful use” ou perdre le contrat. Hegseth rencontre personnellement Dario Amodei.

Mercredi 26 fév : Dario Amodei publie sur Twitter. Ton calme, position ferme : “les menaces du Pentagone ne changent pas notre position.” Il détaille ce qu’Anthropic refuse : armes entièrement autonomes, surveillance de masse de citoyens américains. Il précise qu’Anthropic est prêt à tout usage militaire légal et supervisé par des humains.

Le même jour, Sam Altman publie aussi. Il dit partager les mêmes red lines qu’Amodei. Il semble soutenir la position d’Anthropic.

Jeudi 27 fév, 17h01 : La deadline passe sans accord.

Jeudi 27 fév, soirée : Trump signe un ordre interdisant aux agences fédérales d’utiliser les produits Anthropic. Hegseth désigne officiellement Anthropic “supply chain risk national” — une désignation traditionnellement réservée aux adversaires étrangers, jamais à une entreprise américaine.

Jeudi 27 fév, même soirée : OpenAI annonce un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés. Sam Altman avait dit partager les mêmes red lines. Il a signé quand même.

Jeudi 27 fév, même jour : OpenAI annonce également la finalisation d’une levée de fonds de 110 milliards de dollars — Amazon (50B) + Nvidia (30B) + SoftBank (30B). La plus grande levée privée de l’histoire. Valorisation : 730 milliards de dollars.

Trois événements majeurs. Un seul jour.


Acte 4 — La réaction (28 fév – 5 mars)

28 fév : Les désinstallations de ChatGPT bondissent de 295% en 24 heures. Le churn habituel de l’app est de 9%. Les notes 1 étoile sur les stores augmentent de 775% en une journée. Claude dépasse ChatGPT et devient l’app gratuite la plus téléchargée aux États-Unis sur l’App Store.

1–2 mars : Le mouvement #QuitGPT prend de l’ampleur. En quelques jours, 2,5 millions de personnes ont soit annulé leur abonnement ChatGPT, soit signé un pledge, soit relayé publiquement leur désengagement.

3 mars : Sam Altman reconnaît publiquement : “ça avait l’air opportuniste et bâclé. On n’aurait pas dû se précipiter.” Il annonce renégocier le contrat pour y inscrire explicitement les restrictions sur la surveillance et les armes autonomes — les mêmes restrictions qu’Anthropic demandait.

3 mars également : Dans une note interne qui fuite, Sam Altman dit à ses équipes que les “décisions opérationnelles” sur l’usage des modèles reviennent au gouvernement. Sous-entendu : OpenAI fournit la technologie, pas les règles d’usage.

4 mars : Des employés d’OpenAI signent une lettre ouverte en soutien à Anthropic. Dans un mémo interne qui fuite, Dario Amodei dit qu’OpenAI a accepté le deal “parce qu’ils voulaient calmer leurs employés, nous on voulait vraiment prévenir les abus.” Il qualifie les communications d’OpenAI de “straight up lies”.

5 mars : Anthropic est de retour à la table des négociations avec le Pentagone. Dario Amodei rencontre Emil Michael, sous-secrétaire à la Défense pour la recherche et l’ingénierie.


Ce que la narration dominante cache

La narration simple : un duel éthique. Anthropic le vertueux, OpenAI l’opportuniste.

C’est lisible. C’est propre. C’est incomplet.

Voici quatre lectures complémentaires.


Lecture 1 — Les red lines comme stratégie RH

Dans un marché où les ingénieurs en IA sont rares et très courtisés, se positionner comme “le labo qui tient ses principes même sous pression gouvernementale” vaut des millions en attractivité de talents.

Ce n’est pas une coïncidence qu’Anthropic ait diffusé des pubs au Super Bowl 2026 — intitulées “Betrayal”, “Deception”, “Treachery”, “Violation” — des attaques directes contre OpenAI. Résultat : +11% d’utilisateurs actifs pour Claude dans la semaine. La cible première n’était pas le grand public. C’était les ingénieurs qui regardaient.

Refuser le Pentagone avec éclat, c’est envoyer un signal fort : on fait ce qu’on dit, même quand ça coûte. C’est une promesse à ceux qui veulent croire qu’il existe un employeur cohérent. Les jeunes ingénieurs qui sortent de l’école avec leurs convictions intactes, qui choisissent Anthropic pour “ne pas rejoindre le méchant OpenAI” — c’est exactement la cible de ce signal.

Le problème de cette lecture : elle ne signifie pas qu’Amodei est cynique. Il peut sincèrement tenir ses positions ET avoir conscience que ça sert le recrutement. Les deux ne s’excluent pas.


Lecture 2 — C’était peut-être d’abord une négociation commerciale

Anthropic avait un contrat de 200 millions de dollars avec le Pentagone. Le litige n’était pas “travailler avec l’armée ou pas” — ils le faisaient depuis juin 2024. Le litige portait sur les termes du renouvellement.

Dire “nos red lines ne changent pas” est une version de la vérité qui se présente bien. Mais “ils ne paient pas assez pour le niveau de garanties qu’ils demandent” est probablement aussi vraie — et moins élégante à dire publiquement.

Le fait qu’Anthropic soit revenu à la table le 5 mars — et que les termes renégociés par OpenAI incluent maintenant les mêmes garanties qu’Anthropic demandait — suggère que la position d’Anthropic n’était pas intenable. Elle était juste inconfortable pour tout le monde.


Lecture 3 — Le jeu du lock-in

L’IA s’intègre dans les systèmes d’entreprise et de gouvernement. Le coût de migration d’un modèle dans une infrastructure classifiée est énorme : validation, certification, formation, connecteurs, workflows reconstruits.

Les entreprises de défense qui déployaient Claude depuis 2024 n’ont pas envie de tout reconfigurer. Anthropic le sait. Partir sans négocier, c’est abandonner ce levier et laisser la place à OpenAI — qui sera alors intégré profondément dans les systèmes de demain. Être présent dans les logiciels qui tournent dans dix ans, c’est le vrai jeu compétitif dans l’IA B2B. Pas les abonnements grand public.


Lecture 4 — L’ironie des garde-fous

Il y a quelque chose de structurellement paradoxal dans cette affaire.

ChatGPT est aujourd’hui l’IA grand public par excellence — mais aussi l’une des plus restrictives en pratique. Des couches de filtres, des refus fréquents dès qu’un sujet devient sensible, des métaprompts de sécurité empilés par-dessus le modèle. Plus tu l’utilises sur des cas complexes, plus tu te heurtes aux garde-fous. OpenAI a même intégré de la publicité dans le tier gratuit — un signal clair sur la direction commerciale prise.

Claude Code, lui, fonctionne différemment. Pas de surcouche de filtres au-dessus du modèle. Pas de blocages au milieu d’une session de développement. Directement dans l’éditeur — c’est un outil de travail réel, fait pour les développeurs, pas pour le grand public. C’est précisément pour ça qu’il est adopté massivement par les développeurs professionnels.

Et c’est là qu’est l’ironie.

L’IA la plus “ouverte” en pratique — celle qui permet de faire le plus, qui n’est pas bridée pour la consommation de masse — est celle d’Anthropic, le labo qui a refusé de signer avec le Pentagone sans garanties sur les armes autonomes.

L’IA la plus filtrée au quotidien vient d’OpenAI, qui vient de signer sans ces garanties.

Les documents d’éthique ne prédisent pas bien le comportement sous pression réelle. Et la restriction visible à l’utilisateur ne reflète pas les garde-fous qui comptent vraiment — ceux qui s’appliquent aux usages militaires, aux données classifiées, aux accès gouvernementaux.

Ce qui compte, c’est ce qu’une entreprise fait quand ça coûte vraiment.


Le fond du problème — L’État finit toujours par gagner

Ce n’est pas du cynisme. C’est de l’histoire récente.

2006 — AT&T et les “splitter rooms” : Des ingénieurs AT&T installent des équipements de surveillance NSA dans leurs nœuds réseau — sous contrainte légale, avec interdiction d’en informer leur hiérarchie. Ce n’est pas une rumeur : l’EFF a documenté le cas, les documents internes ont filtré. C’est le mécanisme de la FISA Section 702 avec gag order total : un employé peut être contraint de coopérer individuellement, sans que le CEO soit dans la boucle, et sans pouvoir le dire à personne — y compris à ses collègues.

2013 — PRISM : Snowden révèle que la NSA collectait les communications numériques avec la coopération de Google, Apple, Microsoft, Facebook. Coopération légalement contrainte. Impossible à divulguer.

2016 — Apple vs FBI : Tim Cook publie une lettre ouverte. Grand débat public. Apple “gagne” — le FBI trouve une autre solution technique. La question de fond reste entière.

2022 — Twitter Files : Des années de communications entre Twitter et le FBI révèlent des modérations sur demande, des suppressions de comptes. Twitter coopérait. En silence.

Les outils légaux existent : CLOUD Act (2018) qui oblige les entreprises tech américaines à fournir des données à l’étranger sur injonction, National Security Letters avec gag orders totaux, FISA Section 702 pour les accès sans juge.

Anthropic peut refuser un contrat commercial avec le Pentagone. Ses employés ne peuvent pas refuser un FISA order.

Et tout le monde dans la Silicon Valley le sait — les dirigeants, les ingénieurs seniors, les avocats spécialisés. C’est une réalité structurelle de l’industrie tech américaine depuis au moins 2001.


Le dilemme du créateur — ce n’est pas nouveau

Cette semaine, plusieurs personnes ont mentionné un livre que les employés d’Anthropic reçoivent à leur arrivée : “The Making of the Atomic Bomb” de Richard Rhodes (1987, Prix Pulitzer). Un choix délibéré de la direction.

Le livre retrace la création de la bombe atomique par les physiciens du Projet Manhattan. Des gens brillants, souvent motivés par des raisons défensives — construire la bombe avant les nazis. Des gens qui croyaient, pour la plupart, travailler pour le bien.

En 1945, Leó Szilárd — celui qui avait co-signé la lettre à Roosevelt qui avait lancé le Projet Manhattan — organise une pétition des chercheurs pour que la bombe ne soit pas utilisée sur des villes japonaises sans avertissement préalable.

La pétition est classifiée par les militaires. Elle arrive à Truman après Hiroshima.

Szilárd avait contribué à créer la chose qu’il voulait maintenant arrêter. Il avait construit la technologie. Il n’avait pas le contrôle de son usage.

La structure du problème est identique. On crée quelque chose de puissant. On négocie les garde-fous. On croit que les garde-fous tiendront. Et on découvre — parfois trop tard — qu’ils sont négociables.

Donner ce livre aux nouvelles recrues, c’est une façon de dire : vous savez ce que vous construisez. Nous aussi.


Ce que j’en retiens — les insights actionnables

Sur la cohérence entreprise : Les documents d’éthique ne valent que ce que l’entreprise est prête à payer pour les tenir. La vraie mesure d’une position, c’est le coût qu’on accepte de supporter pour la maintenir. Anthropic a perdu 200 millions de dollars de contrat et s’est fait blacklister par l’administration américaine. C’est une mesure concrète.

Sur la lecture des communications corporate : Quand une entreprise publie une position éthique forte dans un contexte de crise commerciale, demandez-vous : quel est l’intérêt second de cette communication ? Recrutement ? Différenciation concurrentielle ? Négociation indirecte ? Les deux peuvent être vrais en même temps. Un tweet de CEO n’est jamais spontané — les équipes de ces boîtes savent exactement comment fonctionne la psychologie des foules.

Sur la question “chez qui travailler” : Les jeunes ingénieurs qui choisissent Anthropic pour “ne pas rejoindre le méchant OpenAI” font un choix compréhensible. Mais le résultat structurel est probablement le même. Les États peuvent accéder à ce qu’ils veulent, quand ils veulent, par les canaux légaux qui existent depuis 2001.

Conséquence de troisième ordre : Si les gouvernements peuvent forcer la main des labos IA quand ils le décident, alors le vrai levier de l’éthique IA n’est pas dans les entreprises privées. Il est dans la régulation — législation nationale, traités internationaux, normes techniques ouvertes. Et là, personne n’avance vraiment.

Sur la dynamique attaque/défense : C’est le même jeu qu’en cybersécurité. Une IA pour attaquer, une IA pour défendre, une IA plus puissante pour attaquer encore. On développe des armes, puis des défenses, puis de nouvelles armes. Cette structure a toujours existé dans l’histoire militaire et technologique. Ce qui change, c’est la vitesse d’itération.


La prochaine fois

Cette newsletter est le premier épisode. Dans les suivants, on n’aura pas besoin de reprendre toute la chronologie — on partira de là où on s’est arrêtés.

Ce qui m’intéresse à suivre :


Sources : Timeline complète — TechPolicy.Press · MIT Technology Review · CNBC 05/03 · TechCrunch — “straight up lies” · CNBC — Altman “sloppy” · IBTimes — 295% uninstalls · CNBC — Super Bowl +11% · TechCrunch — $110B · EFF — NSLs · CNBC — Claude used in Iran · Constitutional AI — Anthropic

Livre de référence : Richard Rhodes, “The Making of the Atomic Bomb” (1987)

Newsletter

Recevoir les prochains articles

Un article par semaine environ. Pas de spam. Désabonnement en un clic.