Un ultimatum qui ressemble à un test de loyauté
Selon des sources proches du dossier, le secrétaire à la défense Pete Hegseth aurait fixé une échéance brutale. Anthropic devrait lever les restrictions limitant l’usage militaire de son modèle Claude avant le vendredi 27 février soir (heure de Paris).
En cas de refus, le Pentagone envisagerait de qualifier l’entreprise de risque pour la chaîne d’approvisionnement fédérale. Une décision qui conduirait à la rupture immédiate de contrats évalués autour de 200 millions de dollars. Officiellement, rien n’est confirmé. Officieusement, le message serait limpide. Une technologie stratégique ne resterait plus neutre.
Quand l’éthique devient un problème opérationnel
Anthropic s’est construite sur une promesse simple. Une IA conçue pour refuser certains usages. Surveillance de masse, actions létales, automatisation de décisions violentes. Cette doctrine constituait jusqu’ici son avantage moral.
Du point de vue militaire, elle deviendrait désormais une faiblesse. Des responsables du Pentagone estimeraient qu’une IA capable de dire non introduit une incertitude inacceptable dans un contexte de confrontation entre puissances. La logique change. L’outil n’est plus évalué pour sa sécurité, mais pour sa disponibilité totale.
L’ombre d’une opération sensible
Plusieurs sources proches du dossier affirment qu’une version expérimentale du modèle aurait déjà été mobilisée lors d’une opération visant l’ancien président vénézuélien Nicolás Maduro. L’efficacité analytique du système aurait impressionné certains responsables militaires.
Cet épisode aurait en revanche déclenché de fortes tensions internes chez Anthropic. Des employés auraient dénoncé un glissement progressif vers des usages explicitement exclus par la charte fondatrice. Aucun élément public ne confirme cet épisode, ce qui impose prudence et distance.
Le piège stratégique d’Anthropic
Dario Amodei continuerait d’afficher une ligne officielle ferme. Sans garde-fous, une intelligence artificielle engagée dans un conflit armé pourrait produire des décisions imprévisibles et accélérer une automatisation incontrôlée de la violence.
Mais plusieurs indices suggéreraient un infléchissement. Les règles rigides laisseraient place à un cadre qualifié d’adaptatif et transparent. Derrière cette évolution lexicale, certains observateurs verraient une tentative de compromis pour éviter l’exclusion du marché fédéral. Car l’enjeu dépasse la morale. Il touche à la survie industrielle.
Dans le même temps, xAI, la société fondée par Elon Musk, aurait déjà obtenu un accès à des réseaux classifiés du Pentagone pour déployer son modèle Grok. L’entreprise afficherait une coopération assumée avec les institutions militaires. Le signal envoyé au secteur serait brutal. Si les acteurs prudents refusent, d’autres accepteront sans hésitation.
La fin de l’autonomie des laboratoires d’IA
Cette confrontation dépasserait largement le cas Anthropic. Elle marquerait peut-être la fin d’une illusion fondatrice de l’industrie technologique. Celle selon laquelle les entreprises privées fixeraient seules les règles d’usage de leurs créations.
Si Washington obtient gain de cause, les intelligences artificielles deviendraient des infrastructures de souveraineté comparables à l’énergie ou à l’armement. Les chartes éthiques cesseraient alors d’être des engagements moraux pour devenir des variables négociables.
Augustin GARCIA























