[DIGITAL Business Africa] – Une bataille juridique inédite s’ouvre aux États-Unis autour de l’usage militaire de l’intelligence artificielle. La startup américaine d’IA Anthropic a engagé une action en justice contre l’administration du président Donald Trump afin de contester sa désignation par le Pentagone comme « supply chain risk », une catégorie habituellement réservée aux entreprises étrangères considérées comme une menace pour la sécurité nationale.
Dans sa plainte déposée le 9 mars 2026 devant un tribunal fédéral en Californie, l’entreprise affirme que cette décision est « illégale » et viole ses droits constitutionnels, notamment la liberté d’expression et le droit à une procédure régulière. Anthropic demande au juge d’annuler cette désignation et d’empêcher les agences fédérales américaines d’appliquer cette mesure.
Un conflit inédit entre l’État américain et une entreprise d’IA
La décision du département de la Défense américain est intervenue après plusieurs mois de tensions entre Anthropic et les autorités militaires. Le secrétaire à la Défense, Pete Hegseth, a décidé de classer l’entreprise comme un risque pour la chaîne d’approvisionnement nationale après que la startup a refusé de lever certaines limitations intégrées à son système d’IA, Claude.
Ces « garde-fous » empêchent notamment deux types d’usages jugés sensibles par l’entreprise :
-
l’utilisation de l’intelligence artificielle pour des armes entièrement autonomes ;
-
l’exploitation de l’IA dans des programmes de surveillance de masse visant les citoyens américains.
Pour le Pentagone, ces restrictions pourraient limiter les capacités opérationnelles de l’armée américaine. L’administration Trump estime que les technologies d’IA doivent pouvoir être utilisées pour « tout usage légal » dans le cadre de la défense nationale.
En réaction, Anthropic affirme que les modèles d’IA actuels ne sont pas suffisamment fiables pour être utilisés dans des systèmes d’armes totalement autonomes et que leur déploiement dans ce domaine pourrait s’avérer dangereux.
Une sanction sans précédent contre une entreprise américaine
La désignation « supply chain risk » constitue un instrument juridique couramment utilisé pour bloquer des entreprises étrangères suspectées de menacer les systèmes de sécurité américains. Selon plusieurs observateurs du secteur technologique, c’est la première fois que ce mécanisme est appliqué à une entreprise américaine.
Cette classification a un impact immédiat : elle coupe l’accès d’Anthropic à certains contrats et projets liés au département de la Défense. Elle s’accompagne également d’un ordre présidentiel demandant aux employés fédéraux de cesser d’utiliser le chatbot Claude dans le cadre de leurs activités professionnelles.
L’administration américaine a également annoncé une période de transition de six mois pour retirer progressivement les outils de l’entreprise des systèmes concernés.
Une rivalité croissante entre géants de l’IA
L’affaire intervient dans un contexte de concurrence intense entre les principales entreprises d’intelligence artificielle aux États-Unis. Quelques heures seulement après la sanction visant Anthropic, la société OpenAI a annoncé un partenariat avec le Pentagone pour développer certaines applications liées à la défense.
Ce timing alimente les interrogations quant à l’équilibre entre les impératifs de sécurité nationale et l’autonomie stratégique des entreprises technologiques dans le développement de l’intelligence artificielle.
Pour Anthropic, l’enjeu est aussi économique. L’entreprise, valorisée à environ 380 milliards de dollars lors d’un récent tour de financement, prévoit de réaliser près de 14 milliards de dollars de revenus en 2026. Plus de 500 organisations paieraient déjà au moins un million de dollars par an pour utiliser Claude, notamment pour le développement logiciel et les applications professionnelles.
Un débat mondial sur l’usage militaire de l’IA
Au-delà du bras de fer judiciaire entre Anthropic et Washington, cette affaire illustre un débat stratégique de plus en plus central : celui du rôle de l’intelligence artificielle dans les systèmes militaires et les dispositifs de surveillance.
D’un côté, les gouvernements cherchent à intégrer rapidement l’IA à leurs capacités de défense. De l’autre, certaines entreprises technologiques tentent d’imposer des limites éthiques à l’utilisation de leurs technologies.
Le résultat de ce litige pourrait ainsi créer un précédent majeur pour l’ensemble de l’industrie de l’IA, en déterminant dans quelle mesure une entreprise peut refuser certaines applications militaires de ses technologies face aux exigences d’un État.
Un enjeu également stratégique pour l’Afrique
Alors que les grandes puissances redéfinissent les règles d’usage de l’intelligence artificielle dans les domaines de la sécurité et de la gouvernance, les pays africains s’interrogent eux aussi sur les cadres réglementaires à adopter.
Ces enjeux seront au cœur des discussions du salon E-Gov’A 2026, prévu du 14 au 16 mai 2026 à Yaoundé, autour du thème : « Intelligence artificielle et e-gouvernance : bâtir des services publics efficaces dans une Afrique sans cash et sans papier ».
L’événement entend réunir les gouvernements, les entreprises technologiques et les experts pour examiner les implications de l’IA sur la souveraineté numérique, la gouvernance publique et la sécurité des États africains.
Par Digital Business Africa









