Anthropic refuse d’assouplir les garde-fous IA

12:3727/02/2026, Cuma
AA
L’entreprise rejette une demande du Pentagone visant à assouplir les protections de son IA, invoquant des risques liés à la surveillance de masse et aux armes autonomes.
Crédit Photo : X /
L’entreprise rejette une demande du Pentagone visant à assouplir les protections de son IA, invoquant des risques liés à la surveillance de masse et aux armes autonomes.

L’entreprise d’intelligence artificielle Anthropic a annoncé jeudi qu’elle ne se conformerait pas à une demande du Pentagone visant à assouplir les garde-fous de ses systèmes d’IA, invoquant des préoccupations liées à la surveillance de masse et aux armes autonomes.

Dans un communiqué, le PDG Dario Amodei a déclaré que l’entreprise s’opposait à toute utilisation de son modèle d’intelligence artificielle Claude pour la
"surveillance domestique de masse"
ou pour des
"armes entièrement autonomes"
. Il a estimé que les systèmes d’IA avancés ne sont pas suffisamment fiables pour faire fonctionner de telles armes sans supervision humaine et nécessitent des garde-fous
"qui n’existent pas aujourd’hui"
.

Il a également souligné que si l’IA peut contribuer à la sécurité nationale, une surveillance à grande échelle alimentée par l’intelligence artificielle pourrait présenter des risques pour les libertés civiles.


Des discussions entre Anthropic et le Pentagone se poursuivent depuis plusieurs semaines. L’administration de Donald Trump aurait envisagé d’invoquer le Defense Production Act, qui permet au gouvernement d’obliger les entreprises à prioriser les besoins de défense nationale. Elle aurait également étudié la possibilité de qualifier Anthropic de
"risque pour la chaîne d’approvisionnement"
, une désignation qui empêcherait les sous-traitants du département de la Défense d’utiliser ses logiciels.

Selon le média Axios, le Pentagone aurait déjà entamé des démarches en ce sens et demandé à Boeing ainsi qu’à Lockheed Martin de préciser leur dépendance au modèle Claude.


Le porte-parole du Pentagone, Sean Parnell, a toutefois nié toute intention d’utiliser l’IA à des fins de surveillance illégale ou pour des armes totalement autonomes sans intervention humaine. Dans un message publié sur la plateforme X, il a affirmé que le Pentagone cherchait à exploiter le modèle d’Anthropic à des fins
"entièrement légales"
et qu’il n’autoriserait pas une entreprise privée à dicter ses décisions opérationnelles.

À lire également:





#​​​​​​​Anthropic
#Claude
#United States
#Anthropic
#Pentagone
#Dario Amodei
#intelligence artificielle
#Donald Trump
#surveillance
#armes autonomes
#Boeing
#Lockheed Martin