Le bras de fer entre Anthropic et l’administration américaine se poursuit. La start-up d’intelligence artificielle a assigné lundi plusieurs entités du gouvernement Trump devant un tribunal fédéral de Californie pour obtenir la levée de sanctions qu’elle juge excessives et qui pourraient menacer son activité.
Le ministère de la Défense a ajouté, la semaine dernière, Anthropic à sa liste de sociétés présentant un « risque de sécurité nationale pour les approvisionnements ». L’entreprise refuse de lever des restrictions d’usage à son IA pour servir à de la surveillance de masse des populations ou à l’automatisation d’attaques mortelles par l’armée américaine.
Plus tôt, Donald Trump avait enjoint tous les services du gouvernement de « cesser immédiatement toute utilisation de la technologie d’Anthropic ».
Abus de pouvoir
« Ces mesures sont sans précédent et illégales », avance Anthropic dans le document de l’assignation. « La Constitution (américaine) n’autorise pas le gouvernement à exercer son énorme pouvoir pour punir une société d’avoir usé de sa liberté d’expression. »
Ces décisions sont « arbitraires », relèvent d’« un caprice » et « d’un abus du pouvoir discrétionnaire » du gouvernement américain, souligne la start-up de San Francisco. Selon elle, le gouvernement « cherche à détruire » Anthropic.
La jeune entreprise révèle qu’après les annonces de l’administration Trump, elle a été contactée par « de nombreux partenaires et clients, fournisseurs d’informatique à distance (cloud) et investisseurs », qui ont fait part de leur « confusion ». Certains clients ont également demandé à Anthropic sous quelles conditions ils pouvaient rompre leur contrat.
Première entreprise américaine classée « à risque »
Le groupe ne conteste pas uniquement son inscription sur la liste des fournisseurs « à risque » mais aussi les conditions de la rupture des contrats le liant au gouvernement, considérées comme abusives.
La liste ne comprenait jusqu’ici que des sociétés étrangères, dont l’équipementier chinois Huawei ou le spécialiste russe des logiciels antivirus Kaspersky. Elle s’applique généralement à des entités dont les produits sont jugés susceptibles de menacer la sécurité nationale des États-Unis.
VidéoSommet de l’IA : pourquoi ces deux géants de la tech refusent de se tenir la main ?
La classification « à risque » empêche théoriquement tout autre fournisseur de l’État fédéral américain de contracter avec l’entreprise concernée. Mais le patron d’Anthropic Dario Amodei a révélé jeudi que les termes du courrier adressé par le ministère de la Défense avaient un « champ d’application étroit » et ne prohibaient que l’utilisation de ses produits dans le cadre de leurs contrats avec le ministère de la Défense.
Par ailleurs, Google, Microsoft et Amazon ont expliqué que les modèles d’IA d’Anthropic disponibles sur leurs plateformes resteraient disponibles pour tous usages autres que ceux liés au ministère de la Défense.










English (US) ·