Des manifestants défilent à San Francisco (Californie) pour réclamer une pause dans le développement de l’intelligence artificielle, le 21 mars 2026.

La justice américaine a suspendu, jeudi 26 mars, les sanctions prononcées par l’administration Trump contre la société californienne Anthropic, spécialiste de l’intelligence artificielle (IA).

La juge fédérale de Californie Rita Lin a fait droit à la demande d’Anthropic, créateur du chatbot Claude, de geler, via une procédure d’urgence, la directive présidentielle du 27 février qui ordonnait à toutes les agences fédérales de cesser immédiatement d’utiliser les technologies de l’entreprise.

La décision, consultée par l’Agence France-Presse, suspend aussi la directive du secrétaire à la défense, Pete Hegseth, qui avait désigné Anthropic comme un « risque pour la chaîne d’approvisionnement » du Pentagone, une étiquette jusqu’alors réservée à des entreprises ou des agences étrangères de pays rivaux des Etats-Unis.

Lire aussi | Article réservé à nos abonnés Une juge de San Francisco met le Pentagone en difficulté face à Anthropic

Les deux décisions de l’administration Trump, qui avaient suscité une large vague de soutien du secteur de la tech envers Anthropic, sont suspendues sept jours pour permettre au gouvernement de faire à son tour appel via une procédure d’urgence, avant l’examen de l’affaire au fond à plus long terme. La juge précise toutefois que le Pentagone reste libre de cesser d’utiliser Claude et de migrer vers d’autres fournisseurs d’IA.

Bras de fer

« Si cette procédure judiciaire était nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre priorité reste de travailler de manière productive avec le gouvernement pour que tous les Américains bénéficient d’une IA sûre et fiable », a déclaré un porte-parole d’Anthropic.

La rupture entre le Pentagone et Anthropic avait été actée au terme d’un bras de fer qui avait conduit l’entreprise de San Francisco à publiquement refuser que Claude soit utilisé pour la surveillance de masse des citoyens américains ou pour faire fonctionner des armes autonomes. Au milieu du scandale, OpenAI, le grand rival d’Anthropic, avait annoncé avoir signé un contrat avec le Pentagone, assurant avoir obtenu des garanties sur ces deux points.

Lire aussi | Article réservé à nos abonnés Dario Amodei, le patron d’Anthropic, l’utopiste alarmiste de l’IA

Comme elle l’avait laissé entendre à l’audience, mardi à San Francisco, la juge a estimé que ces sanctions « semblent conçues pour punir Anthropic » et constituaient probablement des représailles inconstitutionnelles, justifiant leur suspension en urgence.

Des soutiens pour Anthropic

Le 27 février, Donald Trump avait qualifié la société d’« entreprise radicale de gauche woke » sur son réseau Truth Social, tandis que Pete Hegseth dénonçait sur X sa « rhétorique sanctimonieuse » et son « idéologie de la Silicon Valley ».

Newsletter

« Pixels »

Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…

S’inscrire

Evénement

Les Amphis de l’info

À l’heure de l’IA et des réseaux sociaux, l’info se questionne : aux « Amphis de l’Info » des journalistes viennent à votre rencontre.

Découvrir

Le Monde

Offre spéciale étudiants et enseignants

Accédez à tous nos contenus en illimité à partir de 6,99 €/mois au lieu de 12,99€.

S’abonner

Newsletter

« Pixels »

Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…

S’inscrire

Le Monde

« La Météo du Climat »

Explorez notre portail météo et plongez dans nos analyses pour mieux décrypter le climat d’aujourd’hui et de demain.

Découvrir

Evénement

Les Amphis de l’info

À l’heure de l’IA et des réseaux sociaux, l’info se questionne : aux « Amphis de l’Info » des journalistes viennent à votre rencontre.

Découvrir

Le Monde Jeux

Chaque jour de nouvelles grilles de mots croisés, Sudoku et mots trouvés.

Jouer

Newsletter

« Pixels »

Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…

S’inscrire

Le Monde

« La Météo du Climat »

Explorez notre portail météo et plongez dans nos analyses pour mieux décrypter le climat d’aujourd’hui et de demain.

Découvrir

Evénement

Les Amphis de l’info

À l’heure de l’IA et des réseaux sociaux, l’info se questionne : aux « Amphis de l’Info » des journalistes viennent à votre rencontre.

Découvrir

La juge estime que les documents internes du Pentagone montrent qu’Anthropic a été désignée comme « risque » en raison de son « attitude hostile dans la presse ». Dans sa décision, la magistrate juge par ailleurs que cette désignation, prévue par le Congrès américain pour parer à des actes de sabotage clandestins chez les fournisseurs étrangers de l’armée, a probablement été prise hors du processus légal.

D’anciens haut gradés – parmi lesquels un ex-patron de la CIA – des acteurs de l’industrie de la tech, dont Microsoft et, à titre privé, des employés d’OpenAI et Google, ainsi que des militants de la liberté d’expression, avaient déposé des mémoires en soutien au recours d’Anthropic à San Francisco.

Un autre recours d’Anthropic suit son cours devant une juridiction fédérale de Washington.

En l’état, les modèles d’IA d’Anthropic sont les seuls autorisés dans le cadre du traitement d’informations classifiées par le Pentagone et ils ont vraisemblablement été utilisés dans les frappes contre l’Iran ou l’enlèvement du président du Venezuela. Le contrat entre le Pentagone et OpenAI n’est, lui, pas encore opérationnel.

Lire aussi | Article réservé à nos abonnés « Le prince Anthropic défie le roi OpenAI, mais il reste prématuré de conclure à un changement de souverain »

Le Monde avec AFP

Share.
Leave A Reply

Exit mobile version