ANTHROPIC

Trump bannt Claude – Anthropic als Sicherheitsrisiko

Das US-Justizministerium nennt Anthropic ein "Sicherheitsrisiko" – und Trump stoppt den Einsatz von Claude in Bundesbehörden. Was dahintersteckt.

Trump bannt Claude – Anthropic als Sicherheitsrisiko

Dario Amodei als Karikatur vor dem Weißen Haus, während ein Sicherheitsmann den Claude-Roboter aus dem Gebäude escortiert

Trump hat den bundesweiten Einsatz von Claude in US-Behörden gestoppt – und das Justizministerium nennt Anthropic ein "nationales Sicherheitsrisiko".

Wer die letzten Wochen verfolgt hat, dem dürfte das nicht vollständig überraschen. Anthropic hatte das Pentagon verklagt, nachdem das Militär den Vertrag mit Claude einseitig beendet hatte. Jetzt schlägt die Regierung zurück – mit einer Eskalation, die so niemand erwartet hatte.

Das US-Justizministerium bezeichnete Anthropic in einer Gerichtseinlage als "inakzeptables nationales Sicherheitsrisiko". Begründung: Die Klage gegen das Pentagon stelle die Verteidigungsfähigkeit der USA in Frage. Als Konsequenz erließ die Trump-Administration einen Executive Order, der den Einsatz von Claude und anderen Anthropic-Produkten in sämtlichen Bundesbehörden und nachgeordneten Behörden untersagt.

Was das konkret bedeutet

Für Behörden wie FBI, CIA, Homeland Security und alle Ministerien gilt ab sofort ein Claude-Bann. Betroffen sind Verträge, die nach dem Pentagon-Streit noch bestanden. Wie viele Behörden Claude aktiv nutzten, ist öffentlich nicht vollständig dokumentiert – Anthropic hatte aber zuletzt öffentlich kommuniziert, dass der Enterprise-Bereich stark wachse.

Interessant: Die Reaktion der Tech-Community war das genaue Gegenteil von dem, was die Regierung wohl bezweckt hatte. Claude stieg auf Platz 1 der meistgeladenen kostenlosen Apps im US-amerikanischen Apple App Store. Das Time Magazine titelte zeitgleich: "How Anthropic Became the Most Disruptive Company in the World."

Ist der Druck berechtigt?

Das DOJ-Framing ist rechtlich umstritten. Anthropics Klage gegen das Pentagon ist eine zivilrechtliche Vertragsstreitigkeit, keine Sicherheitsgefährdung – das sagen auch unabhängige Rechtsexperten. Das "Sicherheitsrisiko"-Label wirkt eher wie politischer Druck als wie eine substanzielle juristische Einschätzung.

Anthropic-CEO Dario Amodei hat sich bislang nicht öffentlich geäußert, das Unternehmen ließ mitteilen, man werde die Klage "mit voller Überzeugung" weiterführen.

Der größere Kontext

Die Geschichte hat drei Akte: Erst kickte das Pentagon Claude raus (Anfang März), dann klagte Anthropic zurück (6. März), jetzt kommt der bundesweite Bann. Es ist die bisher härteste Konfrontation zwischen einem KI-Unternehmen und der US-Regierung überhaupt.

Für die Branche ist das ein Präzedenzfall. Wenn Unternehmen, die sich gegen Militär-KI-Anwendungen wehren, als "Sicherheitsrisiko" gebrandmarkt werden können – was bedeutet das für die Safety-Bewegung insgesamt?

Fazit: Anthropic verliert den Regierungsmarkt – und gewinnt gerade den öffentlichen Sympathieeffekt. Ob das geschäftlich reicht, ist eine andere Frage.