San Francisco. Im Rechtsstreit zwischen dem KI-Spezialisten Anthropic und der US-Regierung unter Präsident Donald Trump hat das Unternehmen einen bedeutenden ersten Erfolg erzielt. Eine Bundesrichterin stoppte vorläufig eine Regierungsanordnung, die das Unternehmen als „Risiko für die nationale Sicherheit in der Lieferkette“ eingestuft hatte.
Der Hintergrund des Konflikts
Auslöser des Streits war eine Entscheidung von US-Präsident Donald Trump und Verteidigungsminister Pete Hegseth im Februar 2025. Die Regierung hatte angekündigt, die Zusammenarbeit mit Anthropic zu beenden und den Einsatz der Claude-KI in Bundesbehörden zu untersagen. Hintergrund war die Weigerung von Anthropic, seine Sicherheitsrichtlinien („Responsible Scaling Policy“) aufzuweichen. Das Unternehmen untersagt strikt die Nutzung seiner KI für die Entwicklung tödlicher autonomer Waffensysteme ohne menschliche Kontrolle sowie für völkerrechtswidrige Massenüberwachung.
Die Trump-Administration reagierte darauf mit einer Einstufung des Unternehmens als Sicherheitsrisiko in der Lieferkette – eine Maßnahme, die üblicherweise gegen ausländische Spionagebedrohungen eingesetzt wird.
Die Entscheidung des Gerichts
Bundesbezirksrichterin Rita F. Lin vom Northern District of California gab dem Eilantrag von Anthropic statt. In ihrer mündlichen Begründung und der schriftlichen Verfügung fand sie deutliche Worte für das Vorgehen des Pentagons und des Weißen Hauses.
Lin erklärte, es gebe starke Anzeichen dafür, dass es sich um einen Versuch handle, „Anthropic lahmzulegen“ und das Unternehmen für seine ethischen Bedenken abzustrafen. „Dies wirkt wie eine klassische Vergeltungsaktion gegen Meinungsäußerungen, die durch den First Amendment (das Recht auf freie Rede) geschützt sind“, so die Richterin.
Kritik an „orwellschen Methoden“
Besonders scharf kritisierte Richterin Lin die rechtliche Herleitung der Regierung. Dass Verteidigungsminister Hegseth eine Befugnis nutzte, die eigentlich für den Schutz vor ausländischen Saboteuren gedacht ist, bezeichnete sie als „willkürlich und launisch“. In ihrer Verfügung schrieb sie:
„Nichts im maßgeblichen Gesetz stützt die orwellsche Vorstellung, ein amerikanisches Unternehmen könne allein wegen eines inhaltlichen Widerspruchs zur Regierung als potenzieller Gegner und Saboteur der USA gebrandmarkt werden.“
Bedeutung des Urteils Anthropic führt derzeit zwei parallele Klagen:
- Eine Klage gegen die Einstufung als „Lieferketten-Risiko“, die das Unternehmen wirtschaftlich isoliert hätte.
- Eine Klage wegen der Verletzung von Verfassungsrechten (First Amendment).
Durch die einstweilige Verfügung der Richterin darf die Technologie von Anthropic – insbesondere das KI-Modell Claude – in US-Behörden und bei Partnerunternehmen des Verteidigungsministeriums vorerst weiter genutzt werden. Das Gericht verhinderte damit einen sofortigen Ausschluss des Unternehmens vom US-Markt, während der Hauptprozess über die Rechtmäßigkeit der Regierungsanordnung fortgesetzt wird.
