Wegweisendes Urteil stellt den kontroversen Versuch des Pentagons zur Einschränkung der anthropischen KI in Frage

Ein Bundesrichter äußert Bedenken hinsichtlich der Entscheidung des Verteidigungsministeriums, Anthropic, den Erfinder der Claude-KI, als Lieferkettenrisiko einzustufen, und nennt die Aktion „lästig“.
Anthropic, das Unternehmen für künstliche Intelligenz hinter der gefeierten Claude AI, befindet sich im Zentrum eines Rechtsstreits mit dem US-Verteidigungsministerium. Während einer kürzlichen Gerichtsverhandlung äußerte ein Richter des Bezirksgerichts Bedenken hinsichtlich der Beweggründe des Pentagons, Anthropic als Risiko für die Lieferkette einzustufen, und bezeichnete den Schritt als „problematisch“.
Der Fall ereignete sich, als das Verteidigungsministerium (DoD) Anthropic unter Berufung auf nationale Sicherheitsbedenken als potenzielle Bedrohung für die Lieferkette einstufte. Diese Bezeichnung verbot dem Unternehmen effektiv die Teilnahme an bestimmten Regierungsverträgen und Kooperationen. Anthropic focht die Entscheidung an und argumentierte, dass die Handlungen des Verteidigungsministeriums sowohl willkürlich als auch launisch seien.
{{IMAGE_PLACEHOLDER}} alt=Quelle: Wired


