Das KI-Startup Anthropic streitet um den militärischen Einsatz seines „Claude“-Tools

Anthropic kämpft gegen widersprüchliche Gerichtsurteile zur Lieferung seines KI-Assistenten „Claude“ an das US-Militär, was eine Debatte über die Rolle von Technologieunternehmen in der Landesverteidigung entfacht.
In einem anhaltenden Rechtsstreit sieht sich das KI-Unternehmen Anthropic mit widersprüchlichen Gerichtsurteilen über die Beschränkungen konfrontiert, die der Nutzung seines KI-Assistenten „Claude“ durch das US-Militär auferlegt werden. Das US-Berufungsgericht hat eine frühere Entscheidung bestätigt, die Software von Anthropic mit einem Lieferketten-Risikoetikett zu versehen, ein Schritt, der die Möglichkeiten des Militärs einschränkt, die Technologie einzusetzen.
Das Label für Lieferkettenrisiken wurde ursprünglich vom US-Verteidigungsministerium unter Berufung auf nationale Sicherheitsbedenken eingeführt. Anthropic kämpft dafür, dass das Label entfernt wird, mit dem Argument, dass es den Zugang des Militärs zu seiner KI-Technologie zu Unrecht einschränkt. Das Unternehmen behauptet, dass das Label seine Fähigkeit, mit der Regierung Geschäfte zu machen, behindern und technologische Innovationen unterdrücken könnte.
Das Berufungsgericht schloss sich jedoch dem vorherigen Urteil an und stellte fest, dass die Lieferketten-Risikokennzeichnung eine angemessene Maßnahme zum Schutz nationaler Sicherheitsinteressen sei. Das Gericht stellte fest, dass die Bezeichnung dem Militär den Einsatz von Claude nicht vollständig verbietet, sondern vielmehr eine zusätzliche Aufsicht und Beschränkungen für seinen Einsatz auferlegt.
{{IMAGE_PLACEHOLDER}}Quelle: Wired


