Umstrittener Anthropic-Pentagon-Deal scheitert: Warnmeldung für Startups

Der gescheiterte 200-Millionen-Dollar-Vertrag von Anthropic mit dem Pentagon verdeutlicht die Herausforderungen für KI-Startups bei der Bewältigung von Bundespartnerschaften und ethischen Bedenken hinsichtlich militärischer KI.
In einer dramatischen Wendung der Ereignisse hat das Pentagon Anthropic offiziell als Lieferkettenrisiko eingestuft, nachdem es den beiden Parteien nicht gelungen war, sich über den Grad der Kontrolle zu einigen, den das Militär über die KI-Modelle von Anthropic haben sollte, einschließlich ihres möglichen Einsatzes in autonomen Waffen und Massenüberwachung im Inland. Als der 200-Millionen-Dollar-Vertrag von Anthropic scheiterte, wandte sich das Verteidigungsministerium (DoD) schnell an OpenAI, das den Deal akzeptierte und dann beobachtete, wie die Deinstallationen von ChatGPT um erstaunliche 295 % anstiegen.
Der Zusammenbruch der Anthropic-Pentagon-Partnerschaft dient als warnendes Beispiel für KI-Startups, die sich in den tückischen Gewässern bundesstaatlicher Vertragsabschlüsse bewegen, in denen ethische Bedenken und die Kontrolle über sensible Technologien über den Ausschlag oder Scheitern eines Deals entscheiden können. Da im Wettlauf um die Nutzung der Macht der KI immer mehr auf dem Spiel steht, bleibt die Frage: Wie viel uneingeschränkten Zugang sollte das Militär zu diesen transformativen Technologien haben?
{{IMAGE_PLACEHOLDER}}Quelle: TechCrunch


