USA starten Sicherheitstestprogramm für KI-Giganten

Das Handelsministerium arbeitet mit Google, Microsoft und xAI für neue Sicherheitsbewertungen von KI-Modellen zusammen, die auf den Biden-Verwaltungsrahmen aufbauen.
Die Regierung der Vereinigten Staaten hat eine bedeutende neue Initiative zur Bewertung der Sicherheit fortschrittlicher Modelle der künstlichen Intelligenz angekündigt, die von führenden Technologieunternehmen entwickelt wurden. Im Rahmen frisch geschlossener Vereinbarungen zwischen dem Handelsministerium und großen KI-Entwicklern, darunter Google, Microsoft und xAI, wird die Bundesregierung umfassende Sicherheitstestprotokolle für die nächste Generation von KI-Systemen durchführen. Diese Vereinbarungen stellen eine Fortsetzung und Erweiterung der Aufsichtsmechanismen dar, die ursprünglich während der Amtszeit der vorherigen Regierung eingerichtet wurden.
Der Testrahmen baut direkt auf den grundlegenden Vereinbarungen auf, die während der Biden-Administration getroffen wurden und die darauf abzielten, grundlegende Sicherheitsstandards für die KI-Modellentwicklung festzulegen. Anstatt diese Strukturen abzubauen, hat sich die derzeitige Regierung dafür entschieden, sie im Rahmen ihrer umfassenderen technologiepolitischen Agenda zu verfeinern und zu erweitern. Dieser Ansatz spiegelt die wachsende parteiübergreifende Erkenntnis wider, dass ein gewisses Maß an staatlicher Aufsicht erforderlich sein kann, um sicherzustellen, dass leistungsstarke KI-Systeme verantwortungsvoll entwickelt und in kritischen Wirtschaftssektoren sicher eingesetzt werden.
In den ersten Wochen seiner Amtszeit unterzeichnete US-Präsident Donald Trump eine Reihe von Durchführungsverordnungen, die den Ansatz seiner Regierung zur Steuerung künstlicher Intelligenz prägen sollten. Diese Anordnungen bildeten zusammen die Grundlage für das, was Beamte als „KI-Aktionsplan bezeichnet haben, eine Initiative, die Beamte der Trump-Regierung als darauf abzielten, „die regulatorische Belastung zu reduzieren“ und gleichzeitig die wesentliche Sicherheitsaufsicht aufrechtzuerhalten. Der Plan legt Wert darauf, unnötige bürokratische Hindernisse zu beseitigen, die Innovationen behindern könnten, und gleichzeitig die gezielte Beteiligung der Regierung an der Bewertung der kritischsten Sicherheitsbedenken aufrechtzuerhalten.
Die Rolle des Handelsministeriums in diesem Aufsichtsprozess ist für die Umsetzung der KI-Richtlinie des Bundes immer wichtiger geworden. Die Abteilung fungiert als wichtigste Bundesbehörde, die für die Erleichterung dieser Sicherheitstestvereinbarungen verantwortlich ist und dafür sorgt, dass die teilnehmenden Unternehmen festgelegte Benchmarks einhalten. Beamte des Handelsministeriums haben darauf hingewiesen, dass sich diese Testprotokolle auf die Bewertung konzentrieren werden, ob fortschrittliche KI-Modelle potenzielle Risiken in Bereichen wie Cybersicherheit, biologischer Forschung und anderen sensiblen Bereichen darstellen, in denen Missbrauch schwerwiegende Folgen haben könnte.
Google, Microsoft und xAI sind drei der bekanntesten Entwickler großer Sprachmodelle und anderer fortschrittlicher KI-Systeme, die derzeit in den Vereinigten Staaten entwickelt werden. Die KI-Forschungsabteilung von Google hat Modelle wie Gemini hervorgebracht, während Microsoft stark in OpenAI-Partnerschaften investiert und eigene KI-Funktionen entwickelt hat. xAI, Elon Musks neueres KI-Unternehmen, hat durch die schnelle Entwicklung wettbewerbsfähiger großer Sprachmodelle Aufmerksamkeit erregt. Jedes dieser Unternehmen bringt unterschiedliche Ansätze, Architekturen und Sicherheitsphilosophien in seine KI-Entwicklungsprozesse ein.
Der freiwillige Charakter dieser Vereinbarungen ist ein entscheidendes Merkmal des aktuellen Regulierungsansatzes. Anstatt verbindliche staatliche Anforderungen durch Gesetze oder formelle Vorschriften aufzuerlegen, haben Bundesbeamte diese Testvereinbarungen durch direkte Zusammenarbeit mit den Unternehmen selbst ausgehandelt. Dieser Ansatz steht im Einklang mit der erklärten Präferenz der Trump-Administration für von der Industrie geleitete Governance-Mechanismen, ergänzt durch staatliche Aufsicht, anstelle von Top-Down-Regulierungsmandaten, von denen Beamte glauben, dass sie Innovationen ersticken könnten.
Die spezifischen Sicherheitstestmethoden, die im Rahmen dieser Vereinbarungen eingesetzt werden, werden untersuchen, wie KI-Modelle auf gegnerische Aufforderungen, Versuche, Sicherheitsrichtlinien zu umgehen, und andere potenzielle Missbrauchsszenarien reagieren. Die Gutachter werden beurteilen, ob die Modelle manipuliert werden können, um schädliche Inhalte zu generieren oder gefährliche Aktivitäten zu unterstützen. Diese Tests stellen einen Versuch dar, Schwachstellen in KI-Systemen zu identifizieren, bevor sie weit verbreitet und für die breite Öffentlichkeit oder potenziell böswillige Akteure zugänglich sind.
Die Kontinuität mit dem Rahmenwerk der Biden-Regierung legt nahe, dass bestimmte Kernprinzipien der Regierungsaufsicht von beiden Parteien unterstützt werden. Die vorherige Regierung hatte einen lockereren Regulierungsansatz verfolgt, der sich auf freiwillige Testvereinbarungen und die Entwicklung von Industriestandards statt auf präskriptive Vorschriften konzentrierte. Dieser Rahmen erwies sich für Technologieunternehmen als angenehmer als aggressivere Regulierungsvorschläge, die im Kongress kursiert hatten, sorgte jedoch für eine sinnvolle Beteiligung der Regierung an Sicherheitsbewertungsprozessen.
Der Zeitpunkt dieser Vereinbarungen spiegelt die anhaltende Spannung zwischen der Förderung von KI-Innovationen und der Berücksichtigung legitimer Sicherheitsbedenken wider. Der Technologiesektor hat immer wieder gewarnt, dass zu strenge Vorschriften die KI-Entwicklung in Übersee in Länder mit weniger strengen Sicherheitsanforderungen oder schwächeren Aufsichtsmechanismen treiben könnten. Bundesbeamte haben versucht, diese Bedenken auszugleichen, indem sie die Sicherheitsaufsicht aufrechterhalten und gleichzeitig bürokratische Reibungen bei der Entwicklung und dem Einsatz neuer KI-Funktionen minimieren.
Branchenbeobachter haben festgestellt, dass dieser Regulierungsansatz möglicherweise Einfluss darauf hat, wie andere Länder ihre eigenen KI-Governance-Rahmenwerke strukturieren. Da die Vereinigten Staaten, die Europäische Union und andere große Volkswirtschaften unterschiedliche Ansätze zur KI-Überwachung entwickeln, müssen sich international tätige Unternehmen mit mehreren Regulierungssystemen auseinandersetzen. Der Schwerpunkt des Handelsministeriums auf der Erhaltung der Innovationsfähigkeit bei gleichzeitiger Aufrechterhaltung der Sicherheitsaufsicht könnte möglicherweise als Modell für die internationale Koordinierung von KI-Governance-Standards dienen.
Der KI-Sicherheitsbewertungsprozess wird wahrscheinlich Red-Teaming-Übungen umfassen, bei denen unabhängige Gutachter versuchen, Schwachstellen in den Sicherheitsmechanismen von KI-Systemen zu identifizieren. Diese Übungen simulieren, wie böswillige Akteure versuchen könnten, Schwachstellen auszunutzen, und helfen Entwicklern zu verstehen, welche Risiken einer zusätzlichen Risikominderung bedürfen. Die Ergebnisse dieser Bewertungen werden sowohl in interne Unternehmenspraktiken als auch in das bundesstaatliche Verständnis des aktuellen Stands der KI-Sicherheit in der gesamten Branche einfließen.
Zukünftig könnten diese Testvereinbarungen auf weitere KI-Entwickler ausgeweitet werden und neue Kategorien von KI-Modellen und -Anwendungen abdecken. Da die KI-Technologie weiterhin rasant voranschreitet und neue Unternehmen in den Bereich der fortgeschrittenen KI-Entwicklung einsteigen, muss das Handelsministerium möglicherweise seine Aufsichtsmechanismen anpassen. Der aktuelle Rahmen scheint flexibel gestaltet zu sein, um technologischen Veränderungen und aufkommenden Sicherheitsbedenken Rechnung zu tragen, die möglicherweise noch nicht vollständig verstanden werden.
Stakeholder aus dem gesamten politischen Spektrum haben unterschiedliche Ansichten zum angemessenen Niveau und zur Art der staatlichen KI-Aufsicht geäußert. Während einige Befürworter argumentieren, dass strengere verbindliche Vorschriften notwendig seien, um eine schädliche KI-Entwicklung zu verhindern, behaupten andere, dass freiwillige Ansätze die Innovationsanreize bewahren, die die Vereinigten Staaten zu einem weltweit führenden Anbieter in der KI-Forschung gemacht haben. Die Vereinbarungen des Handelsministeriums stellen einen Versuch dar, in diese Richtung zu gehen, indem die Beteiligung der Regierung aufrechterhalten und gleichzeitig die Präferenzen der Industrie für kollaborative statt konfrontative Governance-Ansätze respektiert werden.
Quelle: BBC News


