Aufdecken der irreführenden KI-Inhalte von X über den Iran-Konflikt

Das Grok-KI-System von
X, ein KI-gestütztes Inhaltsmoderationssystem, verifiziert Videomaterial und Bilder vom eskalierenden Konflikt im Iran nicht genau und generiert stattdessen eigene KI-generierte Inhalte über den Krieg, die Fehlinformationen auf der Plattform verbreiten.
Im Iran-Konflikt kam es zu einer Explosion viraler Social-Media-Inhalte, von denen viele unbestätigt oder völlig erfunden waren. X hat sich stark auf seine Grok-KI verlassen, um falsche oder irreführende Inhalte im Zusammenhang mit der Krise zu identifizieren und zu entfernen. Allerdings berichten immer mehr Benutzer, dass Grok Schwierigkeiten hat, die Authentizität von Bildern und Videos ordnungsgemäß zu überprüfen, und in einigen Fällen eigene KI-erstellte Inhalte generiert, um die Lücken zu schließen.
Ein X-Benutzer, der anonym bleiben wollte, teilte uns Screenshots mit, die ein KI-generiertes Bild zeigten, das Grok fälschlicherweise als echtes Filmmaterial aus dem Kriegsgebiet bezeichnet hatte. Das Bild, das einen Raketenangriff auf die Skyline einer Stadt zeigt, hat ein klares computergeneriertes Aussehen, das leicht als synthetisch hätte erkennbar sein müssen.
Quelle: Wired


