Exponiendo el contenido engañoso de IA de X sobre el conflicto con Irán

El sistema de inteligencia artificial Grok de X está luchando por verificar adecuadamente las imágenes de video de la guerra de Irán y está generando su propio contenido engañoso generado por inteligencia artificial sobre la crisis en curso.
X, un sistema de moderación de contenido impulsado por inteligencia artificial, no puede verificar con precisión secuencias de video e imágenes de la escalada del conflicto en Irán y, en cambio, está generando su propio contenido generado por inteligencia artificial sobre la guerra que está difundiendo información errónea en la plataforma.
El conflicto de Irán ha visto una explosión de contenido viral en las redes sociales, gran parte de él sin verificar o directamente inventado. X ha dependido en gran medida de su Grok AI para identificar y eliminar contenido falso o engañoso relacionado con la crisis. Sin embargo, un número cada vez mayor de usuarios informa que Grok tiene dificultades para verificar adecuadamente la autenticidad de las imágenes y los vídeos y, en algunos casos, está generando su propio contenido creado por IA para llenar los vacíos.
Un usuario X, que pidió permanecer en el anonimato, compartió capturas de pantalla con nosotros que mostraban una imagen generada por IA que Grok había etiquetado erróneamente como imágenes reales de la zona de guerra. La imagen, que muestra un ataque con misiles en el horizonte de una ciudad, tiene una apariencia distintiva generada por computadora que debería haber sido fácilmente identificable como sintética.
Fuente: Wired


