Los expertos exigen una mayor supervisión de los vídeos mediante IA por parte de Meta

El consejo asesor de Meta pide mejores políticas para combatir la creciente amenaza de vídeos de IA manipulados, especialmente durante eventos críticos.
Meta, la empresa matriz de Facebook, se enfrenta a una presión cada vez mayor por parte de su propio consejo asesor para mejorar sus métodos de vigilancia de vídeos generados por IA en sus plataformas. La junta ha advertido que el enfoque actual de Meta es inadecuado, particularmente en tiempos de crisis o de mayor actividad.
La cuestión de los deepfakes y otros medios manipulados basados en IA ha sido una preocupación creciente durante años, a medida que la tecnología se vuelve más sofisticada y accesible. Estos videos inventados pueden usarse para difundir información errónea, hacerse pasar por figuras públicas y sembrar discordia social, lo que presenta un desafío importante para plataformas como Facebook, Instagram y WhatsApp.
En su último informe, la Junta de Supervisión de Meta destacó la necesidad de que la empresa fortalezca sus políticas y mecanismos de aplicación en lo que respecta al contenido generado por IA. La junta señaló que los sistemas actuales de Meta a menudo tienen dificultades para detectar y eliminar estos videos manipulados, especialmente durante eventos de alto perfil o momentos de crisis.
Uno de los problemas clave identificados por la Junta de Supervisión es la dependencia de Meta de los informes de los usuarios para identificar contenido problemático generado por IA. Este enfoque puede ser lento e ineficaz, particularmente cuando actores maliciosos crean y difunden rápidamente videos falsos. La junta recomendó que Meta invierta en herramientas de detección más proactivas y sofisticadas para identificar deepfakes y otros medios manipulados por IA antes de que puedan difundirse ampliamente.
Además, la Junta de Supervisión pidió a Meta que desarrollara políticas más claras y consistentes en torno al etiquetado y tratamiento del contenido generado por IA. Actualmente, el enfoque de la empresa puede ser inconsistente, lo que genera confusión y la posibilidad de que se escape información errónea y dañina.
La creciente amenaza de la desinformación impulsada por la IA ha llamado la atención de legisladores y reguladores de todo el mundo. Varios países han introducido o están considerando legislación para abordar el problema, y hay llamados a la coordinación global para establecer estándares y mejores prácticas comunes.
Meta ha reconocido el desafío y ha declarado que está trabajando para mejorar sus capacidades de detección de IA y moderación de contenido. Sin embargo, el informe de la Junta de Supervisión sugiere que la empresa necesita hacer más para mantenerse al día con la amenaza en rápida evolución de los medios manipulados.
A medida que el uso de tecnologías de inteligencia artificial continúa avanzando, es probable que la batalla contra los deepfakes y otras formas de medios sintéticos se convierta en una prioridad cada vez más crítica para las plataformas de redes sociales y el ecosistema digital en general. Las recomendaciones de la Junta de Supervisión subrayan la necesidad de que Meta y otros gigantes tecnológicos adopten un enfoque más proactivo e integral ante este desafío.
Fuente: BBC News


