Cómo Apple casi prohibió la aplicación de inteligencia artificial Grok de Elon Musk por el escándalo de los deepfake

Detalles exclusivos sobre cómo Apple amenazó con eliminar Grok, la aplicación de inteligencia artificial de Elon Musk, de la App Store debido al aumento de deepfakes sexuales no consensuados en la plataforma de redes sociales X.
Apple amenazó silenciosamente con expulsar la aplicación de inteligencia artificial de Elon Musk, Grok, de su App Store en enero por no haber podido frenar la oleada de deepfakes sexuales no consensuales X, según NBC News. Fue una discreta demostración de fuerza por parte de uno de los guardianes más poderosos de la tecnología, realizada a puerta cerrada incluso cuando la crisis de desvestirse se desarrollaba a plena vista del público y aumentaron las críticas por la cobardía de Apple.
En una carta obtenido por NBC News, Apple dijo a los senadores estadounidenses que "se puso en contacto con los equipos detrás de X y Grok después de recibir quejas y ver la cobertura noticiosa del escándalo" y exigió que los desarrolladores "creen un plan para mejorar la moderación del contenido".
La revelación arroja luz sobre las batallas detrás de escena entre los gigantes tecnológicos y sus plataformas impulsadas por IA mientras luchan por abordar la rápida propagación de deepfakes y otros contenidos no consensuados. Si bien Apple ha adoptado públicamente una postura firme contra la información errónea y las violaciones de privacidad, sus amenazas privadas a Grok sugieren que la compañía está dispuesta a ejercer su influencia para forzar la acción, incluso cuando la atención pública no está directamente sobre ellos.
La crisis de los deepfake en X ha sido un gran dolor de cabeza para Elon Musk. y su equipo, con una avalancha de contenido sexual no consensuado protagonizado por celebridades y figuras públicas. A pesar de prometer una moderación de contenido más estricta y herramientas para combatir los deepfakes, la plataforma ha luchado por mantenerse al día con la avalancha de actividad maliciosa.
Grok, el asistente de inteligencia artificial de Musk integrado en la plataforma X, ha estado en el centro de la controversia, ya que se consideraba que sus capacidades de aprendizaje profundo permitían la creación y difusión de estos deepfakes. La amenaza de Apple de eliminar la aplicación de su App Store fue una clara señal de advertencia, que indica que incluso los actores más poderosos de la tecnología no son inmunes a la presión por los fallos de moderación de contenido.
El episodio subraya la creciente importancia del desarrollo ético de la IA y la necesidad de regulaciones integrales para regular el uso de las tecnologías de IA generativa. A medida que los deepfake y otra información errónea impulsada por la IA continúan proliferando, la batalla entre las empresas de tecnología, los legisladores y la sociedad civil apenas comienza.
En el futuro, Apple, Elon Musk y otros líderes de la industria serán observados de cerca para ver cómo abordan estos complejos temas. Hay mucho en juego, no sólo para el sector tecnológico, sino también para la privacidad y la seguridad de los individuos y de la sociedad en su conjunto.
Fuente: The Verge


