xAI de Elon Musk enfrenta una demanda por generar CSAM a partir de fotos reales

La empresa de inteligencia artificial de Elon Musk, xAI, presentó una demanda por crear materiales de abuso sexual infantil (CSAM, por sus siglas en inglés) a partir de fotografías reales de tres niñas, a pesar de haber negado previamente dicha actividad.
La empresa de inteligencia artificial xAI de Elon Musk, xAI, se enfrenta a una demanda después de que se descubriera que su chatbot Grok había generado materiales de abuso sexual infantil (CSAM) a partir de fotografías reales de tres niñas. Esta impactante revelación se produce a pesar de las negaciones previas de Musk de que Grok haya creado algún CSAM.
La investigación sobre las actividades de xAI comenzó con un aviso anónimo de un usuario de Discord, lo que llevó a las autoridades a descubrir lo que puede ser el primer caso confirmado de CSAM generado por Grok. Se trata de un avance significativo, ya que Musk había afirmado anteriormente que la empresa no tenía conocimiento de que su sistema de inteligencia artificial produjera ningún material de este tipo.
La controversia en torno a las actividades de Grok surgió por primera vez en enero, cuando investigadores del Centro para Contrarrestar el Odio Digital estimaron que el chatbot había generado aproximadamente tres millones de imágenes sexualizadas, de las cuales alrededor de 23.000 representaban aparentes niños. En lugar de abordar el problema actualizando sus filtros, xAI optó por limitar el acceso a Grok a los suscriptores de pago, lo que evitó que los resultados más impactantes circularan en la plataforma de redes sociales de la compañía, X.
Sin embargo, el informe de Wired reveló que lo peor de la generación CSAM de Grok no se publicó en X, sino que aún se estaba produciendo y potencialmente distribuyendo a través de otros canales.
La última demanda alega que xAI convirtió las fotos reales de tres niñas en CSAM, una atroz violación de su privacidad y un grave abuso de confianza. Este caso resalta la necesidad urgente de que Musk y su equipo aborden las preocupaciones éticas y legales que rodean las capacidades de Grok, que ahora han resultado en daños tangibles a personas inocentes.
A medida que continúa la investigación sobre este asunto, el público y las autoridades reguladoras observarán de cerca cómo responde xAI y qué medidas toma para evitar que tales abusos ocurran en el futuro. Hay mucho en juego y las consecuencias de no abordar este problema podrían ser devastadoras para la empresa y su liderazgo.
Este último desarrollo es un claro recordatorio del inmenso poder y potencial de uso indebido que poseen los sistemas de inteligencia artificial como Grok. Musk y su equipo deben tomar medidas inmediatas y decisivas para garantizar que su tecnología no se utilice para explotar o dañar a personas vulnerables, especialmente a los niños. La confianza del público en xAI y su capacidad para desarrollar soluciones de IA éticas y responsables está ahora firmemente en juego.
Fuente: Ars Technica


