Sospechoso arrestado en ataque molotov a la casa del director ejecutivo de OpenAI

Un hombre ha sido acusado de intento de asesinato tras supuestamente lanzar un cóctel Molotov en la casa del director ejecutivo de OpenAI, Sam Altman. Nadie resultó herido en el incidente.
Las autoridades arrestaron a un sospechoso y lo acusaron de intento de asesinato después de un presunto ataque con cócteles molotov en la casa del director ejecutivo de OpenAI Sam Altman. El incidente ocurrió en San Francisco el 13 de abril de 2026, pero nadie resultó herido.
Según la policía, el sospechoso, cuya identidad no ha sido revelada, supuestamente arrojó el dispositivo incendiario contra la residencia de Altman, aunque no causó ningún daño significativo. OpenAI, la empresa de investigación de inteligencia artificial fundada por Altman, también resultó ilesa en el ataque.
"Nadie resultó herido en la casa de Altman ni en las oficinas de la empresa", dijo Matt Cobo, el agente especial interino a cargo de la oficina de campo del FBI en San Francisco, durante una conferencia de prensa. "Nos tomamos este tipo de incidentes muy en serio y no toleraremos ningún intento de dañar a personas o sus propiedades".
El sospechoso, cuyo nombre no ha sido revelado, fue detenido poco después del incidente y ahora enfrenta cargos de intento de asesinato e incendio provocado. Brooke Jenkins, el fiscal del distrito de San Francisco, declaró que la investigación está en curso y las autoridades están trabajando para determinar el motivo detrás del ataque.
"Estamos agradecidos por la rápida respuesta y la investigación de las fuerzas del orden", dijo un portavoz de OpenAI. "La seguridad de nuestros empleados y equipo de liderazgo es de suma importancia, y continuaremos cooperando plenamente con las autoridades".
El ataque a la casa de Altman se produce en medio de crecientes preocupaciones sobre las implicaciones sociales y éticas de las tecnologías avanzadas de inteligencia artificial, que han sido un foco importante de los esfuerzos de investigación y desarrollo de OpenAI. Algunos expertos y activistas han expresado su preocupación por los riesgos potenciales de la IA, lo que ha llevado a un mayor escrutinio y debate en torno a la industria.
A pesar del incidente, OpenAI se ha comprometido a continuar su trabajo en el desarrollo de sistemas de IA seguros y responsables. La compañía ha enfatizado su compromiso de abordar los riesgos y desafíos potenciales que plantean las tecnologías emergentes y ha pedido una mayor colaboración y transparencia dentro de la industria de la IA.
La investigación sobre el ataque está en curso y las autoridades aún no han determinado un motivo claro. Sin embargo, el incidente ha puesto de relieve las crecientes tensiones y preocupaciones en torno a los rápidos avances en inteligencia artificial y la necesidad de un diálogo y supervisión continuos para garantizar que estas tecnologías se desarrollen y desplieguen de manera responsable.
Fuente: NPR


