Sospetto arrestato per attacco Molotov alla casa del CEO di OpenAI

Un uomo è stato accusato di tentato omicidio dopo aver presumibilmente lanciato una bottiglia molotov a casa del CEO di OpenAI Sam Altman. Nessuno è rimasto ferito nell'incidente.
Le autorità hanno arrestato un sospetto e accusato di tentato omicidio dopo un presunto attacco con bombe molotov alla casa del CEO di OpenAI Sam Altman. L'incidente è avvenuto a San Francisco il 13 aprile 2026, ma nessuno è rimasto ferito.
Secondo la polizia, il sospettato, la cui identità non è stata rilasciata, avrebbe lanciato l'ordigno incendiario contro la residenza di Altman, senza però causare danni significativi. Anche OpenAI, la società di ricerca sull'intelligenza artificiale fondata da Altman, è rimasta illesa nell'attacco.
"Nessuno è rimasto ferito a casa di Altman o negli uffici della società", ha dichiarato Matt Cobo, l'agente speciale responsabile della sede dell'FBI a San Francisco, durante una conferenza stampa. "Prendiamo questo tipo di incidenti estremamente sul serio e non tollereremo alcun tentativo di danneggiare le persone o le loro proprietà."
Il sospettato, il cui nome non è stato rilasciato, è stato arrestato poco dopo l'incidente e ora è accusato di tentato omicidio e incendio doloso. Brooke Jenkins, procuratore distrettuale di San Francisco, ha dichiarato che le indagini sono in corso e le autorità stanno lavorando per determinare il motivo dell'attacco.
"Siamo grati per la rapida risposta e le indagini da parte delle forze dell'ordine", ha affermato un portavoce di OpenAI. "La sicurezza dei nostri dipendenti e del gruppo dirigente è della massima importanza e continueremo a collaborare pienamente con le autorità."
L'attacco alla casa di Altman si inserisce nel contesto di crescenti preoccupazioni sulle implicazioni sociali ed etiche delle tecnologie avanzate di intelligenza artificiale, che sono state uno degli obiettivi principali degli sforzi di ricerca e sviluppo di OpenAI. Alcuni esperti e attivisti hanno sollevato preoccupazioni sui potenziali rischi dell'intelligenza artificiale, portando a un maggiore controllo e dibattito sul settore.
Nonostante l'incidente, OpenAI ha promesso di continuare il suo lavoro nello sviluppo di sistemi di intelligenza artificiale sicuri e responsabili. L'azienda ha sottolineato il proprio impegno nell'affrontare i potenziali rischi e le sfide poste dalle tecnologie emergenti e ha chiesto maggiore collaborazione e trasparenza all'interno del settore dell'intelligenza artificiale.
Le indagini sull'attacco sono in corso e le autorità non hanno ancora determinato un motivo chiaro. Tuttavia, l'incidente ha sottolineato le crescenti tensioni e preoccupazioni legate ai rapidi progressi dell'intelligenza artificiale e la necessità di un dialogo e di una supervisione continui per garantire che queste tecnologie siano sviluppate e utilizzate in modo responsabile.
Fonte: NPR


