Gli Stati Uniti lanciano un programma di test di sicurezza per i giganti dell’intelligenza artificiale

Il Dipartimento del Commercio collabora con Google, Microsoft e xAI per nuove valutazioni sulla sicurezza dei modelli di intelligenza artificiale, basandosi sui framework amministrativi di Biden.
Il governo degli Stati Uniti ha annunciato una nuova significativa iniziativa per valutare la sicurezza e la protezione dei modelli avanzati di intelligenza artificiale sviluppati da aziende tecnologiche leader. In base agli accordi appena stabiliti tra il Dipartimento del Commercio e i principali sviluppatori di intelligenza artificiale tra cui Google, Microsoft e xAI, il governo federale condurrà protocolli completi di test di sicurezza sulla prossima generazione di sistemi di intelligenza artificiale. Questi accordi rappresentano la continuazione e l'espansione dei meccanismi di supervisione originariamente istituiti durante il mandato dell'amministrazione precedente.
Il quadro di test si basa direttamente sugli accordi fondamentali raggiunti durante l'amministrazione Biden, che ha cercato di stabilire standard di sicurezza di base per lo sviluppo di modelli di intelligenza artificiale. Invece di smantellare queste strutture, l’attuale amministrazione ha scelto di perfezionarle ed estenderle come parte della sua più ampia agenda politica tecnologica. Questo approccio riflette la crescente consapevolezza bipartisan che un certo livello di supervisione da parte del governo potrebbe essere necessario per garantire che potenti sistemi di intelligenza artificiale siano sviluppati in modo responsabile e implementati in modo sicuro nei settori critici dell'economia.
Durante le sue prime settimane in carica, il presidente degli Stati Uniti Donald Trump ha firmato una serie di ordini esecutivi volti a definire l'approccio della sua amministrazione alla governance dell'intelligenza artificiale. Questi ordini hanno costituito collettivamente le fondamenta di quello che i funzionari hanno definito il "Piano d'azione sull'intelligenza artificiale", un'iniziativa che i funzionari dell'amministrazione Trump hanno definito progettata per "ridurre gli oneri normativi" pur mantenendo un controllo essenziale sulla sicurezza. Il piano pone l'accento sulla rimozione degli ostacoli burocratici non necessari che potrebbero ostacolare l'innovazione, preservando al contempo il coinvolgimento mirato del governo nella valutazione dei problemi di sicurezza più critici.
Il ruolo del Dipartimento del Commercio in questo processo di supervisione è diventato sempre più centrale per l'implementazione della politica federale sull'intelligenza artificiale. Il dipartimento funge da principale entità federale responsabile di facilitare questi accordi sui test di sicurezza e di garantire che le aziende partecipanti soddisfino i parametri di riferimento stabiliti. Funzionari del Dipartimento del Commercio hanno indicato che questi protocolli di test si concentreranno sulla valutazione se i modelli avanzati di intelligenza artificiale pongono potenziali rischi in aree come la sicurezza informatica, la ricerca biologica e altri settori sensibili in cui l'uso improprio potrebbe avere gravi conseguenze.
Google, Microsoft e xAI rappresentano tre dei più importanti sviluppatori di modelli linguistici di grandi dimensioni e altri sistemi di intelligenza artificiale avanzati attualmente in fase di sviluppo negli Stati Uniti. La divisione di ricerca sull’intelligenza artificiale di Google ha prodotto modelli come Gemini, mentre Microsoft ha investito molto nelle partnership OpenAI e ha sviluppato le proprie capacità di intelligenza artificiale. xAI, la nuova impresa di intelligenza artificiale di Elon Musk, ha attirato l'attenzione per il suo rapido sviluppo di modelli linguistici competitivi di grandi dimensioni. Ognuna di queste aziende apporta approcci, architetture e filosofie di sicurezza diversi ai propri processi di sviluppo dell'IA.
La natura volontaria di questi accordi si distingue come una caratteristica distintiva dell'attuale approccio normativo. Invece di imporre requisiti governativi obbligatori attraverso leggi o regolamenti formali, i funzionari federali hanno negoziato questi accordi di test attraverso il coinvolgimento diretto con le aziende stesse. Questo approccio è in linea con la preferenza dichiarata dall'amministrazione Trump per meccanismi di governance guidati dall'industria integrati dalla supervisione del governo, piuttosto che per mandati normativi dall'alto verso il basso che i funzionari ritengono possano soffocare l'innovazione.
Le specifiche metodologie di test di sicurezza impiegate nell'ambito di questi accordi esamineranno il modo in cui i modelli di intelligenza artificiale rispondono alle richieste degli avversari, ai tentativi di aggirare le linee guida sulla sicurezza e ad altri potenziali scenari di uso improprio. I valutatori valuteranno se i modelli possono essere manipolati per generare contenuti dannosi o assistere in attività pericolose. Questi test rappresentano uno sforzo per identificare le vulnerabilità nei sistemi di intelligenza artificiale prima che diventino ampiamente diffusi e accessibili al grande pubblico o ad attori potenzialmente dannosi.
La continuità con il quadro dell'amministrazione Biden suggerisce che alcuni principi fondamentali del controllo governativo hanno ottenuto un sostegno bipartisan. La precedente amministrazione aveva perseguito un approccio normativo più leggero, incentrato su accordi di test volontari e sullo sviluppo di standard di settore piuttosto che su norme prescrittive. Questo quadro si è rivelato più gradito alle aziende tecnologiche rispetto alle proposte normative più aggressive circolate al Congresso, ma ha mantenuto un significativo coinvolgimento del governo nei processi di valutazione della sicurezza.
La tempistica di questi accordi riflette la tensione in corso tra la promozione dell'innovazione dell'intelligenza artificiale e la risposta alle legittime preoccupazioni in materia di sicurezza. Il settore tecnologico ha costantemente avvertito che normative eccessivamente onerose potrebbero spingere lo sviluppo dell’IA all’estero verso paesi con requisiti di sicurezza meno rigorosi o meccanismi di supervisione più deboli. I funzionari federali hanno tentato di bilanciare queste preoccupazioni mantenendo il controllo della sicurezza e riducendo al minimo gli attriti burocratici nello sviluppo e nell'implementazione di nuove funzionalità di intelligenza artificiale.
Gli osservatori del settore hanno notato che questo approccio normativo può influenzare il modo in cui altri paesi strutturano i propri quadri di governance dell'IA. Mentre gli Stati Uniti, l’Unione Europea e altre grandi economie sviluppano approcci diversi alla supervisione dell’intelligenza artificiale, le aziende che operano a livello internazionale devono destreggiarsi tra molteplici regimi normativi. L'enfasi posta dal Dipartimento del Commercio nel preservare la capacità di innovazione mantenendo al contempo il controllo della sicurezza potrebbe potenzialmente fungere da modello per il coordinamento internazionale sugli standard di governance dell'IA.
Il processo di valutazione della sicurezza dell'IA comporterà probabilmente esercizi di red-teaming in cui valutatori indipendenti tentano di identificare i punti deboli nei meccanismi di sicurezza dei sistemi di intelligenza artificiale. Questi esercizi simulano il modo in cui gli autori di attacchi potrebbero tentare di sfruttare le vulnerabilità, aiutando gli sviluppatori a comprendere quali rischi richiedono un'ulteriore mitigazione. I risultati di queste valutazioni forniranno informazioni sia sulle pratiche aziendali interne che sulla comprensione federale dello stato attuale della sicurezza dell'IA nel settore.
In futuro, questi accordi di test potrebbero espandersi per includere ulteriori sviluppatori di intelligenza artificiale e coprire nuove categorie di modelli e applicazioni di intelligenza artificiale. Poiché la tecnologia dell’intelligenza artificiale continua ad avanzare rapidamente e nuove aziende entrano nel campo dello sviluppo avanzato dell’intelligenza artificiale, il Dipartimento del Commercio potrebbe dover adeguare i propri meccanismi di supervisione. Il quadro attuale sembra progettato con flessibilità per accogliere i cambiamenti tecnologici e le preoccupazioni emergenti in materia di sicurezza che potrebbero non essere ancora del tutto comprese.
Le parti interessate di tutto lo spettro politico hanno espresso prospettive diverse sul livello appropriato e sulla natura della supervisione dell'IA da parte del governo. Mentre alcuni sostenitori sostengono che siano necessarie normative obbligatorie più severe per prevenire lo sviluppo dannoso dell’IA, altri sostengono che gli approcci volontari preservano gli incentivi all’innovazione che hanno reso gli Stati Uniti un leader globale nella ricerca sull’IA. Gli accordi del Dipartimento del Commercio rappresentano un tentativo di infilare questo ago mantenendo il coinvolgimento del governo rispettando al tempo stesso le preferenze del settore per approcci di governance collaborativi piuttosto che conflittuali.
Fonte: BBC News


