Meta utilizza l'analisi ossea basata sull'intelligenza artificiale per rilevare utenti minorenni

Facebook e Instagram utilizzano una tecnologia AI avanzata per identificare e rimuovere gli utenti sotto i 13 anni analizzando la struttura ossea e le caratteristiche fisiche nelle foto.
Meta, la società madre di Facebook e Instagram, ha annunciato un progresso significativo nei suoi sforzi per proteggere gli utenti più giovani e conformarsi ai requisiti di verifica dell'età su tutte le sue piattaforme. Il colosso dei social media ha introdotto un sofisticato sistema di analisi della struttura ossea basato sull'intelligenza artificiale progettato per identificare foto e video di bambini sotto i 13 anni e impedire loro di mantenere account sui suoi servizi. Questa iniziativa tecnologica rappresenta un cambiamento importante nel modo in cui l'azienda affronta la sicurezza dei bambini e la conformità normativa nell'era digitale.
In un post dettagliato sul blog pubblicato martedì, Meta ha svelato i meccanismi di questo nuovo sistema di rilevamento, spiegando che la sua tecnologia di intelligenza artificiale analizzerà i contenuti visivi pubblicati su Facebook e Instagram per specifici indicatori di età. Il sistema analizza ciò che Meta descrive come "temi generali e segnali visivi" presenti nelle foto e nei video caricati, comprese caratteristiche fisiche misurabili come l'altezza e la struttura ossea complessiva. Questo approccio globale mira a creare una barriera più solida che impedisca agli utenti minorenni di accedere a piattaforme che tecnicamente richiedono che gli utenti abbiano almeno 13 anni.
L'azienda è stata particolarmente attenta a chiarire la natura e la portata di questa tecnologia in risposta alle preoccupazioni sulla privacy che da tempo circondano le pratiche di Meta. Meta ha dichiarato esplicitamente nel suo annuncio che "questo non è riconoscimento facciale", sottolineando una distinzione cruciale che distingue questo sistema dalle tecnologie di identificazione più controverse. Il sistema AI per l'analisi ossea non identifica individui specifici analizzandone i volti o creando profili di riconoscimento facciale, il che solleverebbe ulteriori problemi normativi e di privacy oltre a quelli già associati alla nuova tecnologia.
Oltre all'analisi visiva, l'approccio completo di Meta al rilevamento dell'età si estende all'esame del contenuto testuale su più elementi degli account e delle interazioni degli utenti. Il sistema analizzerà post, commenti, biografie degli utenti e didascalie per identificare "indizi contestuali" che potrebbero indicare che un utente è minorenne e viola i termini di servizio della piattaforma. Questa metodologia di rilevamento multilivello combina l'analisi delle immagini con l'elaborazione del linguaggio naturale, creando una rete di sicurezza più sofisticata di quella che entrambe le tecnologie potrebbero fornire in modo indipendente. Esaminando l'impronta digitale completa dell'attività degli utenti, Meta mira a individuare i casi in cui il solo contenuto visivo potrebbe non essere sufficiente per confermare l'età di un utente.
Questa iniziativa rappresenta la risposta continua di Meta alla crescente pressione normativa e alle preoccupazioni del pubblico in merito alla sicurezza dei bambini sulle piattaforme di social media. I governi di tutto il mondo hanno intensificato il controllo su come le aziende tecnologiche proteggono i minori online, con molte giurisdizioni che implementano o prendono in considerazione requisiti più severi di verifica dell’età. La tecnologia di verifica dell'età di Meta può essere intesa come una misura proattiva per dimostrare la conformità alle normative esistenti e alla legislazione futura anticipata. L'azienda ha affrontato numerose cause legali e indagini normative relative al modo in cui le sue piattaforme influenzano i giovani utenti, dai problemi di salute mentale all'esposizione di contenuti inappropriati.
L'implementazione tecnica di questa analisi della struttura ossea prevede modelli avanzati di apprendimento automatico addestrati a riconoscere modelli di sviluppo fisico associati a diversi gruppi di età. Questi modelli analizzano proporzioni, indicatori di crescita e indicatori di maturità scheletrica visibili nelle fotografie senza creare database persistenti di riconoscimento facciale. La tecnologia di visione artificiale alla base di questo sistema rappresenta anni di sviluppo dell'intelligenza artificiale incentrati sull'identificazione delle caratteristiche umane mantenendo al tempo stesso le protezioni della privacy che i sistemi di riconoscimento facciale non possono garantire.
La mossa di Meta arriva in un momento in cui l'azienda deve far fronte a una pressione crescente da parte di difensori della sicurezza dei bambini, organismi di regolamentazione e legislatori che si chiedono se i meccanismi di verifica dell'età esistenti siano sufficientemente solidi. La Federal Trade Commission, i procuratori generali dello stato e gli enti regolatori internazionali hanno tutti esaminato attentamente le pratiche di Meta nei confronti dei minori. Il nuovo rilevamento dell'età basato sull'intelligenza artificiale rappresenta una soluzione tecnica alle sfide di applicazione delle norme che hanno afflitto gli sforzi dell'azienda per mantenere la conformità con il Children's Online Privacy Protection Act (COPPA) e normative simili a livello internazionale.
Tuttavia, l'introduzione di questa tecnologia solleva anche importanti questioni relative alle implicazioni sulla privacy e al giusto equilibrio tra protezione dei minori e sicurezza dei dati degli utenti. Mentre Meta afferma che il sistema non esegue il riconoscimento facciale, i critici sostengono che l’analisi della struttura ossea e altre analisi biometriche rappresentano ancora significative intrusioni nella privacy. La raccolta e l'elaborazione dei dati sulle caratteristiche fisiche di milioni di foto e video creano notevoli set di dati che potrebbero essere utilizzati in modo improprio se le misure di sicurezza falliscono o se le pratiche dell'azienda si evolvono nel tempo.
L'azienda ha indicato che il sistema verrà implementato gradualmente su tutte le sue piattaforme, a cominciare da Facebook e Instagram. Meta suggerisce che questa tecnologia funzionerà in combinazione con le misure di sicurezza esistenti e i processi di revisione umana per garantire l’accuratezza e prevenire falsi positivi. La tempistica di implementazione e i dettagli tecnici specifici su come il sistema sarà integrato nell'infrastruttura di moderazione esistente rimangono parzialmente poco chiari, sebbene Meta si sia impegnata a garantire la trasparenza riguardo ai parametri di prestazione del sistema.
Gli osservatori del settore hanno notato che l'approccio di analisi della struttura ossea di Meta differisce in modo significativo da altri metodi di verifica dell'età esplorati da aziende tecnologiche e startup. Alcuni concorrenti si sono concentrati sulla verifica dei documenti, sull’analisi biometrica dei documenti d’identità rilasciati dal governo o sul riconoscimento dei modelli comportamentali. L'approccio di analisi visiva di Meta tenta di bilanciare l'efficacia con le considerazioni sulla privacy, sebbene le parti interessate continuino a discutere se questo equilibrio sia raggiunto in modo appropriato. L'approccio riflette anche la realtà pratica che molti utenti minorenni hanno creato account utilizzando informazioni false, rendendo inefficaci i metodi di verifica tradizionali.
Guardando al futuro, l'investimento di Meta nell'intelligenza artificiale per il rilevamento dell'età potrebbe stabilire un modello per il modo in cui altre piattaforme social affrontano la conformità alla sicurezza dei bambini. Con l’aumento della pressione normativa a livello globale, altre aziende potrebbero adottare soluzioni tecnologiche simili o sviluppare approcci concorrenti. L'efficacia del sistema di Meta influenzerà probabilmente le discussioni normative sulla questione se la verifica dell'età basata sull'intelligenza artificiale rappresenti un percorso praticabile o se debbano essere imposti processi di verifica manuale più invasivi.
L'annuncio riflette anche le tendenze più ampie del settore verso l'utilizzo dell'intelligenza artificiale per la moderazione dei contenuti e per scopi di sicurezza degli utenti. Meta ha già implementato sistemi di intelligenza artificiale per rilevare discorsi di odio, disinformazione e altri contenuti problematici su larga scala. L'estensione di questa infrastruttura tecnologica alla verifica dell'età rappresenta un'evoluzione logica delle capacità di intelligenza artificiale dell'azienda, sebbene con distinte dimensioni etiche e di privacy che richiedono un'attenta gestione e supervisione.
Mentre Meta continua a implementare questo sistema di rilevamento dell'analisi ossea, l'azienda dovrà affrontare il controllo costante da parte di difensori della privacy, regolatori e organizzazioni per la sicurezza dei bambini. Il successo di questa iniziativa dipenderà non solo dalla sua accuratezza tecnica nell'identificare gli utenti minorenni, ma anche dalla capacità di Meta di mantenere la fiducia del pubblico riguardo al modo in cui gestisce i dati biometrici sensibili. La trasparenza dell'azienda riguardo al funzionamento del sistema, ai parametri di prestazione e alle misure di salvaguardia contro gli abusi sarà fondamentale per mantenere la legittimità presso le parti interessate che rimangono scettiche sull'impegno di Meta a favore della protezione dei bambini.


