Il sistema AI di Meta analizza la struttura corporea

Meta utilizza l'intelligenza artificiale per esaminare l'altezza e la composizione ossea per rilevare utenti minorenni. La funzionalità di sicurezza è attualmente in fase di test in regioni specifiche.
Meta, la società madre di Facebook e Instagram, ha presentato un approccio innovativo alla protezione dei minori sulle sue piattaforme implementando la tecnologia di intelligenza artificiale progettata per analizzare le caratteristiche fisiche degli utenti. Il sistema esamina gli indicatori visivi, tra cui l'altezza e la struttura ossea, per determinare se le persone che accedono alla piattaforma possono essere minorenni, rappresentando un progresso significativo nelle misure di sicurezza digitale.
Questo sistema di analisi visiva rappresenta l'ultimo sforzo di Meta per combattere l'accesso dei minorenni alle piattaforme che sono ufficialmente riservate agli utenti di età pari o superiore a 13 anni. L'azienda ha confermato che la tecnologia è attualmente operativa in paesi selezionati in tutto il mondo, anche se i dirigenti hanno indicato che un'espansione più ampia rimane una priorità per i prossimi mesi. La strategia di lancio suggerisce che Meta sta adottando un approccio cauto e misurato nell'implementazione di questo nuovo controverso meccanismo di screening.
L'implementazione di questa tecnologia di verifica dell'età avviene in un momento in cui le piattaforme di social media si trovano ad affrontare una pressione crescente da parte di regolatori, genitori e sostenitori della sicurezza dei bambini in tutto il mondo. Molte giurisdizioni hanno iniziato a imporre requisiti più rigorosi alle piattaforme per dimostrare robusti meccanismi di limitazione dell’età e protocolli di protezione dei minori. L'investimento di Meta nell'analisi fisica basata sull'intelligenza artificiale rappresenta un tentativo di affrontare queste preoccupazioni mantenendo la privacy degli utenti e riducendo al minimo i falsi positivi che potrebbero frustrare gli utenti adulti legittimi.
Il quadro tecnico alla base di questo sistema sfrutta algoritmi avanzati di apprendimento automatico che sono stati addestrati su ampi set di dati per riconoscere modelli di sviluppo fisico associati a diversi gruppi di età. Questi algoritmi analizzano vari marcatori biometrici catturati attraverso foto o contenuti video inviati dagli utenti, comprese le relazioni proporzionali tra segmenti corporei, indicatori di maturità scheletrica e caratteristiche di crescita che tipicamente sono correlate a fasce di età specifiche. Il modello di intelligenza artificiale tenta di identificare le fasi di sviluppo statisticamente associate all'infanzia o alla prima adolescenza.
Meta ha indicato che il sistema funziona come un componente all'interno di una strategia di rilevamento dell'età completa che incorpora più livelli di verifica. L'azienda sottolinea che l'analisi visiva non opera in modo isolato ma piuttosto funziona insieme ad altri metodi come la verifica dei documenti, l'analisi dei modelli comportamentali e la verifica dei social network. Questo approccio su più livelli mira a migliorare la precisione riducendo al tempo stesso la dipendenza da un singolo metodo di rilevamento che potrebbe essere aggirato o produrre risultati imprecisi.
I sostenitori della privacy e gli esperti tecnici hanno sollevato diverse considerazioni importanti riguardo a questa tecnologia. La raccolta e l’analisi dei dati biometrici, anche a fini protettivi, rappresenta un’espansione significativa delle pratiche di raccolta dati che secondo alcuni potrebbe creare rischi per la privacy di tutti gli utenti. Inoltre, sono state sollevate preoccupazioni circa potenziali risultati discriminatori, poiché lo sviluppo fisico varia considerevolmente tra i diversi gruppi etnici, regioni geografiche e circostanze individuali, portando potenzialmente a falsi positivi o falsi negativi.
L'attuale programma pilota in paesi selezionati consente a Meta di testare l'efficacia del sistema e raccogliere dati sulle sue prestazioni nel mondo reale prima di espanderlo a basi di utenti più ampie. Questo approccio graduale consente all’azienda di identificare e affrontare problemi tecnici, perfezionare algoritmi e sviluppare protocolli per la gestione di casi limite e risultati ambigui. Secondo quanto riferito, i team di ingegneri di Meta stanno raccogliendo feedback dalle prime implementazioni per migliorare la precisione e ridurre al minimo i casi in cui il sistema segnala erroneamente gli utenti adulti o non riesce a identificare gli utenti minorenni.
Gli organismi di regolamentazione di diversi paesi hanno risposto con cauto interesse all'annuncio di Meta, anche se alcuni hanno espresso scetticismo sul fatto che l'analisi visiva da sola costituisca un'adeguata verifica dell'età. Le autorità di regolamentazione europee, in particolare, hanno sottolineato che un’efficace verifica dell’età dovrebbe comportare un’identificazione verificabile e che gli approcci esclusivamente biometrici potrebbero non soddisfare gli standard legali emergenti per la protezione dei minori negli ambienti digitali. Il Digital Services Act e quadri normativi simili stanno spingendo le piattaforme verso meccanismi di verifica dell'età più solidi e documentati.
Gli osservatori del settore notano che questo sviluppo riflette uno spostamento più ampio verso la moderazione dei contenuti e i sistemi di sicurezza degli utenti basati sull'intelligenza artificiale sulle principali piattaforme di social media. I concorrenti, tra cui TikTok, YouTube e Snapchat, hanno investito in modo simile in tecnologie di intelligenza artificiale progettate per identificare e gestire i contenuti relativi ai minori. Tuttavia, l'attenzione specifica all'analisi delle caratteristiche fisiche attraverso l'esame visivo rappresenta un approccio più invasivo rispetto a quello adottato pubblicamente da molte piattaforme concorrenti, sollevando interrogativi sugli standard di settore e sulle migliori pratiche.
L'impegno di Meta nell'espansione di questa tecnologia suggerisce che l'azienda considera l'innovazione nella verifica dell'età come un vantaggio competitivo e normativo fondamentale. La piattaforma è stata sottoposta a un esame approfondito a seguito di numerosi rapporti che documentano i danni associati all’uso dei social media da parte dei minorenni, inclusi gli impatti sulla salute mentale, l’esposizione a contenuti inappropriati e il cyberbullismo. Dimostrando investimenti proattivi nelle tecnologie di rilevamento, Meta mira a posizionarsi come attore responsabile impegnato nella protezione dei minori, influenzando potenzialmente le valutazioni normative degli sforzi di conformità dell'azienda.
La tempistica per un'implementazione più ampia rimane non specificata, con Meta che afferma solo che l'espansione avverrà man mano che il sistema maturerà e dimostrerà la sua efficacia tra diverse popolazioni di utenti. La società non ha rivelato quali paesi stanno attualmente partecipando al programma pilota, né ha fornito parametri dettagliati riguardanti i tassi di precisione del sistema o le percentuali di falsi positivi. Una maggiore trasparenza riguardo a questi dettagli operativi potrebbe probabilmente rispondere alle preoccupazioni dei difensori della privacy e degli organismi di regolamentazione che monitorano l'implementazione della tecnologia.
Guardando al futuro, il successo del sistema di analisi visiva di Meta potrebbe influenzare il modo in cui altre aziende tecnologiche affrontano le sfide relative alla verifica dell'età. Se la tecnologia si dimostrerà efficace e conforme alle normative, altre piattaforme potrebbero adottare approcci simili, creando potenzialmente standard a livello di settore per il rilevamento dell’età basato sull’intelligenza artificiale. Al contrario, se l'implementazione rivela problemi significativi di precisione o preoccupazioni sulla privacy, le autorità di regolamentazione possono implementare restrizioni che limitano l'implementazione di tali tecnologie nel settore dei social media.
L'annuncio di Meta riflette il riconoscimento da parte dell'azienda che i tradizionali metodi di verifica dell'età si sono rivelati inadeguati per proteggere i minori sulle sue piattaforme. La verifica dei documenti rimane limitata dalla resistenza degli utenti e dalle preoccupazioni sulla privacy, mentre l’analisi comportamentale da sola non può distinguere in modo affidabile tra giovani adolescenti e adulti con caratteristiche giovanili. L'integrazione dell'analisi visiva nell'infrastruttura di sicurezza di Meta rappresenta un riconoscimento del fatto che affrontare l'accesso dei minorenni richiede approcci sfaccettati e tecnologicamente sofisticati piuttosto che il semplice affidamento sull'onestà dell'utente durante la creazione dell'account.
Fonte: TechCrunch

