L'intelligenza artificiale viola il codice degli utenti pseudonimi

Una nuova ricerca rivela che i modelli linguistici possono smascherare l’anonimato online con sorprendente precisione, mettendo a repentaglio la privacy e la sicurezza di molti utenti di social media.
intelligenza artificiale sta diventando sempre più esperta nello smascherare le identità dietro account di social media pseudonimi, ponendo una minaccia significativa alla privacy degli utenti. I risultati suggeriscono che i modelli linguistici possono correlare individui specifici con i loro personaggi online su più piattaforme con un elevato grado di precisione, consentendo potenzialmente una serie di attività dannose come il doxxing e lo stalking.
La ricerca, pubblicata in un articolo recente, dimostra che il ricordo (la percentuale di utenti deanonimizzati con successo) può raggiungere il 68%, mentre la precisione (l'accuratezza di tali identificazioni) può arrivare fino al 90%. Ciò supera di gran lunga le capacità delle tradizionali tecniche di deanonimizzazione che si basano sulla raccolta manuale dei dati e sulla corrispondenza algoritmica.
Le implicazioni di questo studio sono di vasta portata, poiché la capacità di identificare in modo rapido ed economico le persone dietro gli account oscurati mina una misura di privacy cruciale utilizzata da molti per partecipare a discussioni pubbliche sensibili. L'assemblaggio di profili di marketing dettagliati che tengono traccia delle informazioni personali degli individui, come dove vivono e cosa fanno per vivere, è ora una minaccia incombente.
I ricercatori sottolineano che questa tecnologia ha il potenziale per farlo
Fonte: Ars Technica


