Künstliche Intelligenz knackt den Code pseudonymer Nutzer

Neue Forschungsergebnisse zeigen, dass Sprachmodelle die Anonymität im Internet mit überraschender Genauigkeit aufdecken können, was die Privatsphäre und Sicherheit vieler Social-Media-Nutzer gefährdet.
Künstliche Intelligenz ist zunehmend in der Lage, die Identitäten hinter pseudonymen Social-Media-Konten zu entlarven, was eine erhebliche Bedrohung für die Privatsphäre der Benutzer darstellt, wie aktuelle Untersuchungen zeigen. Die Ergebnisse deuten darauf hin, dass Sprachmodelle bestimmte Personen mit ihren Online-Personas über mehrere Plattformen hinweg mit einem hohen Maß an Genauigkeit korrelieren können, was möglicherweise eine Vielzahl böswilliger Aktivitäten wie Doxxing und Stalking ermöglicht.
Die in einem aktuellen Artikel veröffentlichte Studie zeigt, dass die Erinnerung (der Anteil erfolgreich deanonymisierter Benutzer) bis zu 68 % erreichen kann, während die Präzision (die Genauigkeit dieser Identifizierungen) bis zu 90 % betragen kann. Dies geht weit über die Möglichkeiten herkömmlicher Deanonymisierungstechniken hinaus, die auf manueller Datenerfassung und algorithmischem Abgleich basieren.
Die Implikationen dieser Studie sind weitreichend, da die Möglichkeit, die Personen hinter verschleierten Konten kostengünstig und schnell zu identifizieren, eine wichtige Datenschutzmaßnahme untergräbt, die viele nutzen, um an sensiblen öffentlichen Diskussionen teilzunehmen. Die Erstellung detaillierter Marketingprofile, die die persönlichen Daten einzelner Personen verfolgen, beispielsweise ihren Wohnort und ihre berufliche Tätigkeit, ist mittlerweile eine drohende Bedrohung.
Die Forscher betonen, dass diese Technologie das Potenzial dazu hat
Quelle: Ars Technica


