Come Apple ha quasi bandito l'app AI di Elon Musk per lo scandalo Deepfake

Dettagli esclusivi su come Apple ha minacciato di rimuovere Grok, l'app di intelligenza artificiale di Elon Musk, dall'App Store a causa dell'ondata di deepfake sessuali non consensuali sulla piattaforma di social media X.
Apple ha minacciato silenziosamente di espellere l'app AI di Elon Musk, Grok, dal suo App Store a gennaio per la sua incapacità di frenare l'ondata di deepfake sessuali non consensuali che hanno inondato X, secondo NBC News. È stata una dimostrazione di forza silenziosa da parte di uno dei guardiani più potenti della tecnologia, fatta a porte chiuse proprio mentre la crisi di svestizione si svolgeva in piena vista del pubblico e le critiche sulla codardia di Apple aumentavano.
In una lettera ottenuto da NBC News, Apple ha detto ai senatori statunitensi di "aver contattato i team dietro X e Grok dopo aver ricevuto lamentele e hanno visto la copertura giornalistica dello scandalo" e hanno chiesto agli sviluppatori di "creare un piano per migliorare la moderazione dei contenuti".
La rivelazione fa luce sulle battaglie dietro le quinte tra i giganti della tecnologia e le loro piattaforme basate sull'intelligenza artificiale mentre lottano per affrontare la rapida diffusione di deepfake e altri contenuti non consensuali. Sebbene Apple abbia pubblicamente assunto una forte posizione contro la disinformazione e le violazioni della privacy, le sue minacce private a Grok suggeriscono che l'azienda è disposta a esercitare la sua influenza per forzare un'azione, anche quando i riflettori pubblici non sono direttamente puntati su di loro.
La crisi deepfake su X è stata un grosso grattacapo per Elon Musk e il suo team, con un'ondata di contenuti sessuali non consensuali con celebrità e personaggi pubblici. Nonostante la promessa di una moderazione dei contenuti più rigorosa e di strumenti per combattere i deepfake, la piattaforma ha faticato a tenere il passo con il diluvio di attività dannose.
Grok, l'assistente AI di Musk integrato nella piattaforma X, è stato al centro della controversia, poiché le sue capacità di deep learning erano viste come abilitanti la creazione e la diffusione di questi deepfake. La minaccia di Apple di rimuovere l'app dal suo App Store è stato un chiaro avvertimento, segnalando che anche i protagonisti più potenti della tecnologia non sono immuni dalle pressioni sugli fallimenti nella moderazione dei contenuti.
L'episodio sottolinea la crescente importanza dello sviluppo etico dell'IA e la necessità di normative complete per governare l'uso delle tecnologie di IA generativa. Mentre il deepfake e altra disinformazione basata sull'intelligenza artificiale continuano a proliferare, la battaglia tra aziende tecnologiche, legislatori e società civile è solo all'inizio.
Andando avanti, Apple, Elon Musk e altri leader del settore saranno attentamente osservati per vedere come affrontano queste complesse questioni. La posta in gioco è alta, non solo per il settore tecnologico, ma per la privacy e la sicurezza degli individui e della società nel suo complesso.
Fonte: The Verge

