Gli esperti richiedono una maggiore supervisione dei video tramite intelligenza artificiale da parte di Meta

Il comitato consultivo di Meta chiede politiche migliori per combattere la crescente minaccia dei video manipolati dall'intelligenza artificiale, soprattutto durante eventi critici.
Meta, la società madre di Facebook, sta affrontando una pressione crescente da parte del proprio comitato consultivo per migliorare i metodi di controllo dei video generati dall'intelligenza artificiale sulle sue piattaforme. Il consiglio ha avvertito che l'attuale approccio di Meta è inadeguato, in particolare durante i periodi di crisi o di intensa attività.
La questione dei deepfake e di altri media manipolati basati sull'intelligenza artificiale è motivo di crescente preoccupazione da anni, poiché la tecnologia diventa sempre più sofisticata e accessibile. Questi video fittizi possono essere utilizzati per diffondere disinformazione, impersonare personaggi pubblici e seminare discordia sociale, rappresentando una sfida significativa per piattaforme come Facebook, Instagram e WhatsApp.
Nel suo ultimo rapporto, il Comitato di sorveglianza di Meta ha evidenziato la necessità che l'azienda rafforzi le proprie politiche e i propri meccanismi di applicazione quando si tratta di contenuti generati dall'intelligenza artificiale. Il consiglio ha osservato che gli attuali sistemi di Meta spesso hanno difficoltà a rilevare e rimuovere questi video manipolati, soprattutto durante eventi di alto profilo o momenti di crisi.
Uno dei problemi chiave identificati dall'Oversight Board è la dipendenza di Meta dalle segnalazioni degli utenti per identificare i contenuti problematici generati dall'intelligenza artificiale. Questo approccio può essere lento e inefficace, in particolare quando gli autori malintenzionati creano e diffondono rapidamente video falsi. Il consiglio ha raccomandato a Meta di investire in strumenti di rilevamento più proattivi e sofisticati per identificare i deepfake e altri media manipolati dall'intelligenza artificiale prima che possano diffondersi ampiamente.
Inoltre, l'Oversight Board ha chiesto a Meta di sviluppare politiche più chiare e coerenti in merito all'etichettatura e al trattamento dei contenuti generati dall'intelligenza artificiale. Attualmente, l'approccio dell'azienda può essere incoerente, generando confusione e il rischio che una disinformazione dannosa passi inosservata.
La crescente minaccia della disinformazione basata sull'intelligenza artificiale ha attirato l'attenzione di legislatori e regolatori di tutto il mondo. Diversi paesi hanno introdotto o stanno prendendo in considerazione leggi per affrontare il problema e si chiede un coordinamento globale per stabilire standard e migliori pratiche comuni.
Meta ha riconosciuto la sfida e ha dichiarato che sta lavorando per migliorare le proprie capacità di rilevamento dell'intelligenza artificiale e di moderazione dei contenuti. Tuttavia, il rapporto dell'Osservatorio suggerisce che l'azienda deve fare di più per tenere il passo con la minaccia in rapida evoluzione rappresentata dalla manipolazione dei media.
Poiché l'uso delle tecnologie di intelligenza artificiale continua ad avanzare, la battaglia contro i deepfake e altre forme di media sintetici diventerà probabilmente una priorità sempre più critica per le piattaforme di social media e l'ecosistema digitale più ampio. Le raccomandazioni dell'Osservatorio sottolineano la necessità che Meta e altri giganti della tecnologia adottino un approccio più proattivo e globale a questa sfida.
Fonte: BBC News


