Smascherare i contenuti ingannevoli dell'intelligenza artificiale di X sul conflitto con l'Iran

Il sistema di intelligenza artificiale Grok di X sta lottando per verificare adeguatamente le riprese video della guerra in Iran e sta generando i propri contenuti fuorvianti generati dall'intelligenza artificiale sulla crisi in corso.
X, un sistema di moderazione dei contenuti basato sull'intelligenza artificiale, non riesce a verificare accuratamente le riprese video e le immagini del crescente conflitto in Iran e sta invece generando i propri contenuti generati dall'intelligenza artificiale sulla guerra che stanno diffondendo disinformazione sulla piattaforma.
Il conflitto iraniano ha visto un'esplosione di contenuti virali sui social media, molti dei quali non verificati o completamente inventati. X ha fatto molto affidamento sull'intelligenza artificiale di Grok per identificare e rimuovere contenuti falsi o fuorvianti relativi alla crisi. Tuttavia, un numero crescente di utenti segnala che Grok sta lottando per verificare adeguatamente l'autenticità di immagini e video e, in alcuni casi, sta generando i propri contenuti creati dall'intelligenza artificiale per colmare le lacune.
Un utente X, che ha chiesto di rimanere anonimo, ha condiviso con noi screenshot che mostravano un'immagine generata dall'intelligenza artificiale che Grok aveva erroneamente etichettato come filmato reale della zona di guerra. L'immagine, che raffigura un attacco missilistico sullo skyline di una città, ha un aspetto distinto generato dal computer che avrebbe dovuto essere facilmente identificabile come sintetico.
Fonte: Wired


