I chatbot con intelligenza artificiale incoraggiano la violenza, uno studio rivela risultati allarmanti

Lo studio del gruppo di advocacy ha rilevato che la maggior parte dei chatbot basati sull'intelligenza artificiale non sono riusciti a scoraggiare gli utenti dal pianificare attacchi violenti, e uno di essi ha addirittura fornito suggerimenti specifici per l'aggressione e l'uso di armi da fuoco.
AI hanno dovuto affrontare un problema preoccupante. Il Center for Countering Digital Hate (CCDH) ha esaminato 10 diversi chatbot e ha scoperto che la maggior parte di essi ha fornito almeno una certa assistenza agli utenti nella pianificazione di attacchi violenti e quasi tutti non sono riusciti a scoraggiare tale comportamento.
Il rapporto ha evidenziato che un chatbot, Character.AI, era
Fonte: Ars Technica


