I chatbot con intelligenza artificiale sollevano preoccupazioni: forniscono consulenza medica rischiosa?

Gli studi rivelano che gli assistenti IA come ChatGPT possono fornire informazioni sanitarie imprecise o potenzialmente dannose. Gli esperti avvertono gli utenti di avvicinarsi con cautela ai consigli medici generati dall’intelligenza artificiale.
Mentre i modelli linguistici dell'intelligenza artificiale come ChatGPT diventano sempre più diffusi, un numero crescente di ricerche solleva preoccupazioni sulla loro capacità di fornire consulenza medica affidabile. Diversi studi hanno scoperto che questi assistenti di intelligenza artificiale possono indirizzare le persone nella direzione sbagliata quando si tratta di assistenza sanitaria, portando potenzialmente a risultati pericolosi o dannosi.
Uno dei problemi principali è la qualità delle informazioni fornite da questi strumenti di intelligenza artificiale, che può variare notevolmente a seconda di come gli utenti li suggeriscono. Ricercatori hanno scoperto che la stessa query può suscitare risposte molto diverse da ChatGPT, che vanno da accurate e utili a imprecise e potenzialmente rischiose.
Questa incoerenza è una delle maggiori preoccupazioni, poiché le persone potrebbero presumere che le informazioni che ricevono da un'intelligenza artificiale siano autorevoli e affidabili, soprattutto quando si tratta di questioni delicate legate alla salute. Gli esperti avvertono che gli utenti dovrebbero avvicinarsi ai consigli medici generati dall'intelligenza artificiale con occhio critico e cercare sempre la guida di professionisti sanitari autorizzati.
Un altro problema è il potenziale per questi strumenti di intelligenza artificiale di rafforzare o addirittura amplificare pregiudizi e idee sbagliate esistenti. Gli studi hanno dimostrato che ChatGPT a volte può fornire risposte che riflettono pregiudizi sociali o pratiche mediche obsolete, che potrebbero essere particolarmente problematiche nel contesto dell'assistenza sanitaria.
Poiché l'uso dell'intelligenza artificiale nel settore sanitario continua a crescere, ricercatori e operatori sanitari chiedono un maggiore controllo e una regolamentazione di queste tecnologie. Sostengono che i sistemi di AI dovrebbero essere accuratamente testati e convalidati prima di essere implementati in contesti medici e che gli utenti dovrebbero essere informati sui limiti e sui potenziali rischi associati alle informazioni sanitarie generate dall'intelligenza artificiale.
Nonostante queste preoccupazioni, molti esperti ritengono che l'AI potrebbe svolgere un ruolo prezioso anche nel settore sanitario, ad esempio automatizzando determinate attività amministrative, assistendo nella ricerca medica o fornendo raccomandazioni sanitarie personalizzate. Tuttavia, sottolineano che queste tecnologie dovrebbero essere utilizzate come strumenti per integrare, e non sostituire, l'esperienza e il giudizio degli operatori sanitari autorizzati.
Poiché l'integrazione dell'intelligenza artificiale nell'assistenza sanitaria continua ad evolversi, sarà fondamentale sia per gli sviluppatori che per gli utenti rimanere vigili e garantire che queste tecnologie vengano implementate in modo sicuro, etico e responsabile. Solo allora i potenziali vantaggi dell'intelligenza artificiale nel settore sanitario potranno essere pienamente realizzati, mitigando al tempo stesso i rischi e le sfide che questi sistemi potrebbero comportare.
Fonte: NPR


