Los chatbots de IA plantean inquietudes: ¿están brindando consejos médicos riesgosos?

Los estudios revelan que los asistentes de inteligencia artificial como ChatGPT pueden proporcionar información de salud inexacta o potencialmente dañina. Los expertos advierten a los usuarios que aborden con precaución los consejos médicos generados por IA.
A medida que los modelos de lenguaje de IA como ChatGPT se vuelven más frecuentes, un creciente conjunto de investigaciones plantea preocupaciones sobre su capacidad para brindar asesoramiento médico confiable. Varios estudios han descubierto que estos asistentes de IA pueden orientar a las personas en la dirección equivocada cuando se trata de atención médica, lo que puede conducir a resultados peligrosos o perjudiciales.
Uno de los principales problemas es la calidad de la información que imparten estas herramientas de IA, que puede variar mucho dependiendo de cómo los usuarios las indiquen. Los investigadores han descubierto que la misma consulta puede provocar respuestas muy diferentes de ChatGPT, que van desde precisas y útiles hasta inexactas y potencialmente riesgosas.
Esta inconsistencia es una preocupación importante, ya que las personas pueden asumir que la información que reciben de una IA tiene autoridad y es confiable, especialmente cuando se trata de asuntos delicados relacionados con la salud. Los expertos advierten que los usuarios deben abordar los consejos médicos generados por IA con ojo crítico y buscar siempre orientación de profesionales sanitarios autorizados.
Otro problema es la posibilidad de que estas herramientas de IA refuercen o incluso amplifiquen los sesgos y conceptos erróneos existentes. Los estudios han demostrado que ChatGPT a veces puede proporcionar respuestas que reflejan prejuicios sociales o prácticas médicas obsoletas, lo que podría ser particularmente problemático en el contexto de la atención médica.
A medida que el uso de la IA en la atención médica continúa creciendo, los investigadores y proveedores de atención médica exigen un mayor escrutinio y regulación de estas tecnologías. Argumentan que los sistemas de IA deben probarse y validarse minuciosamente antes de implementarse en entornos médicos, y que los usuarios deben ser conscientes de las limitaciones y los riesgos potenciales asociados con la información de salud generada por IA.
A pesar de estas preocupaciones, muchos expertos creen que la IA también podría desempeñar un papel valioso en la atención médica, como automatizar ciertas tareas administrativas, ayudar con la investigación médica o brindar recomendaciones de salud personalizadas. Sin embargo, enfatizan que estas tecnologías deben usarse como herramientas para complementar, no reemplazar, la experiencia y el juicio de los profesionales de la salud autorizados.
A medida que la integración de la IA en la atención médica continúa evolucionando, será crucial que tanto los desarrolladores como los usuarios permanezcan atentos y garanticen que estas tecnologías se implementen de manera segura, ética y responsable. Sólo entonces podrán aprovecharse plenamente los beneficios potenciales de la IA en la atención sanitaria y al mismo tiempo mitigar los riesgos y desafíos que estos sistemas pueden plantear.
Fuente: NPR


