Según una investigación, ChatGPT tiene una empatía superior a la de los médicos
Los investigadores realizaron 195 consultas sobre salud al chatbot de OpenAI, con el propósito de evaluar la calidad de la información arrojada y “la empatía” en la comunicación.
El estudio realizado por investigadores de la Universidad de California, en San Diego, la Universidad Johns Hopkins, en Maryland, entre otras academias en Estados Unidos, fue publicado en el foro AskDocs de Reddit, donde es posible ver el listado de 195 preguntas y respuestas médicas de ChatGPT.
Para desprevenidos, el ChatGPT un bot basado en inteligencia artificial (IA) con numerosas habilidades antes exclusivas del quehacer humano. Entrenado con grandes volúmenes de información, el sistema escribe textos en forma autónoma, mantiene conversaciones naturales, resuelve ecuaciones, trabaja con código de programación para crear o corregir softwares, entre muchas otras capacidades.
En su funcionamiento más “básico”, los usuarios pueden hacer preguntas y ChatGPT arroja respuestas completas. En el caso del estudio aquí mencionado, las consultas giraron en torno a la salud para evaluar cuán empática es la interacción, amén de que se trate de una máquina respondiendo y no de un ser humano con conocimientos específicos en la materia.
¿EL CHAT GPT PUEDE SER MÁS EMPATICO QUE LOS DOCTORES?
Para determinar la empatía de ChatGPT a la hora de responder consultas médicas, los investigadores pidieron a doctores de diversas especialidades (clínicos, pediatras, oncólogos, entre otros) que califiquen las réplicas del chatbot con una escala de cinco puntos.
¿Los resultados? Más del 78% de los médicos prefirieron las respuestas de ChatGPT a la de los doctores de carne y hueso, siendo más empáticas y de mayor calidad. Tal como nota en su repaso la publicación Business Insider, una de las claves que marcan la diferencia es que los especialistas humanos responden brevemente (quizá para maximizar el tiempo en las atenciones), mientras que el chatbot se explaya con más explicaciones y en forma amena.
RESPUESTAS DEL CHAT GTP A LOS PACIENTES
Uno de los ejemplos que se citan en el estudio es la siguiente pregunta: “¿Es posible quedarse ciego si el ojo entra en contacto con lavandina?”. La respuesta de ChatGPT comenzó del siguiente modo: “Lamento que te hayas salpicado” y luego ofreció instrucciones para actuar en esos casos.
En cambio, la respuesta de un médico fue una indicación directa, pidiendo que la persona lave su ojo o llame a emergencias.
EL CHATGPT NO ES UNA FUENTE DE DIAGNÓSTICO
Tal como nota BI, el relevante no dejarse engañar por las conclusiones de este estudio: ChatGPT no es un médico.
Tratándose de un sistema de IA que sigue los axiomas del aprendizaje automático, en su trasfondo hay muchos datos. ChatGPT y otros de su especie actúan gracias a la información que hay en su base, en este caso tomada de diversas fuentes de temáticas médicas.
En el caso del mencionado estudio, se trató solamente de preguntas y respuestas, sin ningún tipo de chequeo a pacientes, ni seguimiento clínico.
En resumen, ChatGPT puede traducir o resumir información médica para pacientes, pero no funcionará de manera confiable sin la asistencia humana clínicamente capacitada. Además, es importante saber que los datos que entrega no siempre son confiables, en especial si no se conocen las fuentes.
A fin de cuentas, decir que ChatGPT es más empático que un médico es parecido a decir que Wikipedia es más amable que un profesor de historia, por el simple hecho de narrar con más detalles un acontecimiento concreto. Ahora bien, esa consideración deja fuera muchos aspectos esenciales, como la idoneidad de cada uno.
CHAT GTP PUEDE SER AYUDA DE LOS MÉDICOS
Una vez conocidas las limitaciones de estos hallazgos, sí es posible pensar en ChatGPT y otros sistemas de IA como ayudantes de los médicos y buenas noticias para los pacientes.
Según se lee en el estudio, los chatbots de IA podrían “reducir las visitas clínicas necesarias” y “fomentar la equidad” para las personas que enfrentan barreras para acceder a la atención médica.
Isaac Kohane, médico y experto en informática de la Universidad de Harvard que no participó en este estudio, dijo a BI que GPT-4, el modelo de lenguaje de ChatGPT, puede ofrecer consejos a los médicos sobre cómo hablar con los pacientes con claridad y compasión.
“Debería ser evidente que uno de los secretos de la buena atención del paciente es cuidarlos”, dijo otro médico en Twitter después de la publicación del estudio.