Respuestas de médicos vs. ChatGPT
Uno de los primeros estudios y de los que más impacto tuvieron, incluso apareciendo en medios de comunicación es el de John W. Ayers y colaboradores. Se utilizaron 195 preguntas y respuestas entre pacientes y médicos de un foro público de Reddit (r/AskDocs) seleccionados aleatoriamente de octubre de 2022 y las compararon con las respuestas que aportaba ChatGPT. El principal resultado es que los médicos que seleccionados para evaluar las respuestas tanto de médicos como de ChatGPT prefirieron las respuestas del chatbot en el 78.6% de las evaluaciones. Tanto la calidad de las respuestas, como la empatía, fuereron mejor puntuadas en las respuestas de ChatGPT. ChatGPT es una máquina, no tiene un mal día, ni sobrecarga de trabajo y tiene más tiempo para hacer respuestas más largas. Estos factores posiblemente son los que hacen puntuar mejor a ChatGPT.
Pero, ¿ChatGPT tiene realmente empatía?
Algunos estudios denominan a la empatía de ChatGPT y los modelos de lenguaje como pseudoempatía o “empatía suficiente”. Algunos autores son muy críticos con este aspecto, afirmando que incluso que es perjudicial el uso de ChatGPT con pacientes y como chatbot de salud. Un ejemplo es el de Montemayor y colaboradores. Afirman que “La atención empática genuina no es solo una cuestión de seguir reglas o aplicar algoritmos; requiere una resonancia emocional y atención consciente que la IA no puede proporcionar. La simulación de empatía por parte de la IA puede inducir respuestas engañosas en los pacientes, lo que no solo es ineficaz sino también poco ético”. Explican en su estudio que la empatía de salud es una combinación de empatía emocional (experiencia visceral de las emociones de los demás), cognitiva (capacidad de reconocer y comprender los estados emocionales de otros) y motivacional (motivación para ayudar a los demás basada en la empatía emocional). Los autores afirman que la IA puede simular la empatía cognitiva, pero carece de la capacidad para la empatía emocional. Esta “empatía suficiente” puede ser útil en contextos limitados como la compañía para ancianos con demencia leve, pero no reemplaza la empatía genuina en la atención médica crítica. Respecto a la empatía cognitiva, Allan y Mueller se propusieron con su estudio evaluar cómo los elementos de esta empatía cognitiva pueden incorporarse en la comunicación entre pacientes y sistemas de inteligencia artificial (IA) para mejorar la percepción de empatía y satisfacción del paciente durante el diagnóstico. Propusieron la inclusión de 4 elementos en los sistemas conversacionales con inteligencia artificial para mejorar la empatía cognitiva y mejorar la experiencia del paciente: Conocimiento compartido ("Shared Knowledge"): este elemento de empatía cognitiva implica que la IA repita o "refleje" la información proporcionada por el paciente para asegurarse de que el sistema comprenda completamente los síntomas o condiciones del paciente. El objetivo es que el paciente sienta que la IA está prestando atención y comprendiendo su situación. Retroalimentación compartida ("Shared Feedback"): en este caso, el sistema de IA invita al paciente a compartir cualquier información adicional que tal vez no haya mencionado previamente o que quiera agregar después de la consulta inicial. Toma de decisiones compartida ("Shared Decision-Making"): este elemento consiste en que el sistema de IA proporciona opciones de tratamiento o diagnóstico y ayuda al paciente a tomar una decisión explicando los pros y contras de cada opción. Sentido compartido ("Shared Sensemaking"): en esta condición, la IA ayuda al paciente a recontextualizar o reinterpretar una experiencia o síntoma que inicialmente pudo parecer preocupante, explicando que es parte de un proceso normal, como el dolor que puede ser un signo de recuperación.
Limbic: chatbot de salud mental
No es todo negativo respecto a la empatía y el uso de chatbots en salud. Existen casos de éxito como el Chatbot Limbic del Servicio Nacional de Salud del Reino Unido. Limbic - NHS Innovation Accelerator Un estudio de Habicht y colaboradores, publicado en Nature Medicine destaca cómo este chatbot de inteligencia artificial ha facilitado el acceso a servicios de salud mental a través del Servicio Nacional de Salud (NHS) de Inglaterra, especialmente entre grupos infrarrepresentados. Este chatbot utiliza inteligencia artificial conversacional para facilitar las evaluaciones de salud mental y mejorar la eficiencia clínica en los servicios de psicoterapia. Los resultados clave que se obtuvieron fueron: Aumento de derivaciones: ha logrado un incremento significativo en las derivaciones a servicios de salud mental, destacando un impacto notable entre las comunidades minoritarias. Eficiencia mejorada: ha facilitado un aumento del 15% en las derivaciones a terapias para ansiedad y depresión, comparado con un 6% en servicios que no lo utilizaban. Impacto en grupos minoritarios: se observaron aumentos del 179% en derivaciones de personas no binarias, 39% en pacientes asiáticos, y 40% en pacientes de color, demostrando cómo la tecnología puede superar barreras de acceso. Calidad de evaluaciones: la tecnología no solo optimizó el tiempo de evaluación por parte de los médicos, sino que también mejoró la calidad de estas, sin prolongar los tiempos de espera. Experiencia del usuario: los usuarios reportaron sentirse más esperanzados y valoraron la interacción no humana, especialmente aquellos de la comunidad no binaria, por evitar sentimientos de juicio o ansiedad. Este último punto confirma que lo que puede ser una desventaja (atención no humana) puede ser beneficioso para otros. Por lo que, como concluyen todos los estudios, hace falta más investigación en este ámbito del uso de la inteligencia artificial la salud para analizar la comunicación humano-máquina y sus beneficios en salud.
▶️ Personalización del tratamiento
Predicción de respuesta al tratamiento Los algoritmos de machine learning han demostrado capacidad para predecir resultados relacionados con el dolor, incluyendo la respuesta al tratamiento, con una precisión de hasta el 95% en algunos casos, según el estudio de Mari et al. Estos algoritmos utilizan datos clínicos complejos para identificar patrones y predecir qué pacientes responderán mejor a ciertos tratamientos. Monitorización continua Tal y como afirman Pouromran y colaboradores en un estudio publicado en PLOS ONE, los Sistemas de IA integrados en dispositivos wearables pueden monitorear de forma continua parámetros fisiológicos para estimar la intensidad del dolor en tiempo real mejorando la precisión del seguimiento y permitiendo ajustes rápidos en el tratamiento. Terapias digitales personalizadas Los modelos de aprendizaje automático también se están aplicando en intervenciones digitales para la salud mental y el dolor crónico, ayudando a predecir qué técnicas terapéuticas, como la terapia cognitivo-conductual, serán más efectivas en cada paciente, como nos indican Hornstein y colaboradores en este estudio.
▶️ Optimización de la experiencia del paciente
Gestión de citas inteligente Los sistemas basados en IA pueden mejorar la asignación de pacientes a consultas o procedimientos, optimizando los recursos y reduciendo tiempos de espera para consultas relacionadas con el manejo del dolor crónico, como se ha demostrado en estudio (⚠️preprint, no revisado por pares) sobre IA y manejo del dolor lumbar crónico de Barbosa y colaboradores. Entornos adaptables La IA está empezando a aplicarse para personalizar entornos clínicos, controlando aspectos como la luz y la temperatura, lo que puede mejorar la comodidad del paciente, aunque aún hay poca investigación específica en esta área. Realidad virtual terapéutica Los entornos de realidad virtual personalizados con IA se han utilizado para reducir la ansiedad y el dolor en pacientes durante procedimientos médicos, mostrando beneficios en la experiencia global del paciente.
▶️ Empoderamiento del paciente
Acceso a información personalizada Un estudio reciente publicado en PAIN Reports desarrolló un marco analítico utilizando modelos de machine learning para personalizar la eficacia de terapias digitales para el manejo del dolor, tomando en cuenta las características personales de los usuarios, como la edad, el género y el índice de masa corporal. Este enfoque permitió mejorar la interpretación del modelo y ajustar las terapias de retroalimentación postural en función de las fluctuaciones temporales del dolor y la calidad de la postura reportadas por los usuarios. Comunidades de apoyo virtuales La IA también facilita la creación de comunidades virtuales donde los pacientes pueden compartir sus experiencias y recibir apoyo emocional, lo que contribuye a una mejor gestión del dolor crónico y la ansiedad asociada. El Impacto de la Inteligencia Artificial en las Comunidades Virtuales de Pacientes
Sesgos
Los algoritmos de IA aprenden de los datos con los que son entrenados, lo que puede resultar en la perpetuación de sesgos en esos datos. Si los datos utilizados para entrenar los algoritmos están sesgados, es probable que las decisiones generadas por la IA también reflejen ese sesgo, lo que puede llevar a decisiones injustas o inexactas que afectan a la equidad y calidad de la atención médica. En un estudio de Zack y cols con ChatGPT 4 obtuvieron los siguientes resultados: Existen diferencias significativas en la recomendación de pruebas avanzadas de imagen entre pacientes de color y blancos (9% menos frecuentes para pacientes de color). GPT-4 fue menos propenso a recomendar pruebas de esfuerzo para mujeres en comparación con hombres (58% vs 71%). GPT-4 recomendó pruebas de infecciones de transmisión sexual más frecuentemente para pacientes masculinos de color, hispanos y asiáticos.
Alucinaciones
Una alucinación en el entorno de los modelos de lenguaje grandes (LLM) se refiere a la generación de contenido por parte del modelo que es incorrecto, engañoso o fabricado, a pesar de que puede parecer coherente y plausible. Este fenómeno ocurre cuando el modelo produce información que no está respaldada por datos reales o verificables y puede incluir afirmaciones falsas, detalles inventados, o combinaciones erróneas de datos. Por esto, en cualquier área, pero específicamente en salud, es necesario que los profesionales de la salud validen las respuestas con sus conocimientos.
1
2
3
4
5
1
2
3
El estudio, realizado en el Instituto Indio de Tecnología de Bombay, involucró a 250 pacientes con dolor crónico. Los participantes fueron divididos en dos grupos: uno que recibió información sobre su condición y tratamiento a través de un agente conversacional de IA y otro que recibió la información tradicionalmente, a través de folletos y conversaciones con el médico. Los resultados mostraron que el grupo que interactuó con el agente conversacional reportó niveles significativamente más altos de satisfacción con la atención recibida, demostrando una mejor comprensión de su condición y un mayor compromiso con el tratamiento. Además, el estudio encontró que el uso de agentes conversacionales redujo el tiempo promedio de consulta en un 15%, lo que podría liberar tiempo valioso para los médicos y permitir que atiendan a más pacientes.
El estudio, realizado en el Instituto Indio de Tecnología de Bombay, involucró a 250 pacientes con dolor crónico. Los participantes fueron divididos en dos grupos: uno que recibió información sobre su condición y tratamiento a través de un agente conversacional de IA y otro que recibió la información tradicionalmente, a través de folletos y conversaciones con el médico. Los resultados mostraron que el grupo que interactuó con el agente conversacional reportó niveles significativamente más altos de satisfacción con la atención recibida, demostrando una mejor comprensión de su condición y un mayor compromiso con el tratamiento. Además, el estudio encontró que el uso de agentes conversacionales redujo el tiempo promedio de consulta en un 15%, lo que podría liberar tiempo valioso para los médicos y permitir que atiendan a más pacientes.
1
2
3