Ante la consulta de un ciudadano sobre el peligro de fallecer tras tragar un mondadientes de dientes, dos contestaciones. La primera apunta que entre dos o 6 horas tras la ingesta, probablemente haya pasado ya a los intestinos y, además de esto, bastante gente traga palillos sin que pase nada, mas advierte de que si siente “dolor de estómago”, vaya a emergencias. La segunda contestación va en exactamente la misma línea e insiste en que, si bien es normal la preocupación, no es muy probable que ocurra un daño grave tras tragar un mondadientes pues está hecho de madera, que no es un material tóxico ni envenena, y es un aparejo pequeño; no obstante, añade, si tiene “dolor abdominal, dificultad para tragar o vómitos”, debe asistir al médico: “Es comprensible que te sientas paranoico, pero trata de no preocuparte demasiado”, le consuela.

Las dos contestaciones afirman lo mismo en el fondo, mas cambian en las formas. Una es más aséptica y escueta; otra, más empática y detallada. La primera ha sido generada por un médico, de su puño y letra, y la segunda, por ChatGPT, la herramienta generativa de inteligencia artificial (IA) que ha revolucionado el planeta en los últimos meses. El estudio en el que se enmarca este experimento, publicado en la revista Jama Internal Medicine, deseó ahondar en el papel que podrían tener los asistentes de IA en medicina y equiparó las contestaciones que daban médicos reales y el chatbot a cuestiones de salud planteadas por ciudadanos en un foro de discusión de internet. Las conclusiones, tras el análisis de las contestaciones por la parte de un panel externo de profesionales de la salud que ignoraba quién había contestado qué cosa, es que, en el setenta y nueve% de las veces, las explicaciones de ChatGPT eran más empáticas y de mayor calidad.

La explosión de las nuevas herramientas de IA en el planeta ha abierto el discute sobre su potencial asimismo en el campo de la salud. El ChatGPT, por servirnos de un ejemplo, busca su hueco como apoyo a los sanitarios para desarrollar procedimientos médicos o para eludir labores burocráticas y, a pie de calle, planea ya como un ocasional substituto del impreciso y, frecuentemente, desacertado doctor Google. Los especialistas consultados aseguran que se trata de una tecnología con mucho potencial, mas está en pañales: hay que afinar aún el campo regulativo en su aplicación en la práctica médica real, solucionar las dudas morales que puedan surgir y, sobre todo, aceptar que es una herramienta falible y que puede confundirse. Todo lo que salga de ese chatbot requerirá siempre y en toda circunstancia la revisión final de un profesional de la salud.

Paradójicamente, la voz más empática en el estudio de Jama Internal Medicine es la máquina y no el humano. Al menos, en la contestación escrita. Josep Munuera, jefe del Servicio de Diagnóstico por la Imagen del Hospital Sant Pau de Barcelona y especialista en tecnologías digitales aplicadas a la salud, advierte de que el término de empatía es más extenso de lo que puede cristalizar ese estudio. No es exactamente lo mismo la comunicación escrita que un frente a frente, ni las dudas planteadas en el contexto de una red social que en una consulta. “Cuando hablamos de empatía, hablamos de muchos temas. De momento, es difícil sustituir el lenguaje no verbal, que es muy importante cuando un médico tiene que hablar con un paciente o su familia“, puntualiza. Pero sí admite el potencial de estas herramientas generativas para aterrizar el argot médico, por ejemplo: “En la comunicación escrita, el lenguaje técnico médico puede ser complejo y podemos tener dificultad para traducirlo a un lenguaje entendible. Probablemente, estos algoritmos encuentren la equivalencia entre la palabra técnica y otra adaptada al receptor”.

Joan Gibert, bioinformático y referente en desarrollo de modelos de IA en el Hospital del Mar de Barcelona, agrega otra variable en el momento de valorar la potencial empatía de la máquina frente al médico. “En el estudio se mezclan dos conceptos que entran en la ecuación: el ChatGPT en sí, que puede ser útil en ciertos escenarios y que tienen la capacidad de concatenar palabras que nos generan la sensación de que es más empático, y el burnout de los médicos, ese agotamiento emocional a la hora de atender a los pacientes que no le deja a los clínicos capacidad para ser más empáticos”, explica.

El riesgo de las “alucinaciones”

En cualquier caso, y como ocurre con el renombrado doctor Google, hay que llevar cuidado siempre y en toda circunstancia con las contestaciones que lanza el ChatGPT, por muy sensible o afable que pudiese parecer. Los especialistas recuerdan que el chatbot no es un médico y puede fallar. En contraste a otros algoritmos, ChatGPT es generativo, esto es, crea información desde las bases de datos con las que se ha entrenado, mas es posible que ciertas contestaciones que lanza se las invente. “Siempre hay que tener en cuenta que no es un ente independiente y no puede servir de herramienta de diagnóstico sin supervisión”, insiste Gibert.

Estos chats pueden padecer lo que los especialistas llaman “alucinaciones”, explica el bioinformático del Mar: “En según qué situaciones, te afirma una cosa que no es cierta. El chat junta palabras de forma que tienen coherencia y como tiene mucha información, puede ser valioso. Pero tiene que estar revisado porque, si no, puede alimentar las fake news”. Munuera resalta la relevancia, además de esto, de “conocer la base de datos que ha entrenado al algoritmo porque si las bases de datos son insuficientes, la respuesta también lo será”.

“Hay que entender que cuando le pides que te haga un diagnóstico, puede que invente una enfermedad”

Josep Munuera, Hospital Sant Pau de Barcelona

En la calle, los potenciales usos de ChatGPT en salud son limitados, puesto que la información que lanzan puede llevar a fallos. Jose Ibeas, nefrólogo del Hospital Parc Taulí de Sabadel y secretario del Grupo de Big Data e Inteligencia Artificial de la Sociedad Española de Nefrología, apunta que es “útil para las primeras capas de información porque te sintetiza información y ayuda, pero cuando se entra en una zona más específica, en patologías más complejas, la utilidad es mínima o errónea”. Munuera coincide y resalta que “no es un algoritmo que ayude a resolver dudas”. “Hay que entender que cuando le pides que te haga un diagnóstico diferencial, puede que invente una enfermedad”, alarma. Y, de exactamente la misma forma, el algoritmo puede contestar a las dudas de un ciudadano concluyendo que no es nada grave cuando, realmente, sí lo es: ahí se puede perder una ocasión de atención sanitaria pues la persona se queda conforme con la contestación del chatbot y no consulta a un médico real.

Donde más margen para maniobrar hallan los especialistas a estas aplicaciones es como herramienta de apoyo a los profesionales de la salud. Por ejemplo, para asistir a contestar a preguntas de pacientes por escrito, si bien siempre y en toda circunstancia bajo supervisión del médico. El estudio de Jama Internal Medicine plantea que asistiría a “mejorar el flujo de trabajo” y los resultados de los pacientes: “Si las preguntas de más pacientes se responden rápidamente, con empatía y en un alto nivel, podría reducir las visitas clínicas innecesarias, liberando recursos para quienes los necesitan. Además, los mensajes son un recurso fundamental para fomentar la equidad del paciente, donde las personas que tienen limitaciones de movilidad u horarios de trabajo irregulares, es más probable que recurran a los mensajes”, son convenientes los autores.

La comunidad científica asimismo estudia emplear estas herramientas para otros trabajos repetitivos, como cubrir fichas e informes. “Partiendo de la premisa de que siempre, siempre, siempre, todo necesitará revisión por parte del médico”, apostilla Gibert, el apoyo en labores burocráticas —repetitivas, mas importantes— liberan tiempo a fin de que los médicos lo dediquen a otras cuestiones, como el propio paciente. Un artículo publicado en The Lancet plantea, por servirnos de un ejemplo, su potencial para agilizar los informes de alta: la automatización de este proceso podría calmar cargas de trabajo e inclusive progresar la calidad de los informes, si bien son conscientes, afirman los autores, de las contrariedades para adiestrar los algoritmos con extensas bases de datos y, entre otros muchos inconvenientes, del peligro de “despersonalización de la atención”, algo que podría producir resistencias a esta tecnología.

Ibeas insiste en que, para cualquier uso médico, va a haber que “validar” esta clase de herramientas y fijar bien el reparto de responsabilidades: “Los sistemas nunca va a decidir. El que firma siempre al final es el médico”, sentencia.

Problemas éticos

Gibert apunta asimismo ciertas consideraciones morales que hay que tomar en consideración al aterrizar estas herramientas a la práctica clínica: “Necesitas que este tipo de tecnología esté bajo un paraguas legal, que haya soluciones integradas dentro de la estructura del hospital y asegurar que los datos de los pacientes no sean usados para reentrenar el modelo. Y si alguien quiere hacer esto último, que lo haga dentro de un proyecto, con datos anonimizados y siguiendo todos los controles y regulaciones. No se puede compartir información sensible de pacientes a la brava”.

Un conjunto de estudiosos de la Universidad de Stanford asimismo meditaron en un artículo en Jama Internal Medicine sobre de qué manera estas herramientas pueden asistir a humanizar más la atención sanitaria: “La práctica de la medicina es mucho más que procesar información y asociar palabras con conceptos; es atribuir significado a esos conceptos mientras se conecta con los pacientes como un socio confiable para construir vidas más saludables. Podemos esperar que los sistemas de inteligencia artificial emergentes puedan ayudar a domar las tareas laboriosas que abruman a la medicina moderna y empoderar a los médicos para volver a enfocarnos en el tratamiento de pacientes humanos.”

A la espera de ver de qué manera se expande esta tecnología naciente y cuáles son sus repercusiones, cara la ciudadanía, Munuera insiste: “Hay que entender que [ChatGPT] no es una herramienta médica y no hay un profesional de la salud que pueda confirmar la veracidad de la respuesta. Hay que ser prudente y entender cuáles son los límites”. En síntesis, sigue Ibeas: “El sistema es bueno, robusto, positivo y es el futuro, pero como cualquier herramienta, hay que saber conducirla para que no se convierta en un arma”.

Puedes proseguir a Forbes Hispano Salud y Bienestar en Facebook, Twitter e Instagram.