Utilizar inteligencia artificial para resolver dudas sobre salud se ha convertido en una tendencia al alza en los últimos años. Pasamos de Dr. Google, que al menos obligaba a los usuarios a navegar entre enlaces y distinguir entre distintas fuentes, a Dr. ChatGPT, donde la respuesta llega digerida, personalizada y en un tono conversacional peligrosamente convincente.
El Dr. Adam Rodman, internista e investigador del uso aplicado de la IA a la medicina, explicó a través de una columna en The New York Times que, si se usan adecuadamente, estos amplios modelos de lenguaje pueden ser de gran utilidad. Sin embargo, su mal uso conlleva riesgos nuevos y poco comprendidos por la mayoría de sus usuarios.
“A medida que participamos en esta nueva y emocionante fase de la atención médica, esto es lo que quiero que mis pacientes sepan sobre el uso de la IA para su salud”, indicó el especialista.
La IA como herramienta para preparar la consulta
“Una de las mejores formas en que veo que mis pacientes utilizan la IA es para prepararse mejor para las visitas al médico”, indicó el especialista. Como seguramente ya sabrás, las consultas médicas no suelen tener una duración muy extendida, por lo que optimizar su eficiencia puede ser una buena idea, si se hace correctamente.
“Supongamos que vas al médico por una tos molesta. Un consejo: revisa tus notas médicas y elimina toda la información personal. Copia esas notas en una herramienta de IA y proporciona al modelo una actualización de tu salud y tus problemas de tos. (…) Finalmente, pregúntale: “Dado este contexto sobre mi salud, por favor, dame tres preguntas que debería hacerle a mi médico sobre mi tos durante mi próxima visita”.
Es fundamental hacer hincapié en la importancia de evitar compartir datos muy personales o sensibles con cualquier chatbot. La regla de oro es estricta: nunca proporciones información que no te gustaría que se divulgara públicamente. Nunca sabes si tu cuenta podría ser hackeada, lo que daría acceso a todas tus conversaciones con la máquina.
El médico también enfatiza la importancia de ser honestos respecto al uso de la IA. “En mi experiencia, ser honestos sobre el uso que hacemos de la IA fortalece la confianza entre médicos y pacientes y, con suerte, conducirá a una mejor atención”.
Mucho cuidado con este rasgo de los modelos de IA
Rodman advierte que “la tendencia de los modelos de lenguaje a intentar complacer a sus usuarios es especialmente problemática para las personas que utilizan IA para responder preguntas de salud”.
El asunto es que, como estos modelos están entrenados para ser extremadamente complacientes y mantenerte enganchado, pueden identificar qué información resuena más contigo y exponerte a más de ella. Por ejemplo, pueden terminar derivando una conversación sobre un dolor de cabeza, cuyo origen simplemente es estrés, hacia una discusión detallada sobre el cáncer cerebral.
“Les recuerdo a mis pacientes que si una conversación aumenta su angustia o ansiedad, es hora de hablar directamente con su médico”, explicó el experto.
Más información no siempre significa un mejor diagnóstico
Otro punto a tener en cuenta es que a algunos modelos de IA les cuesta prestar atención cuando se les proporcionan grandes cantidades de texto repetitivo.
“Si tienes problemas de salud complejos o muchos años de historiales médicos, introducir todo en el modelo puede, paradójicamente, empeorar su rendimiento. No dudo de que los modelos seguirán mejorando en la comprensión de la información sanitaria, pero sigo animando a todos mis pacientes a considerar seriamente las implicaciones de privacidad antes de entregar grandes cantidades de datos sanitarios sin editar”, advirtió el médico especialista en IA.
Cuidado con las segundas opiniones
Los errores de diagnóstico pueden ser fatales o irreversibles. En ese sentido, “la capacidad de la IA para ayudar a identificar errores de forma temprana podría convertirla en una de nuestras mejores herramientas para salvar vidas. Aun así, recomiendo a mis pacientes que sean cautelosos al buscar segundas opiniones a través de chatbots”, aconsejó Rodman.
Según explica, una segunda opinión de la IA debería ser el punto de partida para una conversación con el médico, pero nunca debería ocuparse para hacer cambios u obtener consejos sobre los planes de tratamiento.
El internista recordó cómo “el año pasado, en la revista Annals of Internal Medicine, un grupo de médicos informó sobre un caso de intoxicación por bromuro de sodio en un hombre que quería mejorar su dieta con un sustituto de la sal de mesa y que en ese momento accedía a ChatGPT. Aunque no hay forma de saber cómo eran sus registros de chat, los médicos descubrieron que ChatGPT producía una respuesta que incluía bromuro de sodio como posible sustituto de la sal”.