¿Usas ChatGPT para resolver dudas de salud? Esta es la forma correcta de hacerlo, según un médico
tecnologia

¿Usas ChatGPT para resolver dudas de salud? Esta es la forma correcta de hacerlo, según un médico

Utilizar inteligencia artificial para resolver dudas sobre salud se ha convertido en una tendencia al alza en los últimos años. Pasamos de Dr. Google, que al menos obligaba a los usuarios a navegar entre enlaces y distinguir entre distintas fuentes, a Dr. ChatGPT, donde la respuesta llega digerida, personalizada y en un tono conversacional peligrosamente convincente.

“A medida que participamos en esta nueva y emocionante fase de la atención médica, esto es lo que quiero que mis pacientes sepan sobre el uso de la IA para su salud”, indicó el especialista.

La IA como herramienta para preparar la consulta

Es fundamental hacer hincapié en la importancia de evitar compartir datos muy personales o sensibles con cualquier chatbot. La regla de oro es estricta: nunca proporciones información que no te gustaría que se divulgara públicamente. Nunca sabes si tu cuenta podría ser hackeada, lo que daría acceso a todas tus conversaciones con la máquina.

El médico también enfatiza la importancia de ser honestos respecto al uso de la IA. “En mi experiencia, ser honestos sobre el uso que hacemos de la IA fortalece la confianza entre médicos y pacientes y, con suerte, conducirá a una mejor atención”.

“Les recuerdo a mis pacientes que si una conversación aumenta su angustia o ansiedad, es hora de hablar directamente con su médico”, explicó el experto.

Más información no siempre significa un mejor diagnóstico

Cuidado con las segundas opiniones

Los errores de diagnóstico pueden ser fatales o irreversibles. En ese sentido, “la capacidad de la IA para ayudar a identificar errores de forma temprana podría convertirla en una de nuestras mejores herramientas para salvar vidas. Aun así, recomiendo a mis pacientes que sean cautelosos al buscar segundas opiniones a través de chatbots”, aconsejó Rodman.

El internista recordó cómo “el año pasado, en la revista Annals of Internal Medicine, un grupo de médicos informó sobre un caso de intoxicación por bromuro de sodio en un hombre que quería mejorar su dieta con un sustituto de la sal de mesa y que en ese momento accedía a ChatGPT. Aunque no hay forma de saber cómo eran sus registros de chat, los médicos descubrieron que ChatGPT producía una respuesta que incluía bromuro de sodio como posible sustituto de la sal”.

← Volver a noticias