¿Usas ChatGPT para consultas médicas? Estas son las consecuencias de darle tu información a la IA

¿Quién no ha recurrido alguna vez al Dr. Google? Ese “médico” digital que suele ofrecer la respuesta más alarmante. Desde los años 2000, muchas personas lo han usado como sustituto de una consulta real, lo que ha llevado a numerosos autodiagnósticos erróneos. Hoy, su sucesor es ChatGPT: una IA que millones emplean para resolver dudas médicas sin detenerse a pensar en los riesgos.


El “Dr. ChatGPT” tiene limitaciones. Puede acertar en algunos casos simples, pero también cometer errores graves en otros. En temas de salud, una equivocación puede tener consecuencias serias. Se conoció el caso de un paciente que confió en la IA y pospuso su atención tras sufrir un accidente cerebrovascular, poniendo en riesgo su vida.

¿Puede la IA reemplazar al médico? La respuesta es no, y así lo confirma Mike Hoey, fundador de Source Meridian. “La inteligencia artificial puede apoyar a los profesionales de la salud y optimizar procesos, además de reducir costos, pero también conlleva un riesgo importante de desinformación”, advierte. La IA puede ser una gran aliada, pero no un reemplazo del criterio médico.

OpenAI defiende la posición de las consultas médicas

Uno de los usos más comunes de ChatGPT es solicitar consejos sobre dolencias o síntomas. Aunque OpenAI y varios expertos advierten que no debería emplearse para consultas médicas, la mayoría de los usuarios ignora esta recomendación.

Durante la presentación de su nueva IA, OpenAI calificó a GPT-5 como su modelo más inteligente, rápido y útil hasta la fecha. Los ingenieros mejoraron su rendimiento en tres de los usos más comunes, incluyendo la salud. Sam Altman afirmó que hablar con ChatGPT sería como conversar con un doctor experto en cualquier área.

Según una publicación en su blog oficial, GPT-5 es el modelo más avanzado para atender consultas relacionadas con la salud. Puede actuar como un compañero de pensamiento activo, formular interrogantes y adaptarse al usuario. Además, ofrece respuestas más confiables ante temas complejos, ajustándose al contexto de cada conversación.

En términos de rendimiento, el sistema obtiene las puntuaciones más altas en HealthBench, un benchmark que evalúa la precisión de los modelos en materia médica. Este estándar incluye más de 5.000 conversaciones revisadas por profesionales. GPT-5 destaca por su capacidad para clasificar emergencias, recomendar atención y adaptar su lenguaje cuando detecta que el usuario es un especialista.

Te puede interesar: ¿Qué empleos sobrevivirán a la inteligencia artificial en Colombia?

Los riesgos de usarlo como asistente médico

OpenAI aclara que GPT-5 no sustituye la consulta médica. “Piénselo como un socio que lo ayuda a comprender resultados, formular preguntas y sopesar opciones”, indica la empresa.

Durante una demostración, Sam Altman conversó con una paciente que había utilizado ChatGPT para entender un diagnóstico de cáncer. Ella explicó que el verdadero valor de la IA no fue la rapidez, sino el acompañamiento, pues le permitió comprender mejor su tratamiento y preparar preguntas más útiles para su médico.

Pese a los avances, la inteligencia artificial suele mostrarse al público destacando solo sus logros. Los chats conversacionales pueden ofrecer respuestas convincentes, pero carecen del razonamiento humano que requiere la práctica médica.

Además, ChatGPT tiende a extenderse en sus respuestas, proyectando una inteligencia mayor de la que realmente posee. No es una inteligencia artificial general y, como advierten algunos críticos, “es como poner a un mono frente a un teclado”. Aunque no se necesita una IA general para que sea útil, el riesgo está en atribuirle capacidades que aún no tiene.

 

Los problemas éticos

En el ejercicio médico, los diagnósticos del “Dr. ChatGPT” deben tomarse con cautela. Uno de los mayores riesgos son los sesgos, ya que las IA aprenden de los datos con los que fueron entrenadas y, si estos presentan prejuicios, tienden a reproducirlos.

Los profesionales del sector ya cuentan con herramientas que ayudan a reducir ese riesgo. “Mejorar el acceso a plataformas de apoyo para la toma de decisiones clínicas en español fortalece la práctica médica y disminuye los sesgos”, explica Manuela Gutiérrez, líder de Operaciones en 360 Health Data.

El dilema central es la responsabilidad. ¿Quién responde cuando la IA se equivoca? Un error en una recomendación de viaje puede ser solo un contratiempo, pero en un diagnóstico puede convertirse en una tragedia.

Por ello, los expertos coinciden en que lo ideal es combinar la IA con el criterio humano. Bien empleada, la inteligencia artificial es una herramienta poderosa, capaz de resumir, traducir o generar información médica con precisión; sin embargo, aún requiere supervisión y pensamiento crítico.

Algunos estudios advierten sobre un posible círculo vicioso. El uso excesivo de la IA podría debilitar nuestra capacidad de análisis, por lo que es fundamental aprender a interpretar lo que nos dice sin perder autonomía ni juicio propio.

En medicina, esa autonomía tiene un nombre: criterio clínico. Aunque la inmediatez y disponibilidad de ChatGPT resulten tentadoras, el juicio del especialista humano sigue siendo, al menos por ahora, insustituible.

Imagen: Edicón ENTER / Unsplash – Valeria Nikitina

Stiven Cartagena

Stiven Cartagena

Stiven Cartagena es periodista especializado en cubrir temas de tecnología y startups. Es el actual editor de GeekTime en Español y contribuye a medios como El Nacional, Contxto, y otros. Stiven también sirve como curador para Global Shapers del Foro Económico Mundial.

View all posts

Archivos