Anthropic analizó un millón de conversaciones que sus usuarios mantuvieron con Claude, su asistente de inteligencia artificial, y descubrió que la mayoría de las personas recurrían a él para pedir orientación sobre cómo enfrentar su vida cotidiana. Dentro de ese grupo, unas 38,000 conversaciones estaban relacionadas con consultas médicas, lo que representa el 27% del total.
El dato que más llama la atención es que algunos usuarios le confesaron a Claude que usaban la inteligencia artificial “porque no podían acceder o pagar un profesional médico”. Según el reporte, esa fue la respuesta directa de las personas dentro del chat.
La inteligencia artificial para consultas médicas
Aunque el uso principal de la IA generativa suele asociarse con la productividad, especialmente entre desarrolladores, el informe de Anthropic revela la otra cara de la moneda: esa que no aparece en los informes financieros trimestrales.
Una parte significativa del uso masivo de Claude responde a una necesidad mucho más básica y, a la vez, más grave. Muchas personas están utilizando la IA para preguntar sobre interpretación de análisis clínicos, manejo de enfermedades crónicas, lesiones, síntomas respiratorios, o incluso para calcular calorías y macros para mejorar su composición corporal.
Además, en el apartado de escenarios de alto riesgo, Anthropic enumera cuatro ejemplos concretos. Vías migratorias, instrucciones para el cuidado de bebés, dosis de medicamentos y deudas con tarjetas de crédito.
Para mediados de 2026, se estima que más de 1,000 millones de personas en el mundo usarán herramientas de inteligencia artificial. Esto lo que confirma es una adopción masiva tras el auge de la IA generativa.
La necesidad de curar la información
El mismo informe revela que Claude no fue diseñado para consultas médicas. En estos casos, el modelo reconoce sus limitaciones y recomienda consultar a un humano.
El problema es que sugerir una consulta humana no soluciona nada cuando el usuario ya ha explicado en el mismo chat que no tiene los recursos para pagarla. Los investigadores anuncian que el próximo paso será construir evaluaciones específicas para estos dominios de alto riesgo.
Esta situación coloca a las grandes empresas de inteligencia artificial como Anthropic, OpenAI, Google y Meta en una posición que la regulación aún no ha comprendido del todo.
Compañías como 360 Health Data apuestan por soluciones alternativas. Esta empresa colombiana está creando un repositorio de información médica curado por expertos en salud. Manuela Gutiérrez, directora del proyecto y líder de operaciones, explica que la idea es “crear un ecosistema de conocimiento médico y de colaboración pensado para fortalecer la comunidad y facilitar el intercambio de saberes”.
El objetivo es darles a los médicos acceso gratuito a información médica en español, algo que suele ser muy costoso. Por eso están construyendo una comunidad médica que quieren extender por toda Latinoamérica para compartir conocimiento.
Recientemente lanzaron una plataforma bajo el nombre de Coralia Health. No solo ofrece conocimiento médico, sino también información sobre medicamentos. Incluye una inteligencia artificial que funciona como una especie de colega médico al que se le pueden hacer preguntas. Es un asistente virtual alimentado exclusivamente con información médica verificada.
La directiva señala que la iniciativa tiene un fuerte respaldo, ya que cuenta con el apoyo de Source Meridian, uno de los socios clave de la compañía, especializado en software clínico. Todo en Coralia Health está basado en IA, y esa IA se nutre únicamente de conocimiento médico validado.
La discusión sobre la inteligencia artificial en medicina
La pregunta ya no es si los chatbots deberían dar consejos médicos, porque ya los están dando. La cuestión ahora es bajo qué condiciones, con qué garantías de precisión y con qué transparencia sobre los límites del modelo. Anthropic publicó los datos.
Ahora, le toca a la Food and Drug Administration (la agencia que aprueba medicamentos en Estados Unidos), a la European Commission y a las autoridades sanitarias regionales decidir si se toman esto en serio o si seguirán tratando estas conversaciones como simple ruido estadístico.
Imagen: Unsplash / Planet Volumes