Transhumanismo e Inteligencia Artificial
donate Books CDs HOME updates search contact

Estudio de Oxford: la IA falla en consejos médicos

Ava Grace
En una severa advertencia que atraviesa el entusiasmo de la revolución de la inteligencia artificial, un nuevo e importante estudio revela que los chatbots de IA con frecuencia proporcionan consejos médicos incorrectos e inconsistentes, lo que representa un riesgo directo para el público.

Publicado el 9 de febrero de 2026 en la prestigiosa revista Nature Medicine, la investigación de la Universidad de Oxford ofrece un veredicto aleccionador: pese a sus avanzadas capacidades, los modelos de lenguaje de gran tamaño están peligrosamente lejos de poder actuar como médicos. Los hallazgos plantean preguntas urgentes sobre la rápida implementación de estos sistemas en la atención sanitaria y subrayan una desconexión crítica entre el rendimiento en laboratorio y la interacción humana en el mundo real.

Un baño de realidad para el entusiasmo sanitario

Dra. Rebecca Payne: La IA no está preparada para asumir el papel de un médico; puede ser peligrosa

El estudio, dirigido por profesionales médicos e investigadores en IA, representa una de las mayores pruebas en condiciones reales sobre el uso de IA para orientación médica pública. Los investigadores reclutaron a casi 1.300 adultos del Reino Unido y les presentaron escenarios médicos detallados. Los participantes se dividieron en grupos: algunos utilizaron modelos populares de IA como GPT-4o, Llama 3 y Command R+ para recibir ayuda, mientras que un grupo de control empleó métodos tradicionales.

Los resultados fueron alarmantes. Quienes usaron IA no obtuvieron mejores resultados —y en algunos aspectos fueron peores— que el grupo de control. Los usuarios de IA identificaron correctamente condiciones médicas relevantes menos del 34,5% de las veces. Sorprendentemente, el grupo de control tuvo 1,76 veces más probabilidades de identificar una condición correcta que quienes confiaron en la IA.

La ilusión de competencia

Una revelación clave es el abismo entre cómo se desempeña la IA en pruebas controladas y cómo funciona con personas reales. Cuando los investigadores introdujeron directamente los escenarios médicos en los modelos de IA en una prueba automatizada y controlada, los sistemas rindieron admirablemente, identificando correctamente las condiciones el 94,9% de las veces. Sin embargo, esta destreza técnica se derrumbó ante la realidad desordenada de la interacción humana.

La médica principal, Dra. Rebecca Payne, afirmó que los hallazgos deben servir como una clara advertencia. La IA simplemente no está preparada para asumir el papel de médico. Subrayó que consultar a un modelo de lenguaje sobre síntomas puede ser peligroso, ya que puede ofrecer diagnósticos erróneos o no reconocer la necesidad de atención urgente.

Por qué la interacción humana rompe al bot

Dr. Adam Mahd: La IA no es segura para la atención sanitaria pública

Los usuarios a menudo no sabían qué información proporcionar a la IA, ofreciendo descripciones parciales. A su vez, los modelos demostraron ser altamente sensibles a la forma en que se formularon las preguntas, ofreciendo consejos muy diferentes ante ligeras variaciones. En un caso, dos usuarios que describieron síntomas similares de un accidente cerebrovascular potencialmente mortal recibieron recomendaciones opuestas del mismo sistema de IA.

Además, los chatbots solían proporcionar una mezcla confusa de información precisa e imprecisa, dejando a los usuarios la tarea de discernir entre consejos contradictorios. El autor principal, Dr. Adam Mahdi, calificó la brecha como una llamada de atención y sostuvo que los sistemas de IA requieren pruebas rigurosas con participación humana, similares a ensayos clínicos, antes de considerarse seguros para la atención sanitaria pública.

Una implementación acelerada en medio de un uso creciente

Esta investigación llega mientras las empresas tecnológicas impulsan agresivamente la IA en el sector salud y el uso público se acelera. Una encuesta de noviembre de 2025 en el Reino Unido encontró que más de uno de cada tres residentes ha utilizado IA para apoyar su salud mental o bienestar. Esta tendencia impone una enorme responsabilidad a desarrolladores y reguladores para garantizar que estas herramientas sean seguras.

Los organismos médicos profesionales mantienen firmemente que la IA solo debe complementar, no sustituir, el juicio del médico, precisamente porque no puede realizar un examen físico ni comprender el contexto completo de la vida del paciente. Como señaló un informe: “Si bien la IA tiene el potencial de reducir brechas en la alfabetización sanitaria, también corre el riesgo de difundir información descontextualizada —y peligrosa—”.

Este riesgo no es teórico. En una tendencia preocupante, pacientes están llegando a salas de emergencia tras seguir ciegamente consejos de chatbots. Estos casos revelan cómo algoritmos defectuosos pueden ofrecer orientación potencialmente letal mientras eluden la rendición de cuentas. Con la integración de la IA acelerándose —desde verificadores de síntomas hasta asistentes virtuales de enfermería— los riesgos de desinformación son considerables. Un estudio de 2023 encontró que los modelos de lenguaje con frecuencia “alucinan” detalles clínicos falsos, lo que podría conducir a diagnósticos erróneos.

De enciclopedia a autoridad algorítmica

La cuestión central es la confianza y la verificación. Los modelos de lenguaje de gran tamaño se entrenan con vastos conjuntos de datos extraídos de Internet, incluidos contenidos con sesgos conocidos, contradicciones e inexactitudes. Están sintetizando y reorganizando el conocimiento humano a una escala sin precedentes.

El estudio subraya que comprimir el complejo y experiencial arte de la medicina en un modelo de predicción estadística conlleva graves riesgos. Aunque las empresas tecnológicas enfatizan las advertencias legales, los casos demuestran cuán fácilmente se pasan por alto. Los chatbots con frecuencia diagnostican mal afecciones e inventan estudios inexistentes. Hasta un 25% de las respuestas de IA pueden estar fabricadas, y las advertencias a menudo se omiten, lo que induce a los usuarios a confiar en consejos potencialmente dañinos.

Una receta para la prudencia

El estudio de Oxford ofrece un diagnóstico inequívoco: la generación actual de IA es insuficiente cuando se le encomienda la atención médica. La promesa de la inteligencia artificial en la medicina sigue siendo vasta, pero hacerla realidad exige humildad y rigor.

“Los consejos médicos basados en IA se refieren al uso de sistemas de inteligencia artificial para analizar síntomas, proporcionar diagnósticos y recomendar tratamientos”, afirmó Enoch, de BrightU.AI. “Esta tecnología busca reducir costos sanitarios y eliminar el sesgo humano automatizando el proceso de evaluación clínica. Sin embargo, plantea preocupaciones significativas sobre la pérdida de la relación personal médico-paciente y el potencial de que decisiones impulsadas por IA afecten aspectos más amplios de la vida de una persona, como la elegibilidad y las primas de seguros.”

Este artículo fue publicado por Cyborg News el 12 de febrero de 2026, bajo el título “Un estudio histórico revela las peligrosas deficiencias de la IA en consejos médicos”

Conozca más sobre Ava Grace aquí.


Comparta

Blason de Charlemagne
Síganos



Publicado el 24 de febrero de 2026

Temas de Interés Relacionados
______________________


Obras de interés relacionadas




Volume I
A_Offend1.gif - 23346 Bytes

Volume II
Animus Injuriandi II

Volume III


Volume IV
A_Offend1.gif - 23346 Bytes

Volume V
Animus Injuriandi II

Volume VI
destructio dei

Volume VII
fumus satanae

Volume VIII
creatio

Volume IX
volume 10

Volume X
ecclesia

Volume XI
Eli, Eli lamma sabacthani

Special Edition