Transhumanismo e Inteligencia Artificial
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Estudio de Oxford: la IA falla en consejos médicos
- Un importante estudio de Oxford encontró que las personas que usaron IA para orientación médica identificaron correctamente las condiciones menos del 34,5% de las veces, sin superar —e incluso a veces empeorando— los métodos tradicionales.
- Si bien los modelos de IA identificaron correctamente las afecciones el 94,9% de las veces en pruebas automatizadas, su rendimiento colapsó cuando fueron utilizados por personas reales, que a menudo proporcionan información incompleta y reciben consejos contradictorios.
- Los modelos son altamente sensibles a cómo se formulan las preguntas, pueden ofrecer diagnósticos erróneos y con frecuencia “alucinan” detalles clínicos o estudios falsos, con hasta un 25% de respuestas fabricadas.
- Mientras las empresas tecnológicas impulsan la IA en la atención sanitaria y más de un tercio de los residentes del Reino Unido informan usar IA para el bienestar, estas herramientas se están implementando sin las rigurosas pruebas con participación humana necesarias para garantizar que sean seguras para el público.
- El estudio concluye que la IA actual no está preparada para actuar como médico, ya que no puede realizar exámenes físicos ni comprender el contexto completo del paciente. Verificar cualquier consejo de salud generado por IA con un profesional autorizado es esencial para evitar daños graves.
Publicado el 9 de febrero de 2026 en la prestigiosa revista Nature Medicine, la investigación de la Universidad de Oxford ofrece un veredicto aleccionador: pese a sus avanzadas capacidades, los modelos de lenguaje de gran tamaño están peligrosamente lejos de poder actuar como médicos. Los hallazgos plantean preguntas urgentes sobre la rápida implementación de estos sistemas en la atención sanitaria y subrayan una desconexión crítica entre el rendimiento en laboratorio y la interacción humana en el mundo real.
Un baño de realidad para el entusiasmo sanitario
Dra. Rebecca Payne: La IA no está preparada para asumir el papel de un médico; puede ser peligrosa
Los resultados fueron alarmantes. Quienes usaron IA no obtuvieron mejores resultados —y en algunos aspectos fueron peores— que el grupo de control. Los usuarios de IA identificaron correctamente condiciones médicas relevantes menos del 34,5% de las veces. Sorprendentemente, el grupo de control tuvo 1,76 veces más probabilidades de identificar una condición correcta que quienes confiaron en la IA.
La ilusión de competencia
Una revelación clave es el abismo entre cómo se desempeña la IA en pruebas controladas y cómo funciona con personas reales. Cuando los investigadores introdujeron directamente los escenarios médicos en los modelos de IA en una prueba automatizada y controlada, los sistemas rindieron admirablemente, identificando correctamente las condiciones el 94,9% de las veces. Sin embargo, esta destreza técnica se derrumbó ante la realidad desordenada de la interacción humana.
La médica principal, Dra. Rebecca Payne, afirmó que los hallazgos deben servir como una clara advertencia. La IA simplemente no está preparada para asumir el papel de médico. Subrayó que consultar a un modelo de lenguaje sobre síntomas puede ser peligroso, ya que puede ofrecer diagnósticos erróneos o no reconocer la necesidad de atención urgente.
Por qué la interacción humana rompe al bot
Dr. Adam Mahd: La IA no es segura para la atención sanitaria pública
Además, los chatbots solían proporcionar una mezcla confusa de información precisa e imprecisa, dejando a los usuarios la tarea de discernir entre consejos contradictorios. El autor principal, Dr. Adam Mahdi, calificó la brecha como una llamada de atención y sostuvo que los sistemas de IA requieren pruebas rigurosas con participación humana, similares a ensayos clínicos, antes de considerarse seguros para la atención sanitaria pública.
Una implementación acelerada en medio de un uso creciente
Esta investigación llega mientras las empresas tecnológicas impulsan agresivamente la IA en el sector salud y el uso público se acelera. Una encuesta de noviembre de 2025 en el Reino Unido encontró que más de uno de cada tres residentes ha utilizado IA para apoyar su salud mental o bienestar. Esta tendencia impone una enorme responsabilidad a desarrolladores y reguladores para garantizar que estas herramientas sean seguras.
Los organismos médicos profesionales mantienen firmemente que la IA solo debe complementar, no sustituir, el juicio del médico, precisamente porque no puede realizar un examen físico ni comprender el contexto completo de la vida del paciente. Como señaló un informe: “Si bien la IA tiene el potencial de reducir brechas en la alfabetización sanitaria, también corre el riesgo de difundir información descontextualizada —y peligrosa—”.
Este riesgo no es teórico. En una tendencia preocupante, pacientes están llegando a salas de emergencia tras seguir ciegamente consejos de chatbots. Estos casos revelan cómo algoritmos defectuosos pueden ofrecer orientación potencialmente letal mientras eluden la rendición de cuentas. Con la integración de la IA acelerándose —desde verificadores de síntomas hasta asistentes virtuales de enfermería— los riesgos de desinformación son considerables. Un estudio de 2023 encontró que los modelos de lenguaje con frecuencia “alucinan” detalles clínicos falsos, lo que podría conducir a diagnósticos erróneos.
De enciclopedia a autoridad algorítmica
La cuestión central es la confianza y la verificación. Los modelos de lenguaje de gran tamaño se entrenan con vastos conjuntos de datos extraídos de Internet, incluidos contenidos con sesgos conocidos, contradicciones e inexactitudes. Están sintetizando y reorganizando el conocimiento humano a una escala sin precedentes.
El estudio subraya que comprimir el complejo y experiencial arte de la medicina en un modelo de predicción estadística conlleva graves riesgos. Aunque las empresas tecnológicas enfatizan las advertencias legales, los casos demuestran cuán fácilmente se pasan por alto. Los chatbots con frecuencia diagnostican mal afecciones e inventan estudios inexistentes. Hasta un 25% de las respuestas de IA pueden estar fabricadas, y las advertencias a menudo se omiten, lo que induce a los usuarios a confiar en consejos potencialmente dañinos.
Una receta para la prudencia
El estudio de Oxford ofrece un diagnóstico inequívoco: la generación actual de IA es insuficiente cuando se le encomienda la atención médica. La promesa de la inteligencia artificial en la medicina sigue siendo vasta, pero hacerla realidad exige humildad y rigor.
“Los consejos médicos basados en IA se refieren al uso de sistemas de inteligencia artificial para analizar síntomas, proporcionar diagnósticos y recomendar tratamientos”, afirmó Enoch, de BrightU.AI. “Esta tecnología busca reducir costos sanitarios y eliminar el sesgo humano automatizando el proceso de evaluación clínica. Sin embargo, plantea preocupaciones significativas sobre la pérdida de la relación personal médico-paciente y el potencial de que decisiones impulsadas por IA afecten aspectos más amplios de la vida de una persona, como la elegibilidad y las primas de seguros.”
Conozca más sobre Ava Grace aquí.
Publicado el 24 de febrero de 2026
______________________
______________________
![]() Volume I |
![]() Volume II |
![]() Volume III |
![]() Volume IV |
![]() Volume V |
![]() Volume VI |
![]() Volume VII |
![]() Volume VIII |
![]() Volume IX |
![]() Volume X |
![]() Volume XI |
![]() Special Edition |





















