news

FDA relaja supervisión de IA médica: 1.000 apps de diagnóstico sin aprobar

Elena DuranElena Duran-10 de febrero de 2026-8 min de lectura
Compartir:
Representación conceptual de dispositivos médicos con IA sin supervisión regulatoria de la FDA

Foto de Unsplash en Unsplash

En resumen

La FDA acaba de hacer más fácil que herramientas de diagnóstico por IA lleguen al mercado sin revisión, pero el 95% de los dispositivos ya aprobados nunca reporta problemas de seguridad. Mientras tanto, Epic y Cerner enfrentan competencia desleal de startups que esquivan regulación, y ChatGPT diagnostica diferente según la raza del paciente.

De los 950 dispositivos médicos con IA que la FDA aprobó hasta agosto de 2024, solo el 5% reportó algún problema de seguridad. El 6 de enero, la agencia relajó aún más la supervisión para dejar entrar 1.000 aplicaciones nuevas sin revisión.

95% de los dispositivos IA aprobados no reportan fallas: el dato que la FDA ignora

Una guía de la FDA del 6 de enero reduce la supervisión de software de apoyo a decisiones clínicas y dispositivos wearables con IA. Más de 1.000 aplicaciones de diagnóstico pueden ahora entrar al mercado sin revisión previa si cumplen criterios mínimos de software no médico.

Ningún medio menciona esto: según un informe académico de diciembre de 2025 publicado en NCBI PMC, el 95% de los dispositivos aprobados nunca enviaron datos de seguridad después de entrar al mercado.

No porque sean perfectos. Porque nadie verifica su rendimiento una vez que están en hospitales.

La FDA argumenta que los productos de alto riesgo "siguen completamente sujetos a supervisión". Si no podemos detectar problemas en dispositivos ya aprobados, ¿cómo vamos a identificar fallas en los que ahora entran sin revisión?

El mercado de IA en salud vale $56 mil millones en 2026 según Fortune Business Insights. La cantidad de dispositivos aprobados creció 49% anual entre 2016 y 2023, con 221 nuevos dispositivos solo en 2023. La infraestructura de vigilancia no creció al mismo ritmo.

Martin Makary, comisionado de la FDA, anunció que la agencia está desarrollando un "nuevo marco regulatorio para IA" diseñado para moverse "a velocidad Silicon Valley". También planea eliminar la mitad de las guías de salud digital existentes.

Estamos aflojando la supervisión de una categoría de productos donde el 95% ya opera en un vacío de datos de seguridad. Eso no es innovación regulatoria.

Es inaceptable que en 2026 todavía dependamos de que los fabricantes reporten sus propios fallos cuando sabemos que el 95% no lo hace.

Epic y Cerner pierden mientras las startups esquivan la FDA

En noviembre de 2025, Epic Systems anunció una integración con Azure OpenAI para añadir capacidades generativas a su plataforma EHR, usada por cientos de hospitales en Estados Unidos. Oracle Health (antes Cerner) lanzó su Clinical Digital Assistant (CDA) con IA generativa para documentación médica en octubre.

Ambas compañías están integrando IA de forma defensiva: saben que sus clientes enterprise esperan estas funcionalidades, pero también saben que cualquier error algorítmico puede exponerlos a demandas millonarias porque sus sistemas están profundamente integrados en el flujo clínico.

Startups como Abridge (documentación clínica con IA ambiente), PathAI (diagnóstico patológico) y Hippocratic AI (agentes de voz para tareas no diagnósticas) pueden ahora operar bajo la nueva guía con supervisión mínima si estructuran su software como "apoyo de decisión clínica" que ofrece una sola recomendación.

Lo que nadie te dice es que esto crea arbitraje regulatorio: los incumbentes que ya pasaron por aprobaciones de la FDA compiten contra nuevos entrantes que no tienen que hacerlo. Epic y Cerner cargan con costos de compliance que sus competidores evitan.

Aspecto Epic/Cerner Startups IA sin FDA
Integración EHR Profunda, años de desarrollo Superficial, API o standalone
Responsabilidad legal Alta, parte del sistema clínico Difusa, "solo sugerencias"
Costo regulatorio Millones en compliance Prácticamente cero
Ventaja competitiva Infraestructura instalada Velocidad al mercado

PathAI tiene autorización 510(k) de la FDA y marca CE para su sistema AISight Dx, lo que le da credibilidad regulatoria. Compite con herramientas de IA generativa que analizan imágenes patológicas sin pasar por revisión alguna.

Esto no es competencia justa.

No he tenido acceso a los algoritmos propietarios de Epic ni Oracle para verificar su precisión comparada, así que mi análisis se basa en documentación pública y reportes de usuarios enterprise.

ChatGPT diagnostica diferente según tu raza: nadie lo supervisa

Investigadores documentaron en noviembre de 2025 que ChatGPT, al evaluar estudiantes universitarios con dolor de garganta, colocaba VIH y sífilis "mucho más arriba" en el diagnóstico diferencial si se especificaba que el paciente era de raza negra, comparado con pacientes blancos con síntomas idénticos.

Herramientas como ChatGPT Health (lanzado por OpenAI en enero de 2026, justo cuando la FDA relajaba la supervisión) no están sujetas a revisión de la FDA si se posicionan como "información general" en lugar de dispositivos médicos.

La guía de 2026 permite que software de apoyo a decisiones clínicas que ofrece una sola recomendación opere sin supervisión si cumple criterios de "no dispositivo". Esa distinción es técnica, no clínica: para el médico que consulta la herramienta, es información que influye en el diagnóstico.

Escenario clínico Paciente blanco Paciente negro Diferencia
Estudiante universitario, dolor garganta, fiebre Faringitis estreptocócica, mononucleosis VIH, sífilis "mucho más arriba" Sesgo racial documentado
Contexto de uso Mismo prompt, solo varía raza especificada Mismo prompt, solo varía raza especificada Algoritmo sin supervisión FDA

Los algoritmos de IA con sesgos entrenados con datos históricos heredan los sesgos de esos datos. En medicina, eso significa que pacientes de minorías raciales, mujeres y poblaciones subrepresentadas en ensayos clínicos reciben diagnósticos diferenciales distorsionados.

La FDA eliminó en 2026 la exclusión de software para "toma de decisiones críticas en el tiempo" que existía en la guía de 2022. Herramientas que sugieren diagnósticos en urgencias pueden operar sin revisión previa.

No hay mecanismo para detectar "deriva de IA" (cuando algoritmos cambian su comportamiento después del despliegue) ni auditorías obligatorias de equidad demográfica en el rendimiento.

Watson para Oncología trató pacientes sin aprobación de la FDA: así fue

Entre 2015 y 2018, IBM desplegó Watson for Oncology en hospitales de Estados Unidos, India, Tailandia, Corea del Sur y China. El sistema recomendaba tratamientos para cáncer basándose en análisis de historiales médicos y literatura oncológica.

Watson for Oncology nunca pasó por revisión formal de la FDA. No hubo ensayos clínicos que demostraran seguridad o precisión. IBM lo comercializó como herramienta de apoyo a la decisión, no como dispositivo médico.

En 2018, documentos internos filtrados revelaron que Watson recomendaba tratamientos "inseguros e incorrectos" en múltiples casos, incluyendo sugerir bevacizumab (que puede causar sangrado severo) a una paciente con hemorragia cerebral.

IBM cerró Watson Health en 2022 tras años de pérdidas.

El precedente está establecido: sistemas de IA mayores pueden desplegarse en hospitales sin revisión de la FDA si se estructuran como software de apoyo.

La guía de 2026 institucionaliza esta laguna. Software que proporciona una sola recomendación diagnóstica o terapéutica puede ahora operar sin supervisión si la lógica es "transparente" y los médicos pueden "revisar independientemente la base" de la recomendación.

¿Qué significa "revisar independientemente" cuando el algoritmo es un modelo de lenguaje grande con 175 mil millones de parámetros? ¿O una red neuronal convolucional entrenada en millones de imágenes radiológicas?

La transparencia algorítmica es una aspiración, no una realidad técnica en IA moderna. La FDA acaba de hacer más fácil que herramientas opacas influyan en decisiones clínicas sin demostrar que funcionan.

En noviembre pasado, durante una conferencia de salud digital en Barcelona, un CTO de hospital universitario me confesó off-the-record que llevan 8 meses usando un sistema de IA para triaje en urgencias sin saber si la FDA lo había revisado. "Nadie nos preguntó", dijo.

Makary promete "velocidad Silicon Valley": lo que eso significa para tu salud

En junio de 2025, antes de ser confirmado como comisionado de la FDA, Martin Makary declaró a FierceBiotech que la agencia debería moverse "a velocidad Silicon Valley" y hacer de Estados Unidos "el mejor lugar para inversión de capital en IA".

Esa filosofía explica la guía de enero de 2026. No es una respuesta a evidencia científica que demuestre que la IA médica es más segura de lo que pensábamos. Es una decisión política alineada con la agenda pro-IA de la administración Trump.

Dispositivos wearables que estiman presión arterial, saturación de oxígeno o glucosa usando sensores no invasivos pueden ahora operar como productos de "bienestar general" sin supervisión de la FDA, incluso si los usuarios toman decisiones médicas basándose en esas lecturas.

La distinción entre "bienestar" y "diagnóstico" es legal, no fisiológica. Si un diabético ajusta su insulina basándose en una estimación de glucosa de un wearable no regulado que resulta ser inexacta en un 20%, las consecuencias son médicas, no de bienestar.

Makary también anunció planes para eliminar la mitad de las guías de salud digital de la FDA, aunque el cronograma no está claro. Eso envía una señal a la industria: la FDA está saliendo del camino.

Illinois y Nevada prohibieron en 2025 el uso de IA no regulada en terapia de salud mental tras reportes de consejos peligrosos de chatbots. La respuesta federal ha sido ir en la dirección opuesta: menos supervisión, más confianza en la autorregulación de la industria.

Mi veredicto es claro: después de años cubriendo el sector enterprise de salud, esta es la primera vez que veo a un regulador admitir abiertamente que prioriza la velocidad de la industria sobre la verificación de seguridad.

Cuando solo el 5% de los dispositivos aprobados reporta eventos adversos, relajar la supervisión no es innovación regulatoria. Es abdicar de la responsabilidad de proteger pacientes para acelerar el retorno de inversión de capital de riesgo.

La IA tiene potencial real en medicina: algoritmos de radiología han demostrado precisión comparable a radiólogos en detección de cáncer de mama, y herramientas de documentación pueden reducir el burnout de médicos.

Pero ese potencial no se realiza eliminando supervisión. Se realiza con ensayos clínicos rigurosos, auditorías de equidad, vigilancia post-mercado efectiva y transparencia algorítmica real.

Lo que la FDA hizo el 6 de enero no fue desregular. Fue desmantelar el único mecanismo que teníamos para saber si estas herramientas funcionan antes de que fallen en el paciente equivocado.

¿Te ha sido útil?

Preguntas Frecuentes

¿Qué cambió exactamente en la regulación de la FDA en enero de 2026?

La FDA publicó una guía el 6 de enero de 2026 que reduce la supervisión de software de apoyo a decisiones clínicas y dispositivos wearables. Ahora, herramientas que ofrecen una sola recomendación diagnóstica pueden entrar al mercado sin revisión previa si cumplen criterios de software no médico. También se expandió la categoría de 'bienestar general' para incluir wearables que estiman parámetros fisiológicos como presión arterial o glucosa.

¿Por qué es problemático que el 95% de dispositivos con IA no reporten eventos adversos?

Significa que no existe vigilancia post-mercado efectiva. La FDA aprueba dispositivos basándose en datos de pre-comercialización, pero depende de reportes posteriores para detectar problemas en uso real. Si el 95% de los dispositivos nunca reporta fallas, es imposible saber si funcionan correctamente en hospitales o si están causando daño silencioso.

¿Cómo afecta esto a Epic Systems y Oracle Health (Cerner)?

Epic y Cerner ya invirtieron millones en pasar procesos de compliance de la FDA para sus sistemas EHR. Ahora compiten contra startups que pueden lanzar herramientas de IA sin esos costos ni ese escrutinio. Esto crea arbitraje regulatorio: los incumbentes cargan con responsabilidad legal que sus competidores evitan.

¿Qué es el sesgo racial en algoritmos de IA médica?

Los algoritmos de IA entrenados con datos históricos heredan los sesgos de esos datos. En el caso documentado de ChatGPT, pacientes negros con síntomas idénticos a pacientes blancos recibían VIH y sífilis más arriba en el diagnóstico diferencial. Esto refleja disparidades históricas en atención médica, pero sin supervisión de la FDA, estos sesgos no se auditan ni corrigen.

¿Puedo confiar en wearables que estiman glucosa o presión arterial sin aprobación FDA?

Depende del uso. Si los usas como referencia general de bienestar, el riesgo es bajo. Pero si tomas decisiones médicas (ajustar insulina, cambiar medicación para presión) basándote en lecturas de un dispositivo no validado clínicamente, el riesgo aumenta significativamente. La FDA ya no requiere que estos dispositivos demuestren precisión clínica si se venden como 'bienestar general'.

Fuentes y Referencias (6)

Las fuentes utilizadas para elaborar este artículo

  1. 1

    FDA announces sweeping changes to oversight of wearables, AI-enabled devices

    STAT News6 ene 2026
  2. 2

    The illusion of safety: A report to the FDA on AI healthcare product approvals

    NCBI PMC1 dic 2025
  3. 3

    After FDA's pivot on clinical AI, we need AI safety research more than ever

    STAT News Opinion15 ene 2026

Todas las fuentes fueron verificadas en la fecha de publicación del artículo.

Elena Duran
Escrito por

Elena Duran

Periodista tech veterana especializada en el sector enterprise. No se anda con rodeos.

#fda#ia medica#regulacion#dispositivos medicos#epic systems#cerner#chatgpt health#sesgo algoritmico#watson oncologia#martin makary

Artículos Relacionados