La Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) ha dado un paso importante en su transformación digital al implementar herramientas de IA agéntica para todos los empleados de la agencia. Anunciado el 1 de diciembre de 2025, este despliegue tiene como objetivo apoyar a revisores, científicos e investigadores en tareas regulatorias y administrativas complejas y de múltiples pasos, preservando al mismo tiempo el control humano sobre todas las decisiones. Esta medida sigue a varios años de experimentación con IA y modelos de lenguaje grande (LLM) dentro de la agencia, culminando en la exitosa adopción interna del asistente generativo de IA conocido como Elsa.
Al poner estas nuevas capacidades a disposición de todos los centros y oficinas, la FDA está señalando que la IA ya no es un piloto periférico, sino un habilitador central de su misión de salud pública. Sin embargo, las herramientas siguen siendo estrictamente opcionales y están reguladas por un conjunto creciente de salvaguardias, incluyendo la supervisión humana en el proceso, infraestructura segura en la nube y políticas que impiden el entrenamiento con presentaciones confidenciales. En conjunto, estas medidas ilustran cómo un regulador importante está tratando de aprovechar la eficiencia de la IA agéntica sin comprometer sus estándares científicos ni sus obligaciones de protección de datos.
Comprendiendo qué significa “IA agéntica” en el contexto de la FDA
En su anuncio, la FDA describe la IA agéntica como una clase de sistemas avanzados capaces de planificar, razonar y ejecutar acciones de varios pasos hacia un objetivo definido. A diferencia de los chatbots de una sola interacción, estos sistemas pueden encadenar tareas como buscar en bases de datos, generar resúmenes, redactar correos electrónicos y rastrear flujos de trabajo bajo una lógica unificada. Están diseñados para operar como asistentes orientados a objetivos que orquestan múltiples modelos de IA subyacentes, en lugar de un solo algoritmo monolítico.
De manera crucial, la agencia enfatiza que la IA agéntica opera bajo directrices incorporadas, incluyendo la supervisión humana explícita en puntos clave de decisión. Esto significa que un flujo de trabajo de IA podría, por ejemplo, armar un paquete de informes para la revisión previa a la comercialización o señalar anomalías en los datos de seguridad post-comercialización, pero un revisor humano debe validar los resultados antes de que informen cualquier acción regulatoria. Este modelo se alinea con la postura más amplia de la FDA basada en el riesgo respecto a la IA en el desarrollo de productos médicos, que enfatiza la transparencia, la responsabilidad y la validación de herramientas algorítmicas.
Al enmarcar la IA agéntica como una tecnología de apoyo y no como un tomador de decisiones autónomo, la FDA busca equilibrar la innovación con las expectativas públicas de diligencia debida. Los informes externos sobre el despliegue subrayan este punto: los portavoces de la agencia han aclarado que las herramientas son exploratorias, no reemplazan el juicio humano y no pueden tomar ni finalizar decisiones regulatorias de forma independiente. Este matiz es fundamental para generar confianza tanto entre el personal de la FDA como en las industrias que regula la agencia.
De Elsa al despliegue en toda la agencia: cómo llegó la FDA hasta aquí
El lanzamiento de la IA agéntica se basa directamente en el despliegue anterior de Elsa por parte de la FDA, un asistente interno basado en LLM introducido en toda la agencia a mediados de 2025. Elsa fue desarrollado dentro de un entorno GovCloud de alta seguridad para ofrecer al personal una forma segura de consultar documentos internos, resumir expedientes extensos y redactar correspondencia técnica. Según la FDA, más del 70% de los empleados han utilizado Elsa, y los equipos de programas han iterado frecuentemente en su diseño para adaptarlo mejor a los flujos de trabajo reales.
La retroalimentación de esta primera ola de adopción de IA generativa ayudó a la agencia a comprender tanto los beneficios como los límites de los LLM en un contexto regulatorio. Los primeros usuarios se encontraron con problemas familiares, como alucinaciones, citas inconsistentes de fuentes y sensibilidad a la redacción de los prompts. En respuesta, los equipos de la FDA se centraron en salvaguardias como la recuperación sólida de fuentes internas autorizadas, casos de uso de alcance limitado y la revisión humana obligatoria de los resultados generados por IA. Estas lecciones sentaron las bases para una segunda generación de herramientas capaces de orquestar procesos más complejos y de múltiples pasos.
La IA agéntica, tal como se implementa ahora, no pretende reemplazar a Elsa, sino ampliar lo que las herramientas al estilo Elsa pueden hacer. En lugar de simplemente responder una pregunta o redactar un solo memorando, un sistema agéntico podría reunir datos de múltiples presentaciones, cotejarlos con documentos de orientación, generar una comparación estructurada y programar una reunión con las partes interesadas, todo bajo la supervisión de un revisor humano. Esta progresión de un chatbot sin memoria hacia “agentes” conscientes del flujo de trabajo es el núcleo del nuevo despliegue.
Casos de uso clave: de revisiones previas a la comercialización a inspecciones
La FDA ha destacado varios dominios concretos donde se espera que la IA agéntica aporte el mayor valor. Uno es la revisión previa a la comercialización de medicamentos, biológicos y dispositivos médicos. Estas revisiones implican grandes volúmenes de datos científicos, clínicos y de fabricación, junto con historias regulatorias complejas para los patrocinadores. La IA agéntica puede ayudar a los revisores organizando y resumiendo correspondencia previa, extrayendo parámetros clave de los informes de estudios y armando comparaciones lado a lado de productos o ensayos similares. Esto no cambia los estándares probatorios, pero puede reducir el trabajo manual asociado con la navegación de grandes expedientes digitales.
Otro conjunto de casos de uso se encuentra en la vigilancia post-comercialización y el cumplimiento. La monitorización de la seguridad post-comercialización requiere análisis continuo de informes de eventos adversos, evidencia del mundo real, literatura y hallazgos de inspección. Los sistemas agénticos pueden encargarse de escanear y estructurar periódicamente los datos entrantes, señalando patrones preocupantes para epidemiólogos humanos y oficiales de cumplimiento. De manera similar, los agentes de IA pueden ayudar a los equipos de inspección generando informes previos a la inspección, cruzando observaciones previas y proponiendo listas de verificación priorizadas adaptadas al historial y perfil de riesgo de una instalación.
La agencia también espera ganancias sustanciales en eficiencia interna para la gestión de reuniones y tareas administrativas rutinarias. Los agentes de IA pueden ayudar a coordinar calendarios entre grandes equipos de proyectos, preparar materiales de agenda basados en los documentos más recientes, rastrear tareas y redactar comunicaciones de seguimiento. Si bien estas funciones son menos visibles que las aplicaciones científicas, pueden ser críticas para una agencia que ha enfrentado escasez de personal y aumento de cargas de trabajo. El objetivo es permitir que el personal científico altamente capacitado se concentre más en la evaluación sustantiva y menos en la logística y el papeleo.
Seguridad, protección de datos y salvaguardias de confianza
Una preocupación central en cualquier despliegue de IA regulatoria es la protección de datos sensibles, incluidos secretos comerciales en presentaciones de productos y datos confidenciales a nivel de paciente en estudios clínicos. La FDA ha enfatizado repetidamente que sus sistemas de IA, incluidos Elsa y las nuevas herramientas agénticas, funcionan en un entorno GovCloud de alta seguridad con controles de acceso estrictos. Los modelos están configurados para no entrenarse con entradas de usuarios ni con datos enviados por la industria regulada, evitando así la filtración accidental de información propietaria en los pesos del modelo de uso general.
Además del aislamiento técnico, la agencia está construyendo salvaguardias basadas en procesos. Los resultados de las herramientas de IA deben ser revisados y validados por personal humano antes de ser incorporados en acciones oficiales como aprobaciones, cartas de advertencia o documentos de orientación. Esta validación humana es tanto un mecanismo de control de calidad como una salvaguardia legal, asegurando que la responsabilidad final recaiga en funcionarios capacitados cuyos nombres aparecen en las decisiones regulatorias. Para el personal, este marco aclara que la IA es una herramienta de la que son responsables de usar sabiamente, no una caja negra que los absuelve de responsabilidad.
Estas protecciones internas complementan el trabajo de política externa de la FDA sobre IA, como la guía preliminar sobre el uso de IA para apoyar decisiones regulatorias de medicamentos y biológicos y los principios existentes para las Buenas Prácticas de Aprendizaje Automático en el desarrollo de dispositivos médicos. Al alinear su experimentación interna con IA con las expectativas que impone a la industria, la agencia busca evitar un doble estándar y demostrar que los reguladores están dispuestos a someter sus propias herramientas al mismo nivel de escrutinio que las que revisan.
IA agéntica en la estrategia de IA más amplia de la FDA
El despliegue de la IA agéntica en toda la agencia no ocurre de forma aislada; es parte de un esfuerzo de varios años para integrar la IA tanto en los productos que la FDA evalúa como en los procesos que utiliza. En el ámbito de la política, la agencia ha publicado guías para aclarar cómo se pueden utilizar los modelos de IA y aprendizaje automático en presentaciones regulatorias, enfatizando la transparencia, la validación y un enfoque basado en el riesgo. Iniciativas específicas de los centros, como el Comité de Coordinación de Inteligencia Artificial de CBER, también están trabajando para estandarizar cómo los revisores evalúan tecnologías de IA/ML en biológicos y vacunas.
Al mismo tiempo, la FDA ha comenzado a calificar herramientas basadas en IA para aplicaciones científicas específicas. Un ejemplo reciente es la calificación de AIM-NASH, un sistema de IA que analiza imágenes de biopsias hepáticas para apoyar el desarrollo de medicamentos para la esteatohepatitis asociada a disfunción metabólica (MASH). Esta herramienta está diseñada para mejorar la consistencia y la velocidad en las evaluaciones patológicas de ensayos clínicos, con puntuaciones generadas por IA que alimentan, pero no reemplazan, la interpretación experta. Estos casos ilustran cómo la IA puede pasar de ser una tecnología experimental a un componente aceptado en la generación de evidencia en el desarrollo de medicamentos.
Al experimentar con IA internamente y al mismo tiempo establecer estándares para su uso externo, la FDA está creando un ciclo de retroalimentación: los reguladores que trabajan con IA agéntica en sus propios flujos de trabajo pueden estar mejor preparados para evaluar tecnologías similares propuestas por los patrocinadores. Por el contrario, el escrutinio aplicado a las herramientas de la industria ayuda a dar forma a las expectativas internas sobre documentación, validación y monitoreo. El despliegue de la IA agéntica en toda la agencia se sitúa así en la intersección de la modernización operativa y la evolución de la política regulatoria.
Oportunidades y riesgos para la salud pública y la industria
Si se implementa de manera efectiva, la IA agéntica podría tener efectos positivos significativos en la salud pública. Flujos de trabajo de revisión más rápidos y eficientes podrían acortar el tiempo de decisión para terapias seguras y efectivas, especialmente en áreas de rápida evolución como oncología, terapias génicas y enfermedades infecciosas. Una mejor vigilancia post-comercialización podría detectar señales de seguridad emergentes más temprano, permitiendo cambios de etiqueta más oportunos, medidas de mitigación de riesgos o retiros de productos cuando sea necesario. Para la seguridad alimentaria y la supervisión cosmética, las inspecciones y el análisis de datos asistidos por IA pueden orientar mejor los recursos limitados hacia productos e instalaciones de mayor riesgo.
Para la industria, una FDA más habilitada por IA podría traducirse en expectativas analíticas más claras, revisiones más consistentes y potencialmente ciclos de retroalimentación más cortos. A medida que los reguladores se familiaricen con los métodos respaldados por IA, los patrocinadores pueden encontrar un entorno más receptivo para incorporar análisis basados en modelos, brazos de control sintéticos y análisis avanzado de imágenes en sus programas de desarrollo. Al mismo tiempo, la presencia de IA dentro de la agencia puede elevar el nivel de rigor técnico, documentación y explicabilidad para las herramientas utilizadas en las presentaciones.
Sin embargo, la expansión de la IA también introduce nuevos riesgos. Una dependencia excesiva de los flujos de trabajo automatizados podría, si no se gestiona cuidadosamente, ocultar casos atípicos, poblaciones minoritarias o señales de seguridad novedosas que no encajan en los patrones existentes. Los sesgos en los datos o el diseño del modelo podrían propagarse a través de flujos de trabajo a gran escala si no se auditan rutinariamente. También existe el riesgo de opacidad percibida: si las partes interesadas no pueden entender cómo los sistemas agénticos contribuyen al razonamiento regulatorio, la confianza en los resultados puede erosionarse. Abordar estos riesgos requiere monitoreo continuo, gobernanza de modelos y comunicación clara sobre los límites de los conocimientos derivados de la IA.
Cambio cultural y el Desafío IA agéntica
El despliegue técnico es solo una parte de la historia; una dimensión igualmente importante es la adopción cultural. Para fomentar la experimentación y el desarrollo de habilidades, la FDA está lanzando un Desafío de IA agéntica de dos meses junto con el despliegue. El personal de todos los centros está invitado a diseñar y prototipar flujos de trabajo agénticos que resuelvan problemas operativos reales, con soluciones seleccionadas que se presentarán en el Día de Computación Científica de la FDA en enero de 2026. Este tipo de desafío interno está destinado a sacar a la luz ideas desde la base y empoderar a los expertos en la materia para dar forma a cómo se utiliza la IA en su trabajo diario.
Iniciativas como esta ayudan a superar una barrera común en los proyectos tecnológicos del sector público: la brecha entre las herramientas adquiridas centralmente y las necesidades matizadas del personal de primera línea. Al dar a los revisores, investigadores y analistas de políticas espacio para experimentar, dentro de un entorno seguro y bajo reglas claras, la agencia puede descubrir casos de uso novedosos y de alto valor que podrían no surgir solo de la planificación de arriba hacia abajo. Al mismo tiempo, el formato de desafío crea un canal de retroalimentación donde se pueden identificar tempranamente problemas de usabilidad, confiabilidad y gobernanza.
Con el tiempo, este tipo de experimentación estructurada podría fomentar una nueva generación de “reguladores alfabetizados en IA” que comprendan tanto el poder como los riesgos de los sistemas agénticos. Esa experiencia interna probablemente será crítica a medida que la FDA continúe interactuando con patrocinadores, grupos de pacientes y reguladores internacionales sobre el papel de la IA en los ciclos de vida de productos médicos y la seguridad alimentaria y de dispositivos. El despliegue de la IA agéntica es así tanto un ejercicio de desarrollo de la fuerza laboral como de modernización técnica.
En última instancia, el despliegue de la IA agéntica en toda la agencia por parte de la FDA representa un punto de inflexión significativo en la forma en que un regulador de salud importante utiliza herramientas digitales. Al pasar de pilotos aislados a una plataforma a nivel de agencia, la FDA apuesta a que la IA puede aumentar significativamente la experiencia humana en la gestión de cargas regulatorias complejas. El éxito de esa apuesta dependerá de mantener una rigurosa supervisión humana, alinear las prácticas internas con la orientación pública y evaluar continuamente cómo los procesos respaldados por IA afectan la puntualidad y calidad de las decisiones regulatorias.
A medida que la IA agéntica evolucione y surjan nuevos casos de uso, la experiencia de la FDA probablemente informará debates más amplios sobre la IA responsable en el gobierno. Las agencias de todo el mundo están observando cómo la FDA maneja cuestiones de seguridad, sesgo, transparencia y responsabilidad a gran escala. Si se puede mantener el equilibrio entre innovación y salvaguardias, el despliegue de la IA agéntica puede convertirse en un modelo de cómo las instituciones públicas pueden modernizarse sin comprometer sus obligaciones fundamentales con la equidad, la integridad científica y la confianza pública.