¿Qué le pareció este contenido?
- Aprender
- Anterior reduce el tiempo de revisión clínica en un 75% con Amazon Bedrock y Llama
Anterior reduce el tiempo de revisión clínica en un 75% con Amazon Bedrock y Llama

Anterior, una empresa de IA dirigida por médicos que desarrolla la automatización para los pagadores de la atención médica (compañías de seguros), se propuso resolver uno de los problemas de datos más difíciles de la atención médica: identificar y estructurar los documentos clínicos que a menudo llegan como cientos de páginas de registros no estructurados. Tras implementar los modelos de Llama de Meta en Amazon Bedrock para impulsar la identificación de documentos en los entornos de Amazon Web Services (AWS) de los clientes, Anterior logró un rendimiento de nivel de producción y, al mismo tiempo, cumplió con los estrictos requisitos de gobernanza de los datos de atención médica. Con este enfoque, Anterior logró una extracción completa de los documentos, mejoró la precisión de los metadatos y permitió la automatización posterior, lo que redujo la revisión clínica manual en un 75 por ciento.
Abordaje del desafío de identificación de documentos de la atención médica
Los costos administrativos de la atención médica en los Estados Unidos superan los 950 000 millones de dólares al año en una industria de 5 billones de dólares. Gran parte de esta carga proviene de los flujos de trabajo de revisión clínica dentro de los planes de salud, en los que los médicos y enfermeros revisan manualmente grandes paquetes de historias clínicas para aprobar los tratamientos, verificar la cobertura y gestionar la atención de los pacientes. Anterior es una empresa de IA dirigida por médicos que se centra en automatizar estos flujos de trabajo para los proveedores de servicios de salud, organizaciones que se encuentran en la intersección de proveedores y pacientes.
En el centro de estos flujos de trabajo hay una tarea que parece engañosamente simple: antes de que la IA pueda razonar sobre un caso clínico, debe entender lo que ve. La identificación de documentos es el requisito previo para toda la automatización posterior. Anterior debe segmentar cada paquete clínico entrante en sus documentos constitutivos, identificar dónde comienza y termina cada uno y extraer metadatos estructurados, incluidos el tipo de documento, el título, el autor y la fecha de creación. Solo entonces podrá continuar la automatización clínica, ya sea para enviar un informe de resonancia magnética al paso correcto en una revisión de autorización previa, mostrar imágenes recientes a un médico o verificar que la documentación respalde el tratamiento recomendado. Sin embargo, los paquetes clínicos pueden tener cientos de páginas y llegar como faxes, archivos PDF escaneados y archivos de varios documentos combinados. Pueden combinar imágenes, tablas, formularios e incluso notas manuscritas de una manera que los enfoques tradicionales de IA y ML han tenido dificultades durante mucho tiempo para gestionar de forma fiable a escala de producción.
Hay mucho en juego si se equivoca. “Incluso los pequeños errores en la identificación de los documentos pueden tener consecuencias en cascada, ya que las decisiones clínicas se basan en información incompleta o incorrecta”, aseguró la Dra. Khadija Mahmoud, científica clínica de Anterior. Si se identifica erróneamente el límite de documentos, se podría sacar a la luz información clínica de la parte equivocada de la historia clínica de un paciente, mientras que si se pierde una página, se puede crear una brecha de cumplimiento. Cualquier modelo capaz de gestionar la identificación de documentos a nivel de producción también debe cumplir con los estrictos requisitos de gobernanza de datos sanitarios. Muchos de los principales clientes de Anterior exigen que todo el procesamiento de la IA, incluida la inferencia del LLM sobre la información médica protegida (PHI), se lleve a cabo íntegramente en su entorno de AWS, lo que hace que las API externas o la infraestructura de terceros sean inaceptables.
Creación de una canalización escalable para la automatización clínica
Anterior implementó un flujo de trabajo de identificación de documentos basado en modelos de Llama de Meta que se ejecutan en Amazon Bedrock. Esta arquitectura procesa paquetes complejos de documentos clínicos de principio a fin en el entorno de AWS del cliente, de modo que los datos de los pacientes nunca sobrepasan ese límite. El flujo de trabajo funciona como un proceso en dos etapas. En la primera etapa, los archivos PDF clínicos de gran tamaño se procesan mediante el reconocimiento óptico de caracteres (OCR) y un análisis basado en el diseño. Cada página se convierte en extractos de texto estructurados y, al mismo tiempo, conserva las referencias de página y los identificadores únicos. En la segunda etapa, un modelo lingüístico analiza estos extractos analizados para determinar los límites de los documentos, clasificar el tipo de documento y extraer metadatos como el título, el autor, la fecha de creación y una descripción clínica. En esta etapa es donde los modelos de Llama en Amazon Bedrock hacen el trabajo.
Anterior evaluó Llama Maverick 17B y Llama Scout 17B comparándolos con un modelo multimodal propietario a escala de frontera utilizando peticiones, conjuntos de datos y criterios de evaluación idénticos. La evaluación se llevó a cabo íntegramente en la infraestructura de AWS y midió la preparación para la producción en función de la precisión, la integridad, la coherencia y la latencia. Los conjuntos de datos se generaron a través de la cartera de datos sintéticos de Anterior y fueron seleccionados por científicos clínicos para reflejar la complejidad del mundo real: formatos ambiguos, paquetes de varios documentos y casos extremos. Llama fue un buen candidato por varios motivos: admite entradas multimodales (lo que se alinea con la naturaleza intrínsecamente multimodal de los datos clínicos), permite realizar inferencias eficientes para cargas de trabajo de alto rendimiento y ofrece una gran ventana de contexto que permite gestionar cómodamente paquetes clínicos extensos. También es uno de los modelos de pesos abiertos más ajustables disponibles, lo que permite a Anterior adaptar el comportamiento de los modelos teniendo en cuenta las limitaciones propias del sistema y las peticiones, y explorar modelos más pequeños y especializados adaptados a tareas clínicas específicas en lugar de basarse únicamente en modelos a escala de frontera.
La ejecución de Llama en Amazon Bedrock permitió al equipo de médicos e ingenieros de la empresa centrarse en resolver el problema clínico en lugar de gestionar la infraestructura. Bedrock proporciona una interfaz unificada para evaluar e implementar modelos básicos y, al mismo tiempo, integrarse directamente con los entornos de AWS. “Muchos de los principales planes de salud con los que trabajamos se hacen la misma pregunta: '¿Podemos ejecutar la IA en la PHI dentro de nuestro entorno de AWS?' Los modelos de Llama alojados en Bedrock nos permiten decir que sí sin comprometer el rendimiento”, afirma Anuj Iravane, director de IA aplicada de Anterior. Bedrock también preserva la flexibilidad: Anterior puede evaluar modelos adicionales o implementar versiones personalizadas y ajustadas a medida que evolucionan los requisitos clínicos sin tener que reconstruir su arquitectura.
Aceleración de las decisiones clínicas y la eficiencia operativa
En un conjunto de datos de casos clínicos sintéticos seleccionados por médicos, tanto Llama Maverick 17B como Llama Scout 17B ofrecieron un rendimiento de nivel de producción para la identificación de documentos clínicos. Los modelos coincidían con un modelo de escala avanzada con cientos de miles de millones de parámetros y, al mismo tiempo, funcionaban de manera más eficiente, a pesar de utilizar 17 000 millones de parámetros activos en arquitecturas de modelos más grandes. Lograron una cobertura completa de las páginas, lo que significa que cada página de un paquete clínico se asignó exactamente una vez, sin perder contenido ni duplicarlo. Los resultados fueron particularmente buenos en la extracción de metadatos. Los modelos de Llama igualaron o superaron la línea de referencia de frontera a la hora de identificar información clave, como la autoría y las descripciones de los documentos. La precisión en la identificación de los autores alcanzó el 97 por ciento, en comparación con el 93,5 por ciento del modelo de frontera, mientras que la fidelidad de la descripción alcanzó el 98,4 por ciento. “Quedamos impresionados”, asegura Iravane. “Los modelos de Llama de Bedrock igualaron nuestra línea de referencia con una fracción del costo y, en cuanto a la extracción de metadatos, la superaron. No se necesita el modelo más grande para resolver los problemas más difíciles de la atención médica”.
La latencia entre los modelos era comparable, pero las ventajas de eficiencia de los modelos de Llama más pequeños que se ejecutan en Bedrock se combinan a gran escala. A medida que aumentan los volúmenes de documentos, Anterior puede procesar más casos por unidad de procesamiento a un costo menor por documento sin sacrificar la precisión. El impacto posterior en los flujos de trabajo de la atención médica es significativo. En la revisión previa a la autorización, la plataforma Anterior reduce el tiempo de revisión clínica manual en un 75 por ciento, al tiempo que mantiene una precisión clínica del 99,24 por ciento. Un estudio de caso de KLAS Research descubrió que el sistema reducía los tiempos de espera de los pacientes para recibir la aprobación de la atención oncológica de días o semanas a solo 155 segundos. Para una organización sanitaria regional que presta servicios a alrededor de un millón de personas cubiertas, estas mejoras se traducen en un ahorro operativo anual de aproximadamente 30 millones de dólares. Una comprensión más rápida de los documentos significa, en última instancia, decisiones clínicas más rápidas y un acceso más rápido a la atención para los pacientes.
Anterior pasó de la integración inicial a la implementación en seis semanas. Los modelos de Llama ahora forman parte del flujo de trabajo de identificación de documentos de producción de la empresa, que atiende a múltiples clientes empresariales. Los resultados también validaron un enfoque arquitectónico más amplio: los modelos más pequeños y abiertos alojados en Amazon Bedrock pueden competir con los modelos de uso general a gran escala en todos los flujos de trabajo del sector sanitario. “Gran parte de la asistencia sanitaria de EE. UU. depende de AWS”, afirma Iravane. “Demostrar que los modelos de Llama en Bedrock pueden igualar el rendimiento de sus competidores significa que nuestros clientes pueden realizar implementaciones más rápido, controlar mejor los costos y mantener la postura de seguridad que necesitan”.
¿Qué le pareció este contenido?