Como estava esse conteúdo?
- Aprenda
- Anterior reduz o tempo de revisão clínica em 75% com o Amazon Bedrock e o Llama
Anterior reduz o tempo de revisão clínica em 75% com o Amazon Bedrock e o Llama

Anterior, uma empresa de IA liderada por médicos que cria automação para pagadores de serviços de saúde (seguradoras), se propôs a resolver um dos problemas de dados mais difíceis da área de saúde: identificar e estruturar documentos clínicos que geralmente chegam como centenas de páginas de registros não estruturados. Depois de implementar os modelos Llama da Meta no Amazon Bedrock para potencializar a identificação de documentos nos ambientes da Amazon Web Services (AWS) dos clientes, a Anterior alcançou um desempenho de nível de produção ao mesmo tempo em que atendeu aos rígidos requisitos de governança de dados de saúde. Usando essa abordagem, a Anterior forneceu a extração completa de documentos, melhorou a precisão dos metadados e permitiu a automação downstream que reduz a revisão clínica manual em 75%.
A solução do desafio de identificação de documentos na saúde
Os custos administrativos de saúde nos Estados Unidos excedem USD 950 bilhões por ano em um setor de USD 5 trilhões. Grande parte dessa carga vem dos fluxos de trabalho de revisão clínica dentro dos planos de saúde, em que médicos e enfermeiros revisam manualmente grandes pacotes de registros médicos para aprovar tratamentos, verificar a cobertura e gerenciar o atendimento ao paciente. A Anterior é uma empresa de IA liderada por médicos focada em automatizar esses fluxos de trabalho para pagadores de serviços de saúde, organizações que atuam na convergência entre prestadores e pacientes.
No centro desses fluxos de trabalho está uma tarefa que parece aparentemente simples: antes que a IA possa raciocinar sobre um caso clínico, ela precisa entender o que está vendo. A identificação de documentos é o pré-requisito para toda automação downstream. A Anterior deve segmentar cada pacote clínico recebido em seus documentos constituintes, identificar onde cada um começa e termina e extrair metadados estruturados, incluindo tipo de documento, título, autor e data de criação. Somente então a automação clínica pode prosseguir, seja encaminhando um relatório de ressonância magnética para a etapa certa em uma revisão de autorização prévia, exibindo imagens recentes para um médico ou verificando se a documentação apoia um tratamento recomendado. No entanto, os pacotes clínicos podem ter centenas de páginas e chegar como faxes, PDFs digitalizados e arquivos mesclados de vários documentos. Eles podem combinar imagens, tabelas, formulários e até notas manuscritas de uma forma que as abordagens tradicionais de IA e ML há muito lutam para lidar de maneira confiável em escala de produção.
Os riscos de errar são altos. “Mesmo pequenos erros na identificação de documentos podem gerar efeitos em cascata nas etapas seguintes, porque você está baseando as decisões clínicas em informações incompletas ou incorretas”, afirma Khadija Mahmoud, MD, cientista clínica da Anterior. Uma delimitação incorreta de documentos pode significar a exibição de informações clínicas da parte errada do prontuário, enquanto uma página omitida pode gerar uma falha de conformidade. Qualquer modelo capaz de lidar com a identificação de documentos de nível de produção também precisa atender a requisitos rígidos de governança de dados de saúde. Muitos dos maiores clientes da Anterior exigem que todo o processamento de IA, incluindo a inferência de LLM sobre informações protegidas de saúde (PHI), ocorra inteiramente em seu ambiente da AWS, tornando o uso de APIs externas ou de infraestrutura de terceiros inaceitável.
Criação de um pipeline escalável para automação clínica
A Anterior implementou um fluxo de trabalho de identificação de documentos baseado em modelos Llama da Meta executados no Amazon Bedrock. Essa arquitetura processa pacotes complexos de documentos clínicos de ponta a ponta no ambiente da AWS de um cliente, para que os dados do paciente nunca saiam dessa delimitação. O fluxo de trabalho funciona como um pipeline de dois estágios. No primeiro estágio, grandes PDFs clínicos são processados usando reconhecimento óptico de caracteres (OCR) e análise com reconhecimento de layout. Cada página é convertida em extratos de texto estruturado, preservando as referências da página e os identificadores exclusivos. No segundo estágio, um modelo de linguagem analisa esses extratos processados para determinar as delimitações dos documentos, classificar o tipo de documento e extrair metadados como título, autor, data de criação e uma descrição clínica. É nesse estágio que os modelos Llama no Amazon Bedrock fazem o trabalho.
A Anterior avaliou o Llama Maverick 17B e o Llama Scout 17B em relação a um modelo multimodal proprietário em escala de fronteira usando prompts, conjuntos de dados e critérios de avaliação idênticos. A avaliação foi executada inteiramente dentro da infraestrutura da AWS e avaliou a prontidão da produção em termos de precisão, integridade, consistência e latência. Os conjuntos de dados foram gerados por meio do pipeline de dados sintéticos da Anterior e selecionados por cientistas clínicos para refletir a complexidade do mundo real: formatação ambígua, pacotes de vários documentos e casos de borda. O Llama era um forte candidato por vários motivos: ele é compatível com entradas multimodais (que se alinham à natureza inerentemente multimodal dos dados clínicos), permite inferências eficientes para workloads de alto throughput e oferece uma grande janela de contexto que lida confortavelmente com pacotes clínicos longos. Ele também está entre os modelos de peso aberto mais ajustáveis disponíveis, permitindo que a Anterior adapte o comportamento do modelo por meio de restrições de aviso e de nível de sistema e explore modelos menores e especializados, ajustados a tarefas clínicas específicas em vez de confiar apenas em modelos de escala de fronteira.
Administrar o Llama no Amazon Bedrock permitiu que a equipe de médicos e engenheiros da empresa se concentrasse na solução do problema clínico em vez de gerenciar a infraestrutura. O Bedrock fornece uma interface unificada para avaliar e implantar modelos básicos e, ao mesmo tempo, integrar-se diretamente aos ambientes da AWS. “Muitos dos principais planos de saúde com os quais trabalhamos se fazem a mesma pergunta: ‘Podemos executar IA em PHI em nosso ambiente da AWS?’. Os modelos Llama hospedados na Bedrock permitem que digamos sim sem comprometer o desempenho”, afirma Anuj Iravane, líder de IA aplicada na Anterior. O Bedrock também preserva a flexibilidade: a Anterior pode avaliar modelos adicionais ou implantar versões personalizadas e ajustadas à medida que os requisitos clínicos evoluem, sem reconstruir sua arquitetura.
Aceleração das decisões clínicas e da eficiência operacional
Em um conjunto de dados de casos clínicos sintéticos selecionados por médicos, tanto o Llama Maverick 17B quanto o Llama Scout 17B apresentaram desempenho de nível de produção para identificação de documentos clínicos. Os modelos combinaram um modelo em escala de fronteira com centenas de bilhões de parâmetros enquanto funcionavam com mais eficiência, apesar de usarem 17 B de parâmetros ativos em arquiteturas de modelos maiores. Eles alcançaram a cobertura total da página, o que significa que cada página em um pacote clínico foi atribuída exatamente uma vez, sem conteúdo descartado ou duplicado. Os resultados foram particularmente excelentes na extração de metadados. Os modelos Lhama corresponderam ou excederam a linha de base da fronteira ao identificar informações importantes, como autoria e descrições de documentos. A precisão da identificação do autor chegou a 97 %, em comparação com 93,5% no modelo de fronteira, enquanto a fidelidade da descrição atingiu 98,4%. “Ficamos impressionados”, afirmou Iravane. “Os modelos Llama no Bedrock igualaram nossa linha de base de referência por uma fração do custo, e na extração de metadados, eles realmente superaram essa meta. Você não precisa do maior modelo para resolver os problemas mais difíceis da área de saúde.”
A latência entre os modelos era comparável, mas as vantagens de eficiência dos modelos Llama menores executados no Bedrock se potencializaram em grande escala. À medida que os volumes de documentos aumentam, a Anterior pode processar mais casos por unidade de computação a um custo menor por documento sem sacrificar a precisão. O impacto downstream nos fluxos de trabalho de saúde é significativo. Na análise prévia da autorização, a plataforma Anterior reduz o tempo de revisão clínica manual em 75%, mantendo a precisão clínica de 99,24%. Um estudo de caso da KLAS Research descobriu que o sistema reduziu o tempo de espera dos pacientes pela aprovação do tratamento do câncer de dias ou semanas para apenas 155 segundos. Para uma organização regional de saúde que atende cerca de um milhão de vidas cobertas, essas melhorias se traduzem em aproximadamente 30 milhões de dólares em economias operacionais anuais. Em última análise, uma compreensão mais rápida dos documentos significa decisões clínicas mais rápidas e acesso mais rápido aos cuidados dos pacientes.
A Anterior passou da integração inicial para a implantação em seis semanas. Os modelos Llama agora fazem parte do fluxo de trabalho de identificação de documentos de produção da empresa, atendendo vários clientes corporativos. Os resultados também validaram uma abordagem de arquitetura mais ampla: que modelos menores de peso aberto hospedados no Amazon Bedrock podem competir com modelos de uso geral em escala de fronteira em todos os fluxos de trabalho de saúde. “Grande parte do setor de saúde dos EUA reside na AWS”, afirma Iravane. “Provar que os modelos Llama no Bedrock podem igualar o desempenho de ponta significa que nossos clientes podem implantar mais rapidamente, controlar melhor os custos e manter a postura de segurança de que precisam.”
Como estava esse conteúdo?