Come ti è sembrato il contenuto?
- Scopri
- Anterior riduce i tempi di revisione clinica del 75% con Amazon Bedrock e Llama
Anterior riduce i tempi di revisione clinica del 75% con Amazon Bedrock e Llama

Anterior, un'azienda di intelligenza artificiale guidata da medici, che sviluppa soluzioni di automazione per gli enti pagatori del settore sanitario (compagnie assicurative), si è posta l'obiettivo di risolvere uno dei problemi di dati più complessi del settore sanitario: identificare e strutturare i documenti clinici che spesso arrivano sotto forma di centinaia di pagine di record non strutturati. Dopo aver implementato i modelli Llama da Meta on Amazon Bedrock per potenziare l'identificazione dei documenti all'interno degli ambienti Amazon Web Services (AWS) dei clienti, Anterior ha raggiunto prestazioni di livello di produzione soddisfacendo rigorosi requisiti di governance dei dati sanitari. Utilizzando questo approccio, Anterior ha fornito l'estrazione completa dei documenti, una maggiore precisione dei metadati e ha consentito l'automazione a valle che riduce la revisione clinica manuale del 75%.
Affrontare la sfida dell'identificazione dei documenti nel settore sanitario
I costi amministrativi dell'assistenza sanitaria negli Stati Uniti superano i 950 miliardi di dollari all'anno in un settore da 5 trilioni di dollari. Gran parte di questo onere deriva dai flussi di lavoro di revisione clinica all'interno dei piani sanitari, in cui medici e infermieri esaminano manualmente grandi pacchetti di cartelle cliniche per approvare i trattamenti, verificare la copertura e gestire l'assistenza ai pazienti. Anterior è un'azienda di intelligenza artificiale guidata da medici, focalizzata sull'automazione di questi flussi di lavoro per gli enti pagatori del settore sanitario, ovvero le organizzazioni che si trovano all'intersezione tra fornitori di servizi sanitari e pazienti.
Al centro di questi flussi di lavoro c'è un compito che sembra ingannevolmente semplice: prima che l'IA possa ragionare su un caso clinico, deve capire cosa sta guardando . L'identificazione dei documenti è il prerequisito per tutta l'automazione a valle. Anterior deve segmentare ogni pacchetto clinico in arrivo nei documenti costitutivi, identificare l’inizio e la fine di ciascuno di essi ed estrarre metadati strutturati tra cui tipo di documento, titolo, autore e data di creazione. Solo così l'automazione clinica può procedere, sia che si tratti di indirizzare un referto RM nella fase corretta di una revisione preventiva dell'autorizzazione, di far emergere immagini recenti per un medico o di verificare che la documentazione supporti il corso di cura consigliato. Tuttavia, i pacchetti clinici possono contenere centinaia di pagine e arrivare come fax, PDF scansionati e file composti da più documenti uniti. Possono combinare immagini, tabelle, moduli e persino note scritte a mano in modi che gli approcci tradizionali di intelligenza artificiale e ML hanno a lungo faticato a gestire in modo affidabile su scala di produzione.
Le conseguenze di un errore in questo ambito sono gravi. "Anche piccoli errori nell'identificazione dei documenti possono avere ripercussioni a cascata, perché le decisioni cliniche si basano su informazioni incomplete o errate", ha affermato Khadija Mahmoud, MD, medico-scienziata presso Anterior. Un confine del documento identificato in modo errato potrebbe comportare la visualizzazione di informazioni cliniche provenienti dalla parte sbagliata della cartella clinica del paziente, mentre una pagina mancante potrebbe creare una lacuna di conformità. Qualsiasi modello in grado di gestire l'identificazione dei documenti a livello di produzione deve inoltre soddisfare severi requisiti di governance dei dati sanitari. Molti dei maggiori clienti di Anterior richiedono che tutte le elaborazioni dell'IA, inclusa l'inferenza degli LLM sulle informazioni sanitarie protette (PHI), avvengano interamente all'interno del loro ambiente AWS, rendendo inaccettabili le API esterne o l'infrastruttura di terze parti.
Creazione di una pipeline scalabile per l'automazione clinica
Anterior ha implementato un flusso di lavoro di identificazione dei documenti basato sui modelli Meta Llama in esecuzione su Amazon Bedrock. Questa architettura elabora complessi pacchetti di documenti clinici end-to-end all'interno dell'ambiente AWS del cliente, in modo che i dati dei pazienti non escano mai da quel limite. Il flusso di lavoro funziona come una pipeline in due fasi. Nella prima fase, i PDF clinici di grandi dimensioni vengono elaborati utilizzando il riconoscimento ottico dei caratteri (OCR) e l'analisi basata sul layout. Ogni pagina viene convertita in estratti di testo strutturato preservando i riferimenti di pagina e gli identificatori univoci. Nella seconda fase, un modello linguistico analizza questi estratti analizzati per determinare i confini del documento, classificare il tipo di documento ed estrarre metadati come titolo, autore, data di creazione e una descrizione clinica. Questa fase è dove i modelli Llama su Amazon Bedrock svolgono il lavoro.
Anterior ha valutato Llama Maverick 17B e Llama Scout 17B rispetto a un modello multimodale proprietario su scala di frontiera utilizzando prompt, set di dati e criteri di valutazione identici. La valutazione è stata eseguita interamente all'interno dell'infrastruttura AWS e ha misurato la prontezza alla produzione in termini di accuratezza, completezza, coerenza e latenza. I set di dati sono stati generati tramite la pipeline di dati sintetici di Anterior e curati da medici-scienziati per riflettere la complessità del mondo reale: formattazione ambigua, pacchetti di documenti multipli e casi limite. Llama era un candidato ideale per diversi motivi: supporta input multimodali (in linea con la natura intrinsecamente multimodale dei dati clinici), consente un'inferenza efficiente per carichi di lavoro a elevato throughput e offre una finestra di contesto ampia che gestisce comodamente lunghi pacchetti clinici. È inoltre tra i modelli aperti più personalizzabili consentendo ad Anterior di adattare il comportamento del modello tramite prompt e vincoli a livello di sistema, nonché di esplorare modelli più piccoli e specializzati, ottimizzati per compiti clinici specifici, anziché affidarsi esclusivamente a modelli di frontiera.
L'utilizzo di Llama su Amazon Bedrock ha permesso al team di medici e ingegneri dell'azienda di concentrarsi sulla risoluzione del problema clinico anziché sulla gestione dell'infrastruttura. Bedrock offre un'interfaccia unificata per la valutazione e l'implementazione di modelli di base, integrandosi direttamente con gli ambienti AWS. "Molti dei principali piani sanitari con cui collaboriamo ci pongono la stessa domanda: 'Possiamo eseguire l'IA su dati sanitari protetti (PHI) all'interno del nostro ambiente AWS?' I modelli Llama ospitati su Bedrock ci hanno permesso di rispondere affermativamente senza compromettere le prestazioni", ha affermato Anuj Iravane, Responsabile dell'IA applicata presso Anterior. Bedrock preserva inoltre la flessibilità: Anterior può valutare modelli aggiuntivi o distribuire versioni personalizzate e ottimizzate man mano che i requisiti clinici si evolvono, senza dover ricostruire la propria architettura.
Accelerare le decisioni cliniche e migliorare l'efficienza operativa
Su un dataset di casi clinici sintetici curati da clinici, sia Llama Maverick 17B che Llama Scout 17B hanno fornito prestazioni di livello produttivo per l'identificazione di documenti clinici. I modelli hanno eguagliato un modello di frontiera con centinaia di miliardi di parametri, pur funzionando in modo più efficiente, nonostante l'utilizzo di parametri attivi 17B all'interno di architetture di modelli più grandi. Hanno raggiunto una copertura completa delle pagine, il che significa che ogni pagina in un pacchetto clinico è stata assegnata esattamente una volta, senza contenuti persi o duplicati. I risultati sono stati particolarmente validi nell'estrazione dei metadati. I modelli Llama hanno eguagliato o superato la baseline di frontiera nell' identificazione di informazioni chiave come la paternità e le descrizioni dei documenti. L'accuratezza dell'identificazione dell'autore ha raggiunto il 97%, rispetto al 93,5% del modello di frontiera, mentre la fedeltà della descrizione ha raggiunto il 98,4%. "Siamo rimasti colpiti", ha affermato Iravane. "I modelli Llama su Bedrock hanno eguagliato il nostro modello di riferimento all'avanguardia a una frazione del costo, e nell'estrazione dei metadati lo hanno addirittura superato . Non serve il modello più grande per risolvere i problemi più complessi del settore sanitario."
La latenza tra i modelli era comparabile, ma i vantaggi in termini di efficienza dei modelli Llama più piccoli in esecuzione su Bedrock si amplificano su larga scala. Con l'aumento dei volumi di documenti, Anterior può elaborare più casi per unità di calcolo a un costo inferiore per documento senza sacrificare la precisione. L'impatto a valle sui flussi di lavoro sanitari è significativo. Nella revisione dell'autorizzazione preventiva, la piattaforma Anterior riduce del 75% il tempo di revisione clinica manuale mantenendo un'accuratezza clinica del 99,24%. Un caso di studio di KLAS Research ha rilevato che il sistema ha ridotto i tempi di attesa dei pazienti per l'approvazione delle cure oncologiche da giorni o settimane a soli 155 secondi. Per un'organizzazione sanitaria regionale che serve circa un milione di vite coperte, questi miglioramenti si traducono in circa 30 milioni di dollari in risparmi operativi annuali. Una comprensione più rapida dei documenti significa in ultima analisi decisioni cliniche più rapide e un accesso più rapido alle cure per i pazienti.
Anterior è passato dalla integrazione iniziale alla distribuzione in sei settimane. I modelli Llama fanno ora parte del flusso di lavoro di identificazione dei documenti di produzione dell'azienda al servizio di diversi clienti. I risultati hanno inoltre confermato un approccio architetturale più ampio: i modelli aperti più piccoli ospitati su Amazon Bedrock possono competere con i modelli generici su scala di frontiera nei flussi di lavoro sanitari. "Gran parte del sistema sanitario statunitense si basa su AWS", ha affermato Iravane. "Dimostrare che i modelli Llama su Bedrock sono in grado di offrire prestazioni all'avanguardia significa che i nostri clienti possono distribuire più rapidamente, controllare meglio i costi e mantenere il livello di sicurezza di cui hanno bisogno.”
Come ti è sembrato il contenuto?