Wie war dieser Inhalt?
- Lernen
- Anterior verkürzt die Dauer der klinischen Überprüfung um 75 % mit Amazon Bedrock und Llama
Anterior verkürzt die Dauer der klinischen Überprüfung um 75 % mit Amazon Bedrock und Llama

Anterior, ein von Medizinern geführtes KI-Unternehmen, das Automatisierungslösungen für Kostenträger im Gesundheitswesen (Versicherungsgesellschaften) entwickelt, machte sich daran, eines der schwierigsten Datenprobleme im Gesundheitswesen zu lösen: die Identifizierung und Strukturierung klinischer Dokumente, die oft als Hunderte von Seiten unstrukturierter Datensätze eingehen. Nach der Implementierung von Llama-Modellen von Meta auf Amazon Bedrock zur Unterstützung der Dokumentenerkennung in den Amazon Web Services (AWS)-Umgebungen der Kunden erreichte Anterior eine produktionsreife Leistung und erfüllte gleichzeitig strenge Anforderungen an die Daten-Governance im Gesundheitswesen. Mit diesem Ansatz ermöglichte Anterior eine vollständige Dokumentenextraktion, verbesserte die Genauigkeit der Metadaten und ermöglichte eine nachgelagerte Automatisierung, die den manuellen klinischen Prüfungsaufwand um 75 Prozent reduziert.
Die Herausforderung der Dokumentenerkennung im Gesundheitswesen angehen
Die Verwaltungskosten im Gesundheitswesen der Vereinigten Staaten belaufen sich jährlich auf über 950 Milliarden USD in einer Branche, die einen jährlichen Umsatz von 5 Billionen USD erzielt. Ein Großteil dieser Belastung entsteht durch klinische Workflows innerhalb von Krankenkassen, wo Ärzte und Pflegekräfte große Mengen an Krankenakten manuell prüfen, um Behandlungen zu genehmigen, den Versicherungsschutz zu verifizieren und die Patientenversorgung zu verwalten. Anterior ist ein von Klinikern geführtes KI-Unternehmen, das sich auf die Automatisierung dieser Workflows für Kostenträger im Gesundheitswesen konzentriert – Organisationen, die an der Schnittstelle zwischen Leistungserbringern und Patienten stehen.
Im Zentrum der Workflows steht eine Aufgabe, die trügerisch einfach klingt: Bevor KI einen klinischen Fall beurteilen kann, muss sie verstehen, was sie betrachtet. Die Dokumentenerkennung ist die Voraussetzung für jegliche nachgelagerte Automatisierung. Anterior muss jedes eingehende klinische Paket in seine einzelnen Dokumente segmentieren, ermitteln wo jedes beginnt und endet, und strukturierte Metadaten wie Dokumenttyp, Titel, Autor und Erstellungsdatum extrahieren. Erst dann kann die klinische Automatisierung fortgesetzt werden, sei es die Weiterleitung eines MRT-Befundes an die richtige Stelle im Rahmen einer Vorabgenehmigungsprüfung, die Bereitstellung aktueller Bilddaten für einen Kliniker oder das Verifizieren, ob die Dokumentation eine empfohlene Behandlungsmaßnahme stützt. Klinische Unterlagen können jedoch Hunderte von Seiten umfassen und als Faxe, gescannte PDFs und zusammengeführte Dateien mit mehreren Dokumenten eingehen. Sie können Image-Daten, Tabellen, Formulare und sogar handschriftliche Notizen auf eine Weise kombinieren, mit der herkömmliche KI- und ML-Ansätze seit langem Schwierigkeiten haben, diese im Produktionsmaßstab zuverlässig zu verarbeiten.
Die Risiken bei Fehlern sind hoch. „Selbst kleine Fehler bei der Dokumentenerkennung können nachgelagerte Probleme nach sich ziehen, da klinische Entscheidungen auf unvollständigen oder falschen Informationen basieren“, sagte Dr. Khadija Mahmoud, klinische Wissenschaftlerin bei Anterior. Eine falsch identifizierte Dokumentgrenze könnte bedeuten, dass klinische Informationen aus dem falschen Teil einer Patientenakte hervorgehen, während eine fehlende Seite eine Compliance-Lücke verursachen könnte. Jedes Modell, das in der Lage ist, Dokumentidentifizierung im Produktionsmaßstab zu bewältigen, muss zudem strenge Anforderungen an die Daten-Governance im Gesundheitswesen erfüllen. Viele der größten Kunden von Anterior verlangen, dass die gesamte KI-Verarbeitung, einschließlich der LLM-Inferenz bei geschützten Gesundheitsdaten (PHI), vollständig innerhalb ihrer AWS-Umgebung stattfindet, wodurch externe APIs oder Infrastruktur von Drittanbietern inakzeptabel sind.
Aufbau einer skalierbaren Pipeline für die klinische Automatisierung
Anterior implementierte einen Workflow zur Dokumentenidentifizierung, der auf Meta-Llama-Modellen basiert, die auf Amazon Bedrock laufen. Diese Architektur verarbeitet komplexe Pakete klinischer Dokumente durchgängig innerhalb der AWS-Umgebung eines Kunden, sodass Patientendaten diese Grenze niemals verlassen. Der Workflow funktioniert als zweistufige Pipeline. In der ersten Stufe werden umfangreiche klinische PDF-Dateien mittels optischer Zeichenerkennung (OCR) und layoutorientierter Analyse verarbeitet. Jede Seite wird in strukturierte Textauszüge umgewandelt, wobei Seitenverweise und eindeutige Identifikatoren beibehalten werden. In der zweiten Stufe analysiert ein Sprachmodell analysiert diese parsten Auszüge, um die Dokumentgrenzen zu bestimmen, den Dokumenttyp zu klassifizieren und Metadaten wie Titel, Autor, Erstellungsdatum und eine klinische Beschreibung zu extrahieren. In dieser Stufe übernehmen die Llama-Modelle auf Amazon Bedrock die Arbeit.
Anterior hat Llama Maverick 17B und Llama Scout 17B anhand identischer Prompts, Datensätze und Bewertungskriterien mit einem proprietären multimodalen Modell im Frontier-Maßstab verglichen. Die Bewertung wurde vollständig innerhalb der AWS-Infrastruktur durchgeführt und maß die Produktionsreife anhand von Genauigkeit, Vollständigkeit, Konsistenz und Latenz. Die Datensätze wurden über die synthetische Datenpipeline von Anterior generiert und von klinischen Wissenschaftlern kuratiert, um die Komplexität der realen Welt widerzuspiegeln: mehrdeutige Formatierungen, Pakete mit mehreren Dokumenten und Randfälle. Llama war aus mehreren Gründen ein starker Bewerber: Es unterstützt multimodale Eingaben (was der von Natur aus multimodalen Beschaffenheit klinischer Daten entspricht), ermöglicht eine effiziente Inferenz für Workloads mit hohem Durchsatz und bietet ein großes Kontextfenster, das auch umfangreiche klinische Pakete problemlos verarbeiten kann. Es gehört zudem zu den am besten anpassbaren Modellen mit offenen Gewichten , die verfügbar sind, was es Anterior ermöglicht, das Modellverhalten durch Prompts und Einschränkungen auf Systemebene anzupassen und kleinere, spezialisierte Modelle zu erproben, die auf bestimmte klinische Aufgaben abgestimmt sind, anstatt sich ausschließlich auf Modelle im Frontier-Maßstab zu verlassen.
Durch den Einsatz von Llama auf Amazon Bedrock konnte sich das Team aus Klinikern und Ingenieuren des Unternehmens auf die Lösung des klinischen Problems konzentrieren, anstatt sich um die Verwaltung der Infrastruktur kümmern zu müssen. Bedrock bietet eine einheitliche Schnittstelle für die Bewertung und Bereitstellung von Grundmodellen und lässt sich gleichzeitig direkt in AWS-Umgebungen integrieren. „Viele große Krankenkassen, mit denen wir zusammenarbeiten, stellen dieselbe Frage: ‚Können wir KI mit PHI in unserer AWS-Umgebung ausführen?‘ Dank der von Bedrock gehosteten Llama-Modelle können wir diese Frage bejahen, ohne Kompromisse bei der Leistung einzugehen“, sagte Anuj Iravane, Leiter für angewandte KI bei Anterior. Bedrock bewahrt zudem die Flexibilität: Anterior kann zusätzliche Modelle evaluieren oder maßgeschneiderte, optimierte Versionen bereitstellen, wenn sich die klinischen Anforderungen ändern, ohne die Architektur neu aufbauen zu müssen.
Beschleunigung klinischer Entscheidungen und Steigerung der betrieblichen Effizienz
In einem Datensatz aus von Klinikern kuratierten synthetischen klinischen Fällen lieferten sowohl Llama Maverick 17B als auch Llama Scout 17B eine produktionsreife Leistung bei der Identifizierung klinischer Dokumente. Die Modelle skalierten auf das Niveau eines „Frontier“-Modells mit Hunderten von Milliarden Parametern und liefen dabei effizienter, obwohl sie 17 Milliarden aktive Parameter innerhalb größerer Modellarchitekturen nutzten. Sie erzielten eine vollständige Seitenabdeckung, was bedeutet, dass jede Seite in einem klinischen Dokumentenpaket genau einmal zugeordnet wurde, ohne dass Inhalte ausgelassen oder doppelt erfasst wurden. Besonders überzeugend waren die Ergebnisse bei der Metadatenextraktion. Die Llama-Modelle erreichten oder übertrafen die „Frontier“-Baseline bei der Identifizierung wichtiger Informationen wie Dokumentenurheberschaft und Beschreibungen. Die Genauigkeit bei der Autorenidentifizierung lag bei bis zu 97 Prozent, verglichen mit 93,5 Prozent beim „Frontier“-Modell, während die Genauigkeit bei der Beschreibung 98,4 Prozent erreichte. „Wir waren beeindruckt“, sagte Iravane. „Llama-Modelle auf Bedrock erreichten unsere Frontier-Baseline zu einem Bruchteil der Kosten – und bei der Metadatenextraktion übertrafen sie diese sogar. Man braucht nicht das größte Modell, um die schwierigsten Probleme im Gesundheitswesen zu lösen.“
Die Latenzzeiten waren bei allen Modellen vergleichbar, doch die Effizienzvorteile der kleineren Llama-Modelle, die auf Bedrock laufen, summieren sich beim Skalieren. Mit steigendem Volume an Dokumenten kann Anterior mehr Fälle pro Recheneinheit zu geringeren Kosten pro Dokument verarbeiten, ohne dabei an Genauigkeit einzubüßen. Die Auswirkungen auf die Workflows im Gesundheitswesen sind erheblich. Bei der Vorabgenehmigungsprüfung reduziert die Anterior-Plattform die manuelle klinische Prüfzeit um 75 Prozent und behält dabei eine klinische Genauigkeit von 99,24 Prozent bei. Ein Fallbeispiel von KLAS Research ergab, dass das System die Wartezeiten der Patienten auf Genehmigungen für die Krebsbehandlung von Tagen oder Wochen auf nur 155 Sekunden verkürzte. Für eine regionale Gesundheitsorganisation, die etwa eine Million Versicherte versorgt, bedeuten diese Verbesserungen jährliche Einsparungen im Betrieb von rund 30 Millionen US-Dollar. Eine schnellere Dokumentenauswertung führt letztendlich zu schnelleren klinischen Entscheidungen und einem schnelleren Zugang zur Versorgung für die Patienten.
Anterior gelangte innerhalb von sechs Wochen von der anfänglichen Integration zur Bereitstellung. Llama-Modelle sind nun Teil des produktiven Dokumentenerkennungs-Workflows des Unternehmens, der mehrere Unternehmenskunden bedient. Die Ergebnisse bestätigten zudem einen breiteren architektonischen Ansatz: dass kleinere Modelle mit offenem Gewicht, die auf Amazon Bedrock gehostet werden, mit Allzweckmodellen im Frontier-Maßstab in allen Workflows des Gesundheitswesens konkurrieren können. „Ein Großteil des US-Gesundheitswesens läuft in AWS“, sagte Iravane. „Der Nachweis, dass Llama-Modelle auf Bedrock mit der Leistung von Spitzenmodellen mithalten können, bedeutet, dass unsere Kunden schneller bereitstellen, Kosten besser kontrollieren und die Sicherheitslage aufrechterhalten können, die sie benötigen.“
Wie war dieser Inhalt?