Bagaimana konten ini?
- Pelajari
- Anterior Mengurangi Waktu Peninjauan Klinis Sebesar 75% dengan Amazon Bedrock dan Llama
Anterior Mengurangi Waktu Peninjauan Klinis Sebesar 75% dengan Amazon Bedrock dan Llama

Anterior, sebuah perusahaan AI yang dipimpin dokter yang membangun otomatisasi untuk pembayar layanan kesehatan (perusahaan asuransi), berupaya memecahkan salah satu masalah data tersulit di layanan kesehatan: mengidentifikasi dan menyusun dokumen klinis yang sering kali tiba dalam ratusan halaman catatan tidak terstruktur. Setelah mengimplementasikan model Llama dari Meta di Amazon Bedrock untuk mendukung identifikasi dokumen dalam lingkungan Amazon Web Services (AWS) pelanggan, Anterior mencapai performa tingkat produksi sambil memenuhi persyaratan tata kelola data layanan kesehatan yang ketat. Menggunakan pendekatan ini, Anterior memberikan ekstraksi dokumen lengkap, meningkatkan akurasi metadata, dan memungkinkan otomatisasi hilir yang mengurangi peninjauan klinis manual sebesar 75 persen.
Mengatasi tantangan identifikasi dokumen layanan kesehatan
Biaya administratif layanan kesehatan di Amerika Serikat melebihi 950 miliar USD per tahun dalam industri senilai 5 triliun USD. Sebagian besar beban ini berasal dari alur kerja peninjauan klinis di dalam rencana kesehatan, dengan dokter dan perawat secara manual meninjau paket besar catatan medis untuk menyetujui perawatan, memverifikasi cakupan, serta mengelola perawatan pasien. Anterior adalah perusahaan AI yang dipimpin dokter yang berfokus pada mengotomatiskan alur kerja ini untuk pembayar layanan kesehatan, organisasi yang berada di persimpangan antara penyedia dan pasien.
Berada di pusat alur kerja ini merupakan tugas yang terdengar sangat sederhana: sebelum AI dapat bernalar tentang kasus klinis, AI harus memahami apa yang dilihatnya . Identifikasi dokumen adalah prasyarat untuk semua otomatisasi hilir. Anterior harus mengelompokkan setiap paket klinis yang masuk ke dalam dokumen penyusunnya, mengidentifikasi masing-masing saat dimulai dan berakhir, dan mengekstrak metadata terstruktur termasuk tipe dokumen, judul, penulis, serta tanggal pembuatan. Hanya dengan begitu otomatisasi klinis dapat dilanjutkan, apakah itu merutekan laporan MRI ke langkah yang tepat dalam tinjauan otorisasi sebelumnya, menampilkan pencitraan terbaru untuk dokter, atau memverifikasi bahwa dokumentasi mendukung tindakan perawatan yang direkomendasikan. Namun, paket klinis dapat memiliki panjang ratusan halaman dan tiba dalam faks, PDF yang dipindai, dan file multidokumen yang digabungkan. Paket tersebut dapat menggabungkan pencitraan, tabel, formulir, serta bahkan catatan tulisan tangan dengan cara pendekatan AI dan ML tradisional yang telah lama sulit ditangani dengan andal pada skala produksi.
Risiko kesalahan dalam hal ini sangat tinggi. “Bahkan kesalahan kecil dalam identifikasi dokumen dapat mengalir ke hilir, karena Anda mendasarkan keputusan klinis pada informasi yang tidak lengkap atau salah,” kata Khadija Mahmoud, MD, clinician scientist di Anterior. Batas dokumen yang salah diidentifikasi dapat berarti memunculkan informasi klinis dari bagian yang salah dari catatan pasien, sementara halaman yang hilang dapat menciptakan kesenjangan kepatuhan. Setiap model yang mampu menangani identifikasi dokumen tingkat produksi juga harus memenuhi persyaratan tata kelola data layanan kesehatan yang ketat. Banyak pelanggan terbesar Anterior mengharuskan semua pemrosesan AI, termasuk inferensi LLM pada Informasi Kesehatan Terlindungi (PHI), terjadi sepenuhnya dalam lingkungan AWS mereka, sehingga API eksternal atau infrastruktur pihak ketiga tidak dapat diterima.
Membangun jalur yang dapat diskalakan untuk otomatisasi klinis
Anterior mengimplementasikan alur kerja identifikasi dokumen yang didukung oleh model Meta Llama yang berjalan di Amazon Bedrock. Arsitektur ini memproses paket dokumen klinis yang kompleks secara end-to-end dalam lingkungan AWS pelanggan, agar data pasien tidak pernah meninggalkan batas tersebut. Alur kerja beroperasi sebagai jalur dua tahap. Pada tahap pertama, PDF klinis besar diproses menggunakan pengenalan karakter optik (OCR) dan penguraian sadar tata letak. Setiap halaman dikonversi menjadi ekstrak teks terstruktur sambil mempertahankan referensi halaman dan pengidentifikasi unik. Pada tahap kedua, model bahasa menganalisis ekstrak yang diurai ini untuk menentukan batasan dokumen, mengklasifikasikan tipe dokumen, serta mengekstrak metadata seperti judul, penulis, tanggal pembuatan, dan deskripsi klinis. Tahap ini adalah ketika model Llama di Amazon Bedrock melakukan pekerjaan.
Anterior mengevaluasi Llama Maverick 17B dan Llama Scout 17B terhadap model multimodal kepemilikan skala terdepan menggunakan prompt, set data, dan kriteria evaluasi yang identik. Evaluasi berjalan sepenuhnya dalam infrastruktur AWS serta mengukur kesiapan produksi di seluruh akurasi, kelengkapan, konsistensi, dan latensi. Set data dihasilkan melalui jalur data sintetis Anterior dan dikurasi oleh ilmuwan klinis untuk mencerminkan kompleksitas dunia nyata: pemformatan ambigu, paket multidokumen, serta kasus edge. Llama adalah kandidat yang kuat karena beberapa alasan: Llama mendukung input multimodal (yang sesuai dengan sifat multimodal data klinis yang inheren), memungkinkan inferensi yang efisien untuk beban kerja throughput tinggi , dan menawarkan jendela konteks besar yang dengan nyaman menangani paket klinis yang panjang. Llama juga merupakan salah satu model bobot terbuka yang palingdapat disetel yang tersedia, memungkinkan Anterior untuk menyesuaikan perilaku model melalui prompting dan batasan tingkat sistem serta mengeksplorasi model khusus yang lebih kecil yang disetel dengan tugas klinis tertentu alih-alih hanya mengandalkan model skala terdepan.
Menjalankan Llama di Amazon Bedrock memungkinkan tim dokter dan rekayasawan perusahaan untuk fokus pada pemecahan masalah klinis alih-alih mengelola infrastruktur. Bedrock menyediakan antarmuka terpadu untuk mengevaluasi dan melakukan deployment model fondasi sambil berintegrasi langsung dengan lingkungan AWS. “Banyak rencana kesehatan besar yang kami kerjakan dengan mengajukan pertanyaan yang sama: 'Dapatkah kami menjalankan AI pada PHI di dalam lingkungan AWS kami? 'Model Llama yang di-host Bedrock memungkinkan kami untuk mengatakan ya tanpa mengorbankan performa,” ucap Anuj Iravane, applied AI lead di Anterior. Bedrock juga mempertahankan fleksibilitas: Anterior dapat mengevaluasi model tambahan atau melakukan deployment versi kustom yang disempurnakan saat persyaratan klinis berkembang tanpa membangun ulang arsitekturnya.
Mempercepat keputusan klinis dan efisiensi operasional
Di seluruh set data kasus klinis sintetis yang dikurasi dokter, Llama Maverick 17B dan Llama Scout 17B memberikan performa tingkat produksi untuk identifikasi dokumen klinis. Model tersebut menyamai model skala terdepan dengan ratusan miliar parameter sambil berjalan lebih efisien, meskipun menggunakan parameter aktif 17B dalam arsitektur model yang lebih besar. Mereka mencapai cakupan halaman lengkap, yang berarti setiap halaman dalam paket klinis ditetapkan tepat sekali tanpa konten yang dibuang atau duplikasi. Hasilnya sangat kuat dalam ekstraksi metadata. Model Llama menyamai atau melampaui acuan dasar terdepan saat mengidentifikasi informasi kunci seperti kepengarangan dan deskripsi dokumen. Akurasi identifikasi penulis mencapai setinggi 97 persen, dibandingkan dengan 93,5 persen untuk model terdepan, sementara kesetiaan deskripsi mencapai 98,4 persen. “Kami terkesan,” ujar Iravane.“Model Llama di Bedrock cocok dengan acuan dasar terdepan kami dengan biaya yang lebih murah—serta dalam ekstraksi metadata, mereka benar-benar mengunggulinya . Anda tidak perlu model terbesar untuk memecahkan masalah kesehatan yang paling sulit.”
Latensi di seluruh model sebanding, tetapi keunggulan efisiensi model Llama yang lebih kecil yang berjalan pada Bedrock berlipat ganda dalam skala besar. Seiring bertambahnya volume dokumen, Anterior dapat memproses lebih banyak kasus per unit komputasi pada biaya per dokumen yang lebih rendah tanpa mengorbankan akurasi. Dampak hilir pada alur kerja layanan kesehatan sangat signifikan. Dalam tinjauan otorisasi sebelumnya, platform Anterior mengurangi waktu peninjauan klinis manual sebesar 75 persen sambil mempertahankan akurasi klinis sebesar 99,24 persen. Sebuah studi kasus KLAS Research menemukan bahwa sistem mengurangi waktu tunggu pasien untuk persetujuan perawatan kanker dari hitungan hari atau minggu menjadi hanya 155 detik. Bagi organisasi layanan kesehatan regional yang melayani sekitar satu juta jiwa yang tercakup, peningkatan ini berarti penghematan operasional tahunan sekitar 30 juta USD. Pemahaman dokumen yang lebih cepat pada akhirnya berarti keputusan klinis yang lebih cepat dan akses yang lebih cepat ke perawatan bagi pasien.
Anterior beralih dari integrasi awal ke deployment dalam waktu enam minggu. Model Llama kini menjadi bagian dari alur kerja identifikasi dokumen produksi perusahaan yang melayani berbagai pelanggan korporasi. Hasilnya juga memvalidasi pendekatan arsitektur yang lebih luas: bahwa model bobot terbuka yang lebih kecil yang di-host di Amazon Bedrock dapat bersaing dengan model tujuan umum skala terdepan di seluruh alur kerja layanan kesehatan. “Sebagian besar layanan kesehatan AS bergantung pada AWS,” kata Iravane. “Membuktikan bahwa model Llama di Bedrock dapat menyamai performa terdepan berarti pelanggan kami dapat melakukan deployment lebih cepat, mengontrol biaya dengan lebih baik, dan mempertahankan postur keamanan yang mereka butuhkan.”
Bagaimana konten ini?