Passer au contenu principalAWS Startups
  1. Apprendre
  2. Anterior réduit la durée des examens cliniques de 75 % grâce à Amazon Bedrock et Llama

Anterior réduit la durée des examens cliniques de 75 % grâce à Amazon Bedrock et Llama

Comment a été ce contenu ?

Anterior, une société d’IA dirigée par des cliniciens qui développe des solutions d’automatisation pour les payeurs de soins de santé (compagnies d’assurance), s’est donné pour mission de résoudre l’un des problèmes de données les plus complexes du secteur de la santé : identifier et structurer des documents cliniques qui arrivent souvent sous la forme de centaines de pages de dossiers non structurés. Après avoir mis en œuvre les modèles Llama de Meta sur Amazon Bedrock pour alimenter l’identification des documents dans les environnements Amazon Web Services (AWS) de ses clients, Anterior a atteint des performances de niveau production tout en respectant des exigences strictes de gouvernance des données de santé. Grâce à cette approche, Anterior a assuré une extraction complète des documents, amélioré la précision des métadonnées et permis une automatisation en aval qui réduit de 75 % le temps consacré à l’examen clinique manuel.

La réponse au défi de l’identification des documents dans le secteur des soins de santé

Les coûts administratifs des soins de santé aux États-Unis dépassent 950 milliards de dollars par an dans un secteur pesant 5 mille milliards de dollars. Cette charge provient en grande partie des flux d’examen clinique au sein des plans de santé,  les médecins et les infirmières examinent manuellement de gros lots de dossiers médicaux pour approuver les traitements, vérifier la couverture et gérer les soins aux patients. Anterior est une société d’IA dirigée par des cliniciens qui se consacre à l’automatisation de ces flux de travail pour les payeurs de soins de santé, des organisations situées à l’intersection entre les prestataires et les patients. 

Au cœur de ces flux de travail se trouve une tâche en apparence simple : avant que l’IA puisse raisonner sur un cas clinique, elle doit comprendre ce qu’elle analyse. L’identification des documents est le préalable à toute automatisation en aval. Anterior doit segmenter chaque dossier clinique entrant en documents distincts, identifier où chacun commence et se termine, et extraire des métadonnées structurées, notamment le type de document, le titre, l’auteur et la date de création. Ce n’est qu’alors que l’automatisation clinique peut se poursuivre, qu’il s’agisse d’acheminer un compte rendu d’IRM vers la bonne étape d’un examen d’autorisation préalable, de faire remonter des examens d’imagerie récents pour un clinicien ou de vérifier que la documentation étaye un parcours de soins recommandé. Cependant, les dossiers cliniques peuvent compter des centaines de pages et arriver sous forme de fax, de PDF numérisés et de fichiers fusionnant plusieurs documents. Ils peuvent combiner imagerie, tableaux, formulaires et même notes manuscrites d’une manière que les approches traditionnelles d’IA et de ML peinent depuis longtemps à traiter de façon fiable à l’échelle de la production. 

Les conséquences d’une erreur à ce niveau sont importantes. « Même de petites erreurs dans l’identification des documents peuvent se répercuter en aval, car les décisions cliniques reposent alors sur des informations incomplètes ou erronées », explique Khadija Mahmoud, MD, clinicienne-chercheuse chez Anterior. Une frontière de document mal identifiée peut faire remonter des informations cliniques depuis la mauvaise partie du dossier d’un patient, tandis qu’une page manquante peut créer une faille de conformité. Tout modèle capable d’assurer une identification de documents de niveau production doit également répondre à des exigences strictes en matière de gouvernance des données de santé. Bon nombre des plus grands clients d’Anterior exigent que tous les traitements d’IA, y compris l’inférence LLM sur des informations de santé protégées (PHI), soient réalisés intégralement dans leur environnement AWS, ce qui rend inacceptables les API externes ou les infrastructures tierces.

Création d’un pipeline à l’échelle pour l’automatisation clinique

Anterior a mis en place un flux d’identification de documents basé sur des modèles Meta Llama exécutés sur Amazon Bedrock. Cette architecture traite de bout en bout des lots complexes de documents cliniques dans l’environnement AWS du client, de sorte que les données patient ne quittent jamais ce périmètre. Le flux de travail fonctionne comme un pipeline en deux étapes. Dans un premier temps, les PDF cliniques volumineux sont traités à l’aide de la reconnaissance optique de caractères (OCR) et d’une analyse tenant compte de la mise en page. Chaque page est convertie en extraits de texte structurés tout en préservant les références de page et les identifiants uniques. Lors de la deuxième étape, un modèle de langage analyse ces extraits pour déterminer les frontières des documents, classer leur type et extraire des métadonnées telles que le titre, l’auteur, la date de création et une description clinique. À cette étape, les modèles Llama sur Amazon Bedrock effectuent le travail. 

Anterior a évalué Llama Maverick 17B et Llama Scout 17B face à un modèle multimodal propriétaire d’échelle frontière, en utilisant les mêmes invites, les mêmes jeux de données et les mêmes critères d’évaluation. L’évaluation s’est déroulée entièrement au sein de l’infrastructure AWS et a mesuré l’aptitude à la production en termes de précision, d’exhaustivité, de cohérence et de latence. Les jeux de données ont été générés à partir du pipeline de données synthétiques d’Anterior et sélectionnés par des cliniciens-chercheurs pour refléter la complexité du monde réel : formatage ambigu, lots multidocuments et cas limites. Llama constituait un candidat solide pour plusieurs raisons : il prend en charge les entrées multimodales (ce qui correspond à la nature intrinsèquement multimodale des données cliniques), permet une inférence efficace pour les charges de travail à  haut débit et offre une grande fenêtre de contexte capable de traiter confortablement de longs dossiers cliniques. Il figure également parmi les modèles à poids ouverts les plus adaptables disponibles, ce qui permet à Anterior d’adapter le  comportement du modèle selon les besoins grâce à la création d’invites et à des contraintes au niveau système, et d’explorer des modèles spécialisés plus petits, ajustés à des tâches cliniques spécifiques, plutôt que de s’appuyer uniquement sur des modèles à l’échelle frontière. 

L’utilisation de Llama sur Amazon Bedrock a permis à l’équipe de cliniciens et d’ingénieurs de l’entreprise de se concentrer sur la résolution du problème clinique plutôt que sur la gestion de l’infrastructure. Bedrock fournit une interface unifiée pour évaluer et déployer des modèles de fondation tout en s’intégrant directement aux environnements AWS. « De nombreux grands régimes d’assurance santé avec lesquels nous travaillons posent la même question : “Pouvons-nous exécuter l’IA sur des PHI dans notre environnement AWS ?” Les modèles Llama hébergés sur Bedrock nous permettent de répondre oui sans compromettre les performances », explique Anuj Iravane, responsable de l’IA appliquée chez Anterior. Bedrock préserve également la flexibilité : Anterior peut évaluer des modèles supplémentaires ou déployer des versions personnalisées et peaufinées à mesure que les besoins cliniques évoluent, sans reconstruire son architecture. 

Accélération des décisions cliniques et augmentation de l’efficacité opérationnelle

Sur un jeu de données de cas cliniques synthétiques sélectionnés par des cliniciens, Llama Maverick 17B et Llama Scout 17B ont tous deux atteint des performances de niveau production pour l’identification des documents cliniques. Les modèles ont égalé un modèle d’échelle frontière comptant des centaines de milliards de paramètres tout en étant plus efficaces, malgré l’utilisation de 17B paramètres actifs au sein d’architectures plus vastes. Ils ont assuré une couverture complète des pages, ce qui signifie que chaque page d’un dossier clinique a été attribuée exactement une fois, sans contenu perdu ni dupliqué. Les résultats ont été particulièrement solides pour l’extraction de métadonnées. Les modèles Llama ont égalé ou dépassé la référence frontière lorsqu’il s’agissait d’identifier des informations clés, comme l’auteur du document et sa description. La précision de l’identification de l’auteur a atteint 97 %, contre 93,5 % pour le modèle frontière, tandis que la fidélité des descriptions a atteint 98,4 %. « Nous avons été impressionnés », a déclaré Anuj Iravane. « Les modèles Llama sur Bedrock ont égalé notre référence frontière pour une fraction du coût et, en extraction de métadonnées, ils l’ont même surpassée. Vous n’avez pas besoin du plus gros modèle pour résoudre les problèmes les plus difficiles du secteur de la santé. » 

La latence était comparable d’un modèle à l’autre, mais les gains d’efficacité procurés à grande échelle par les modèles Llama plus compacts exécutés sur Bedrock s’additionnent. À mesure que les volumes de documents augmentent, Anterior peut traiter davantage de cas par unité de calcul, à un coût inférieur par document, sans sacrifier la précision. L’impact en aval sur les flux de travail de santé est significatif. Dans le cadre de l’examen des autorisations préalables, la plateforme Anterior réduit de 75 % le temps d’examen clinique manuel tout en maintenant une précision clinique de 99,24 %. Une étude de cas de KLAS Research a montré que le système réduisait le délai d’attente des patients pour l’approbation de soins contre le cancer, le faisant passer de plusieurs jours ou semaines à seulement 155 secondes. Pour une organisation régionale de santé couvrant environ un million de personnes, ces améliorations se traduisent par près de 30 millions de dollars d’économies opérationnelles annuelles. Une compréhension plus rapide des documents signifie au final des décisions cliniques plus rapides et un accès aux soins accéléré pour les patients. 

Anterior est passée de l’intégration initiale au déploiement en six semaines. Les modèles Llama font désormais partie du flux de travail d’identification documentaire en production de l’entreprise, au service de plusieurs grandes entreprises clientes. Les résultats ont également validé une approche architecturale plus large : des modèles plus petits à poids ouverts, hébergés sur Amazon Bedrock, peuvent rivaliser avec des modèles frontières généralistes dans les flux de travail du secteur de la santé. « Une grande partie du système de santé américain repose sur AWS », a déclaré Anuj Iravane. « Prouver que les modèles Llama sur Bedrock peuvent atteindre des performances de niveau frontière signifie que nos clients peuvent déployer plus vite, mieux maîtriser les coûts et conserver le niveau de sécurité qu’ils exigent. » 

Comment a été ce contenu ?