La vérification du raisonnement automatisé inclut désormais la génération de questions-réponses à des tests de langage naturel

Publié le: 21 nov. 2025

AWS annonce le lancement de la génération de questions-réponses à des tests de langage naturel pour les vérifications du raisonnement automatisé dans Amazon Bedrock Guardrails. La vérification du raisonnement automatisé utilise des techniques de vérification formelles pour valider l'exactitude et la conformité aux stratégies des résultats des modèles d'IA générative. La vérification du raisonnement automatisé offre une précision allant jusqu'à 99 % pour détecter les réponses correctes des LLM, ce qui vous donne une assurance vérifiable lors de la détection des hallucinations provoquées par l'IA tout en aidant à détecter les ambiguïtés dans les réponses des modèles.

Pour commencer à utiliser la vérification du raisonnement automatisé, les clients créent et testent des stratégies de raisonnement automatique à l'aide de documents en langage naturel et d'exemples de questions-réponses. La vérification du raisonnement automatisé génère jusqu'à N tests de questions-réponses pour chaque stratégie en utilisant le contenu du document d'entrée, réduisant ainsi le travail nécessaire pour passer de la génération initiale de la stratégie à une stratégie affinée prête à la production.

La génération de test pour la vérification du raisonnement automatisé est désormais disponible de manière générale dans les régions USA (Virginie du Nord), USA (Ohio), USA (Oregon), Europe (Francfort), Europe (Irlande) et Europe (Paris). Les clients peuvent accéder au service via la console Amazon Bedrock ainsi que le kit SDK Amazon Bedrock pour Python.

Pour en savoir plus sur la vérification du raisonnement automatisé et sur la manière dont vous pouvez les intégrer à vos flux de travail d'IA générative, consultez la documentation relative à Amazon Bedrock, les didacticiels sur le blog AWS AI et la page Web Barrières de protection de Bedrock.