Automated-Reasoning-Prüfungen beinhalten jetzt die Generierung von Q&A-Tests in natürlicher Sprache
AWS kündigt die Einführung der Generierung von Fragen und Antworten in natürlicher Sprache für Automated-Reasoning-Prüfungen in Amazon Bedrock Guardrails an. Automated-Reasoning-Prüfungen verwenden formale Verifizierungstechniken, um die Genauigkeit und Richtlinienkonformität der Ergebnisse generativer KI-Modelle zu überprüfen. Die Automated-Reasoning-Prüfungen erkennen korrekte Antworten von LLMs mit einer Genauigkeit von bis zu 99 % und bieten Ihnen somit nachweisbare Sicherheit bei der Erkennung von KI-Halluzinationen. Gleichzeitig unterstützen sie Sie bei der Erkennung von Mehrdeutigkeiten in Modellantworten.
Um mit Automated-Reasoning-Prüfungen zu beginnen, erstellen und testen Kunden Automated-Reasoning-Richtlinien mithilfe von Dokumenten sowie Beispielfragen und Antworten in natürlicher Sprache. Automated-Reasoning-Prüfungen generieren bis zu N Test-Q&As pro Richtlinie, wobei der Inhalt des Eingabedokuments verwendet wird. Dadurch wird der Arbeitsaufwand reduziert, der von der ersten Richtliniengenerierung bis zur produktionsreifen, verfeinerten Richtlinie erforderlich ist.
Die Testgenerierung für Automated-Reasoning-Prüfungen ist jetzt in den Regionen USA (Nord-Virginia), USA (Ohio), USA (Oregon), Europa (Frankfurt), Europa (Irland) und Europa (Paris) verfügbar. Kunden können über die Amazon Bedrock-Konsole sowie über das Amazon Bedrock Python SDK auf den Dienst zugreifen.
Um mehr über Automated-Reasoning-Prüfungen und deren Integration Ihre generativen KI-Workflows zu erfahren, lesen Sie die Amazon-Bedrock-Dokumentation, die Tutorials im AWS-KI-Blog und besuchen Sie die Bedrock-Guardrails-Webseite.