Veröffentlicht am: Apr 23, 2024
Heute kündigen wir die allgemeine Verfügbarkeit von Guardrails für Amazon Bedrock an, das es Kunden ermöglicht, Schutzmaßnahmen für große Sprachmodelle (LLM) auf der Grundlage ihrer Anwendungsfälle und verantwortungsvollen KI-Richtlinien zu implementieren. Kunden können mehrere Integritätsschutzmaßnahmen erstellen, die auf unterschiedliche Anwendungsfälle zugeschnitten sind, und sie auf mehrere LLMs anwenden, um eine konsistente Benutzererfahrung zu gewährleisten und die Sicherheitskontrollen für alle generativen KI-Anwendungen zu standardisieren.
Viele Basismodelle (FM) verfügen über integrierte Sicherheitsfunktionen zum Filtern schädlicher Inhalte. Kunden wünschen jedoch zusätzliche Interaktionsmöglichkeiten, um ihre generativen KI-Anwendungen wirksam zu schützen und das Nutzererlebnis zu verbessern. Guardrails bietet umfassende Sicherheits- und Datenschutzkontrollen zur Verwaltung von Benutzerinteraktionen in generativen KI-Anwendungen. Erstens können Kunden eine Reihe von verweigerten Themen definieren, die im Kontext ihrer Anwendung unerwünscht sind. Zweitens können sie Schwellenwerte konfigurieren, um Inhalte nach schädlichen Kategorien wie Hass, Beleidigungen, Sexualität, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und Prompt-Angriffe (Jailbreak und Prompt-Injections) zu filtern. Drittens können Kunden eine Reihe von anstößigen und unangemessenen Wörtern definieren, die in ihrer Anwendung blockiert werden sollen. Schließlich können Kunden Benutzereingaben filtern, die vertrauliche Informationen (z. B. persönlich identifizierbare Informationen) enthalten, oder vertrauliche Informationen in Modellantworten auf der Grundlage von Anwendungsfällen redigieren.
Guardrails wird für englischsprachige Inhalte in allen LLM und fein abgestimmten Modellen auf Amazon Bedrock unterstützt. Guardrails für Amazon Bedrock ist in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar.
Weitere Informationen zu Guardrails für Amazon Bedrock finden Sie auf der Feature-Seite und im News-Blog.