投稿日: Apr 23, 2024

本日、Amazon Bedrock のガードレールの一般提供について発表します。これにより、お客様は自社のユースケースと責任ある AI ポリシーに基づいて、大規模言語モデル (LLM) 全体で保護を実装できます。さまざまなユースケースに合わせて複数のガードレールを作成し、それらを複数の LLM に適用することで、一貫したユーザーエクスペリエンスを提供し、生成 AI アプリケーション全体で安全管理を標準化できます。

多くの FM には有害なコンテンツをフィルタリングする保護機能が組み込まれていますが、ユーザーは生成 AI アプリケーションを保護して適切で安全なユーザーエクスペリエンスを実現するために、インタラクションをさらに調整したいと考えています。ガードレールは、生成 AI アプリケーションにおけるユーザーインタラクションを管理するための包括的な安全およびプライバシーのコントロールを提供します。まず、アプリケーションのコンテキストにおいて望ましくない一連の拒否トピックを定義できます。次に、ヘイト、侮辱、性的、暴力、不正行為 (犯罪行為を含む)、プロンプト攻撃 (ジェイルブレイクやプロンプトインジェクション) などの有害なカテゴリ全体でコンテンツをフィルタリングするしきい値を設定できます。第三に、攻撃的で不適切な言葉を定義して、アプリケーション内でブロックすることができます。最後に、機密情報 (個人を特定できる情報など) を含むユーザー入力をフィルタリングしたり、ユースケースに基づいてモデル回答内の機密情報を編集したりできます。

ガードレールは、Amazon Bedrock のすべての LLM と微調整されたモデルの英語コンテンツでサポートされています。Amazon Bedrock のガードレールは、米国東部 (バージニア北部) および米国西部 (オレゴン) リージョンでご利用いただけます。

Amazon Bedrock のガードレールの詳細については、特集ページニュースブログをご覧ください。