게시된 날짜: Apr 23, 2024

오늘 AWS는 고객이 사용 사례와 책임감 있는 AI 정책에 따라 대규모 언어 모델(LLM) 전반에서 보호 조치를 구현할 수 있는 Guardrails for Amazon Bedrock 기능의 정식 버전을 발표했습니다. 고객은 다양한 사용 사례에 맞는 여러 가드레일을 생성하고 여러 LLM에 적용하여 일관된 사용자 경험을 제공하고 생성형 AI 애플리케이션 전반에 걸쳐 안전 제어를 표준화할 수 있습니다.

많은 FM이 유해 콘텐츠를 필터링하는 기본 제공 보호 기능을 갖추고 있지만, 고객은 상호 작용을 더욱 맞춤화하여 생성형 AI 애플리케이션을 보호하고 정확하고 안전한 사용자 경험을 제공하고자 합니다. Guardrails은 생성형 AI 애플리케이션에서 사용자 상호 작용을 관리하기 위한 포괄적인 안전 및 개인 정보 보호 제어 세트를 제공합니다. 첫째, 고객은 애플리케이션 컨텍스트 내에서 바람직하지 않은 일련의 거부 주제를 정의할 수 있습니다. 둘째, 임계값을 구성하여 혐오, 모욕, 성적인 내용, 폭력, 위법 행위(범죄 행위 포함), 프롬프트 공격(탈옥 및 프롬프트 주입)과 같은 유해 범주에 해당하는 콘텐츠를 필터링할 수 있습니다. 셋째, 고객은 애플리케이션에서 차단할 불쾌하고 부적절한 단어 집합을 정의할 수 있습니다. 마지막으로 고객은 사용 사례에 따라 민감한 정보(예: 개인 식별 정보)가 포함된 사용자 입력을 필터링하거나 모델 응답에서 기밀 정보를 삭제할 수 있습니다.

Guardrails은 Amazon Bedrock에서 모든 LLM 및 미세 조정된 모델의 영어 콘텐츠에 지원됩니다. Guardrails for Amazon Bedrock은 미국 동부(버지니아 북부) 및 미국 서부(오레곤) 리전에서 사용할 수 있습니다.

Guardrails for Amazon Bedrock에 대해 자세히 알아보려면 기능 페이지로 이동하거나 뉴스 블로그를 참조하세요.