Guardrails for Amazon Bedrock, 책임 있는 AI를 위한 정책 기반 시행 발표

게시된 날짜: 2025년 3월 18일

Guardrails for Amazon Bedrock은 대규모로 안전한 생성형 AI 애플리케이션을 구축하기 위한 Identity and Access Management(AWS IAM) 정책 기반 시행 기능을 발표했습니다. 새로운 이 기능을 사용하는 고객은 모델 추론 직접 호출에 특정 가드레일을 적용하여 모든 AI 상호 작용에 책임 있는 AI 정책이 적용되도록 할 수 있습니다. Guardrails for Amazon Bedrock은 바람직하지 않은 콘텐츠를 탐지하고 필터링할 수 있는 구성 가능한 보호 장치, 특정 주제를 정의하고 불허하는 주제 필터, 개인 식별 정보(PII)를 편집하는 민감한 정보 필터, 특정 단어를 차단하는 단어 필터를 제공하고, 모델 응답의 근거 및 관련성을 탐지하여 모델 할루시네이션을 탐지하고, 자동 추론 검사를 사용하여 모델 응답에서 사실적 주장을 식별, 수정, 설명하는 기능을 제공합니다. Guardrails는 Amazon Bedrock으로 호스팅되는 모델, 자체 호스팅 모델, ApplyGuardRail API를 사용하는 Bedrock 이외의 서드 파티 모델 등 모든 파운데이션 모델에 적용할 수 있어 일관된 사용자 경험을 제공하고 안전 및 개인 정보 보호 제어를 표준화할 수 있습니다.

오늘부터 Guardrails for Amazon Bedrock은 IAM 정책에서 사용할 수 있는 새로운 조건 키인 bedrock:GuardrailIdentifier를 제공하여 관련 정책을 통해 특정 가드레일을 사용하도록 강제할 수 있습니다. 이 새로운 조건 키는 모든 Bedrock Invoke 및 Converse API에 적용할 수 있습니다. IAM 정책에 구성된 가드레일이 지정된 가드레일과 일치하지 않으면 요청이 거부되어 조직의 책임 있는 AI 정책을 준수할 수 있습니다.

책임 있는 AI 정책을 준수하기 위한 IAM 정책 기반 시행 기능은 현재 Guardrails for Amazon Bedrock이 지원되는 모든 AWS 리전에서 사용할 수 있습니다.

기술 설명서Guardrails for Amazon Bedrock 제품 페이지에서 자세한 내용을 알아보세요.