Amazon Bedrock용 가드레인

애플리케이션 요구 사항 및 책임 있는 AI 정책에 맞게 사용자 지정된 보호 장치를 구현

Amazon Bedrock용 가드레일을 사용하여 책임감 있는 AI 애플리케이션을 구축하세요

파운데이션 모델(FM)을 사용해 사용자 지정 맞춤형 가드레일을 생성 및 적용하여 생성형 AI 애플리케이션 내에서 책임감 있는 AI 정책을 구현하는 방법에 대한 데모를 참조하세요.

모든 애플리케이션에 일관된 수준의 AI 안전 제공

Guardrails for Amazon Bedrock은 사용 사례별 정책을 기반으로 사용자 입력 및 FM 응답을 평가하고, 기본 FM과 관계없이 추가 계층의 보호를 제공합니다. 가드레일은 미세 조정된 모델을 비롯하여 Amazon Bedrock의 모든 대규모 언어 모델(LLM)에 적용할 수 있습니다. 고객은 각각 다른 제어 조합으로 구성된 여러 가드레일을 생성하고, 이 가드레일을 여러 애플리케이션과 사용 사례에 사용할 수 있습니다. 

UI 스크린샷

생성형 AI 애플리케이션에서 바람직하지 않은 주제 차단

적절하고 안전한 사용자 경험을 보장하려면 생성형 AI 애플리케이션 내의 상호 작용을 관리해야 합니다. 그러려면 비즈니스 관련 주제에 초점을 맞추고 회사 정책에 부합하도록 상호 작용을 추가로 맞춤화하는 것이 좋습니다. Guardrails for Amazon Bedrock에서는 짧은 자연어 설명을 사용하여 애플리케이션 컨텍스트 내에서 방지할 주제 세트를 정의할 수 있습니다. Guardrails는 제한된 주제에 해당하는 사용자 입력 및 FM 응답을 감지하고 차단합니다. 예를 들어 뱅킹 도우미를 설계할 때는 투자 조언과 관련된 주제를 피하도록 설계할 수 있습니다.

Guardrails for Amazon Bedrock 콘텐츠 필터

책임 있는 AI 정책에 따라 유해 콘텐츠 필터링

Guardrails for Amazon Bedrock은 혐오, 모욕, 성적인 내용, 폭력, 위법 행위(범죄 행위 포함), 프롬프트 공격(프롬프트 주입, 탈옥)과 같은 유해한 콘텐츠를 필터링할 수 있도록 임계값을 구성할 수 있는 콘텐츠 필터를 제공합니다. 대부분의 FM에는 유해한 응답의 생성을 차단하는 보호 기능이 기본적으로 포함되어 있습니다. Guardrails를 사용하면 이러한 보호 기능에 더해 여러 카테고리에 걸쳐 임계값을 구성하여 유해한 상호 작용을 필터링할 수 있습니다. 필터의 강도를 높이면 필터링될 가능성이 높아집니다. Guardrails는 사용자 쿼리와 FM 응답을 자동으로 평가하여 제한된 카테고리에 속하는 콘텐츠를 감지하고 차단하는 데 도움을 줍니다. 예를 들어 전자 상거래 사이트의 온라인 도우미를 설계할 때 증오 발언이나 욕설과 같은 부적절한 언어를 사용하지 않도록 설계할 수 있습니다.

Guardrails for Amazon Bedrock 거부된 주제

민감한 정보(PII)를 삭제하여 개인 정보 보호

Guardrails for Amazon Bedrock을 사용하면 사용자 입력 및 FM 응답에서 개인 식별 정보(PII)와 같은 민감한 내용을 감지할 수 있습니다. 사전 정의된 PII 목록에서 선택하거나 정규 표현식(정규식)을 사용하여 사용자 지정 민감 정보 유형을 정의할 수 있습니다. 사용 사례에 따라 민감한 정보가 포함된 입력을 선택적으로 거부하거나 FM 응답에서 삭제할 수 있습니다. 예를 들어 고객 센터 고객과 에이전트의 대화 내용을 요약할 때 사용자의 개인 정보를 수정할 수 있습니다.

가명화 및 GDPR 아이콘