메인 콘텐츠로 건너뛰기

Amazon Bedrock

Amazon Bedrock Guardrails

애플리케이션 요구 사항 및 책임 있는 AI 정책에 맞게 사용자 지정된 보호 장치를 구현

Guardrails를 사용하여 책임 있는 AI 애플리케이션을 구축

Amazon Bedrock Guardrails는 대규모 생성형 AI 애플리케이션을 안전하게 구축하는 데 도움이 되는 구성 가능한 보호 기능을 제공합니다. Amazon Bedrock에서 지원되는 FM, 미세 조정 모델, Amazon Bedrock 외부에 호스팅된 모델을 포함하여 광범위한 파운데이션 모델(FM)에서 사용되는 일관되고 표준적인 접근 방식을 통해 Guardrails는 다음과 같은 업계 최고의 안전 보호 기능을 제공합니다.

  • 자동 추론을 사용해 올바른 모델 응답을 최대 99%의 정확도로 식별하여 AI 할루시네이션을 최소화합니다. 이를 달성한 최초이자 유일한 생성형 AI 보호 장치입니다.
  • 업계 최고의 텍스트 및 이미지 콘텐츠 보호 기능으로 고객이 유해한 멀티모달 콘텐츠를 최대 88%까지 차단하도록 지원

Remitly, Amazon Bedrock을 사용하여 속도와 신뢰로 고객 지원을 혁신

KONE, Amazon Bedrock을 통해 책임 있는 AI 현장 서비스 강화

모든 생성형 AI 애플리케이션과 모델 전반에 걸쳐 일관된 수준의 안전성 제공

Guardrails은 최고 클라우드 제공업체의 유일한 책임 있는 AI 기능으로, 생성형 AI 애플리케이션을 위한 안전, 개인 정보 보호, 진실성 보호 기능을 구축하고 사용자 지정할 수 있도록 지원합니다. 이 기능은 사용 사례별 정책에 기반해 사용자 입력과 모델 응답을 평가하여 기본적으로 제공되는 수준 이상의 추가적인 안전장치 계층을 제공합니다. Guardrails의 안전장치는 ApplyGuardrail API를 통해 Amazon Bedrock에서 호스팅되는 모델이나 각종 타사 모델(예: OpenAI 및 Google Gemini)에 적용할 수 있습니다. Guardrails은 Amazon Bedrock AgentCore를 사용해 배포된 에이전트를 포함해 Strands Agents와 같은 에이전트 프레임워크와 함께 사용할 수도 있습니다. Guardrails은 RAG 콘텐츠를 기준으로 컨텍스트 근거 검사를 통해 할루시네이션을 필터링하고 사실성 정확도를 개선하며, 자동 추론 검사를 통해 입증 가능한 진실된 응답을 제공합니다. 자세한 내용은 Amazon Bedrock Guardrails 구현에 대한 단계별 가이드를 참조하세요.

상황별 근거 확인을 사용해 모델 응답에서 할루시네이션 감지

고객은 사용자의 신뢰를 유지하고 강화하기 위해 진실되고 신뢰할 수 있는 생성형 AI 애플리케이션을 배포해야 합니다. 그러나 FM은 할루시네이션(예: 소스 정보에서 벗어나거나, 여러 정보를 혼합하거나, 새로운 정보를 생성하는 등)으로 인해 잘못된 정보를 생성할 수 있습니다. Guardrails는 응답이 소스 정보에 근거하지 않고(예: 사실적으로 부정확하거나 새로운 정보) 사용자의 쿼리 또는 명령과 관련이 없는 경우 할루시네이션을 감지하고 필터링할 수 있도록 상황별 근거 확인을 지원합니다. 상황별 근거 확인은 RAG, 요약 및 대화형 애플리케이션에서 할루시네이션을 감지하는 데 도움이 될 수 있으며, 소스 정보를 참조로 사용하여 모델 응답을 검증할 수 있습니다.

Missing alt text value

자동 추론 검사는 올바른 모델 응답을 최대 99%의 정확도로 식별하여 할루시네이션을 최소화합니다.

Amazon Bedrock Guardrails의 자동 추론 검사는 응답이 올바른 이유를 설명하는 논리적으로 정확하고 검증 가능한 추론을 사용하여 할루시네이션으로 인한 사실 오류를 방지하는 데 도움이 되는 최초이자 유일한 생성형 AI 보호 기능입니다. 자동 추론은 생성된 정보를 검증/수정, 논리적으로 설명하는 건전한 수학적 기법을 사용하여 할루시네이션을 완화하는 데 도움이 됩니다. 그 결과 알려진 사실과 일치하고 조작되거나 일관되지 않은 데이터를 기반으로 하지 않는 출력이 도출됩니다. 개발자는 HR 가이드라인 또는 운영 매뉴얼과 같이 적절한 솔루션 공간을 정의하는 기존 문서를 업로드하여 자동 추론 정책을 생성할 수 있습니다. 그러면 Amazon Bedrock은 자동 추론 정책을 생성하고 사용자에게 이를 테스트하고 개선하는 과정을 안내합니다. 자동 추론 정책에 따라 생성된 콘텐츠를 검증하려면 사용자는 Guardrails에서 정책을 활성화하고 자동 추론 정책 목록을 사용하여 정책을 구성해야 합니다. 이 로직 기반 알고리즘 검증 프로세스는 모델에서 생성된 정보가 알려진 사실과 일치하는지, 조작되거나 일치하지 않는 데이터를 기반으로 하지 않는지 확인합니다. 이러한 검사는 생성형 AI 모델에서 입증할 수 있는 정확한 응답을 제공하므로 소프트웨어 공급업체는 HR, 재무, 법률, 규정 준수 등의 사용 사례에 대한 애플리케이션의 신뢰성을 개선할 수 있습니다. 자세한 내용은 동영상 자습서를 참조하세요.

생성형 AI 애플리케이션에서 원하지 않은 주제 차단

조직 리더는 적절하고 안전한 사용자 경험을 보장하기 위해 생성형 AI 애플리케이션 내의 상호 작용을 관리해야 합니다. 그러려면 비즈니스 관련 주제에 초점을 맞추고 회사 정책에 부합하도록 상호 작용을 추가로 사용자 지정하는 것이 좋습니다. Guardrails에서는 짧은 자연어 설명을 사용하여 애플리케이션 컨텍스트 내에서 지양할 주제 세트를 정의할 수 있습니다. Guardrails는 제한된 주제에 해당하는 사용자 입력 및 FM 응답을 감지하고 차단하는 데 도움이 됩니다. 예를 들어 뱅킹 도우미를 설계할 때는 투자 조언과 관련된 주제를 피하도록 설계할 수 있습니다.

Missing alt text value

책임 있는 AI 정책에 따라 유해한 멀티모달 콘텐츠 필터링

Guardrails는 유해한 텍스트 및 이미지 콘텐츠에 대해 구성 가능한 임계값을 포함하는 콘텐츠 필터를 제공합니다. 보호 장치는 증오 발언, 모욕, 성적, 폭력, 위법 행위(범죄 행위 포함) 등의 주제를 포함하는 유해 멀티모달 콘텐츠를 필터링하고 프롬프트 공격(프롬프트 인젝션 및 탈옥)으로부터 보호하는 데 도움이 됩니다. 콘텐츠 필터는 사용자 입력과 모델 응답을 모두 자동으로 평가하여 원하지 않거나 유해할 수 있는 텍스트 및/또는 이미지를 탐지하고 지양하도록 지원합니다. 예를 들어 전자 상거래 사이트의 온라인 도우미를 설계할 때 증오 발언이나 욕설과 같은 부적절한 언어를 사용하지 않도록 설계할 수 있습니다.

Missing alt text value

PII와 같은 민감한 정보를 수정하여 개인 정보 보호

Guardrails를 사용하면 사용자 입력 및 FM 응답에서 개인 식별 정보(PII)와 같은 민감한 내용을 감지할 수 있습니다. 사전 정의된 PII 목록에서 선택하거나 정규 표현식(RegEx)을 사용하여 사용자 지정 민감 정보 유형을 정의할 수 있습니다. 사용 사례에 따라 민감한 정보가 포함된 입력을 선택적으로 거부하거나 FM 응답에서 삭제할 수 있습니다. 예를 들어 고객 센터 고객과 에이전트의 대화 내용을 요약할 때 사용자의 개인 정보를 수정할 수 있습니다.

Missing alt text value

오늘 원하는 내용을 찾으셨나요?

페이지의 콘텐츠 품질을 개선할 수 있도록 피드백을 보내주십시오.