메인 콘텐츠로 건너뛰기

AI

책임 있는 AI 이론을 실행에 옮기기

선한 영향력으로서의 AI의 안전하고 책임 있는 개발 촉진

AWS에서 책임 있게 AI 구축

생성형 AI의 급속한 성장은 유망하고 혁신적인 신기술을 가져오는 동시에 새로운 과제를 제기합니다. AWS는 교육, 과학, 고객을 우선시하는 사람 중심의 접근 방식으로 책임감을 가지고 AI를 개발하고, 엔드 투 엔드 AI 수명 주기 전반에 걸쳐 책임 있는 AI를 통합하기 위해 최선을 다하고 있습니다.

Missing alt text value

책임 있는 AI의 핵심 요소

공정성

다양한 이해 관계자 그룹에 미치는 영향 고려

설명 가능성

시스템 출력의 이해 및 평가

프라이버시 및 보안

데이터 및 모델의 적절한 획득, 사용 및 보호

안전

유해한 시스템 출력 및 오용 방지

제어 가능성

AI 시스템 동작을 모니터링하고 조정하는 메커니즘 보유

진실성 및 견고성

예상치 못한 입력이나 적대적인 입력이 있더라도 정확한 시스템 출력 달성

거버넌스

공급업체 및 배포자를 포함한 AI 공급망에 모범 사례 통합

투명성

이해관계자가 AI 시스템 사용에 대해 정보에 입각한 선택을 할 수 있도록 지원

서비스 및 도구

AWS는 AI 시스템을 책임 있게 설계, 구축, 운영하는 데 도움이 되는 서비스와 도구를 제공합니다.

생성형 AI에 보호 기능 구현

Amazon Bedrock Guardrails를 사용하면 생성형 AI 애플리케이션에 맞게 조정되고 책임 있는 AI 정책에 부합하는 보호 기능을 구현할 수 있습니다. Guardrails는 FM의 기본 보호 기능 외에도 사용자 지정 가능한 추가 보호 기능을 제공하여 다음과 같이 업계 최고의 안전성을 보장합니다.

  • 유해 콘텐츠 최대 85% 차단
  • RAG 및 요약 워크로드에 대한 할루시네이션 응답 75% 이상 필터링
  • 고객이 단일 솔루션 내에서 안전성, 개인정보 보호 및 진실성 보장을 사용자 정의하고 적용할 수 있도록 지원
Missing alt text value

파운데이션 모델(FM) 평가

Amazon Bedrock의 모델 평가를 사용하면 정확도, 견고성, 유해성 등의 사용자 지정 지표를 기준으로 특정 사용 사례에 가장 적합한 FM을 평가, 비교, 선택할 수 있습니다. 또한 모델 평가에 Amazon SageMaker Clarifyfmeval을 사용할 수 있습니다.

Missing alt text value

편향 감지 및 예측 설명

편향은 여러 그룹 간 데이터의 불균형 또는 모델의 성능 차이를 의미합니다. Amazon SageMaker Clarify는 특정 속성을 조사함으로써 데이터 준비 작업 중, 모델 훈련 직후, 배포된 모델에서 잠재적인 편향을 감지하여 편향을 완화하는 데 도움이 됩니다.

모델의 동작을 이해하는 것은 더 정확한 모델을 개발하고 더 나은 결정을 내리는 데 중요합니다. Amazon SageMaker Clarify를 사용하면 모델 동작에 대한 가시성이 높아지므로 이해 관계자에게 투명하게 보여주고, 의사 결정권자에게 정보를 제공하며, 모델이 의도한 대로 작동하는지 추적할 수 있습니다.

Amazon SageMaker Clarify 살펴보기

Missing alt text value

모니터링 및 인적 검토

모니터링은 고품질 기계 학습(ML) 모델을 유지하고 정확한 예측을 보장하는 데 중요합니다. Amazon SageMaker Model Monitor는 배포된 모델의 부정확한 예측을 자동으로 감지하고 알려줍니다. 또한 Amazon SageMaker Ground Truth를 사용하면 ML 수명 주기 전반에 걸쳐 사람의 피드백을 적용하여 모델의 정확성과 관련성을 개선할 수 있습니다.

Missing alt text value

거버넌스 개선

Amazon SageMaker의 ML 거버넌스는 ML 모델에 대한 더 엄격한 제어 및 가시성을 제공함으로써 ML 프로젝트의 거버넌스를 개선하기 위해 특별히 구축된 도구를 제공합니다. 모델 정보를 쉽게 캡처 및 공유하고 편향과 같은 모델 동작에 대한 정보를 모두 한곳에서 확인할 수 있습니다.

Missing alt text value

AWS AI 서비스 카드

AI 서비스 카드는 AI 서비스 및 모델에 대한 의도된 사용 사례 및 제한 사항, 책임 있는 AI 설계 선택 사항, 성능 최적화 모범 사례에 대한 정보를 한곳에서 찾을 수 있도록 제공하여 투명성을 강화하는 리소스입니다.

사용 가능한 서비스 카드 살펴보기

Missing alt text value

커뮤니티의 참여와 협업

AWS는 OECD AI 실무 그룹, Partnership on AI, Responsible AI Institute와 같은 다중 이해 관계자 조직과의 긴밀한 연계와 글로벌 규모 대학과의 전략적 파트너십을 통해 다른 이들과 협력함으로써 AI 및 ML 기술을 책임감 있게 개발하고 신뢰를 쌓기 위해 최선을 다하고 있습니다.

AWS는 AI & ML Scholarship 프로그램We Power Tech와 같은 프로그램을 통해 사람 중심의 접근 방식으로 차세대 AI 리더를 교육함으로써 기술 분야에서 소외된 사람들을 위한 실무 학습, 장학금, 멘토십에 대한 접근성을 높입니다.

안전하고 투명하며 책임 있는 생성형 AI에 대한 투자에는 G7의 AI 히로시마 프로세스 행동강령, 영국에서 열린 AI 안전 서밋, 책임 있는 AI를 발전시키기 위한 새로운 기본 표준인 ISO 42001 지원 등 글로벌 커뮤니티 및 정책 입안자와의 협업이 포함됩니다. AWS는 지속적인 혁신을 지원하는 동시에 시민권을 보호하는 효과적인 위험 기반 AI 규제 프레임워크의 개발을 지원합니다.

책임 있는 AI는 Amazon의 활발한 연구 개발 분야입니다. 캘리포니아 공과대학과 같은 학계 및 Amazon Scholars와 전략적 파트너십을 맺고 있으며, 여기에는 학술 연구를 적용하여 Amazon의 책임 있는 AI 워크스트림을 형성하는 데 도움을 주는 선도적인 전문가도 포함됩니다.

AWS는 고객과 함께 혁신합니다. Amazon Research Awards를 통한 지속적인 연구 보조금과 Amazon Science의 과학 간행물을 통해 새로운 트렌드 및 연구를 선도하여 가치를 제공합니다. 새롭게 떠오르는 주요 과제와 솔루션을 다루는 이 Amazon Science 블로그에서 생성형 AI를 책임 있게 구축하는 데 필요한 과학에 대해 자세히 알아보세요.

책임 있는 AI 리소스