Amazon Web Services 한국 블로그
Amazon Bedrock, 18개 완전관리형 오픈웨이트 모델 추가 (신규 Mistral Large 3 및 Ministral 3 모델 포함)
오늘 Amazon Bedrock에서 Google, Mistral AI, NVIDIA, OpenAI, Qwen의 완전 관리형 오픈 가중치 모델 18개가 추가로 출시되었습니다. 여기에는 새로운 Mistral Large 3 및 Ministral 3 3B, 8B, 14B 모델이 포함됩니다.
이번 출시를 통해 Amazon Bedrock은 이제 약 100개의 서버리스 모델을 제공하며, 선도적인 AI 기업들의 광범위하고 심층적인 모델을 제공하므로 고객은 고유한 요구 사항에 가장 적합한 기능을 정확하게 선택할 수 있습니다. 고객의 요구 사항과 기술 발전을 면밀히 모니터링하여, 고객 요구 사항과 기술 발전에 따라 엄선된 모델 목록을 정기적으로 확장하여 유망한 신규 모델과 업계에서 이미 선호되는 기존 모델을 포함합니다.
차별화된 고성능 모델 오퍼링의 이 같은 지속적인 확장은 고객이 AI 혁신에서 앞서가는 데 도움이 됩니다. 통합 API를 통해 Amazon Bedrock에서 이러한 모델에 액세스하고, 애플리케이션을 다시 작성하거나 인프라를 변경하지 않고도 새로운 모델을 평가, 전환 및 채택할 수 있습니다.
새로운 Mistral AI 모델
다음 네 가지 Mistral AI 모델은 현재 Amazon Bedrock에서 먼저 이용 가능하며, 각 모델은 다양한 성능 및 비용 요구 사항에 맞게 최적화되어 있습니다.
- Mistral Large 3 – 이 개방형 가중치 모델은 긴 컨텍스트, 멀티모달 및 명령 신뢰성에 최적화되어 있습니다. 장문 문서 이해, 에이전트 및 도구 사용 워크플로, 엔터프라이즈 지식 작업, 코딩 지원, 수학 및 코딩 작업과 같은 고급 워크로드, 다국어 분석 및 처리, 비전을 활용한 멀티모달 추론에 탁월합니다.
- Ministral 3 3B – Ministral 3 제품군 중 가장 작은 모델로, 강력한 언어 및 비전 기능을 갖추고 단일 GPU 배포에 최적화된 엣지 컴퓨팅 환경을 제공합니다. 이미지 캡션, 텍스트 분류, 실시간 번역, 데이터 추출, 짧은 콘텐츠 생성 그리고 엣지 또는 리소스가 부족한 디바이스에서의 경량 실시간 애플리케이션에서 강력한 성능을 보여줍니다.
- Ministral 3 8B – 텍스트 및 비전을 위한 동급 최고의 Ministral 3 모델은 고성능과 최소 설치 공간으로 단일 GPU 배포에 최적화된 엣지 컴퓨팅 환경을 제공합니다. 이 모델은 제약이 있는 환경에서의 채팅 인터페이스, 이미지 및 문서 설명 및 이해, 특수 에이전트 사용 사례 그리고 로컬 또는 임베디드 시스템의 균형 잡힌 성능에 적합합니다.
- Ministral 3 14B – 가장 뛰어난 Ministral 3 모델은 단일 GPU 배포에 최적화된 최첨단 텍스트 및 비전 성능을 제공합니다. 고급 기능이 실질적인 하드웨어 제약 조건을 충족하는 고급 로컬 에이전트 사용 사례 및 프라이빗 AI 배포를 활용할 수 있습니다.
더 많은 오픈 가중치 모델 옵션
다음과 같은 오픈 모델을 산업 전반의 다양한 사용 사례에 사용할 수 있습니다.
| 모델 제공업체 | 모델 이름 | 설명 | 사용 사례 |
| Gemma 3 4B | 노트북에서 로컬로 실행되는 효율적인 텍스트 및 이미지 모델입니다. 온디바이스 AI 애플리케이션에 대한 다국어 지원입니다. | 모바일 및 엣지 애플리케이션을 위한 온디바이스 AI, 개인정보 보호 기반의 로컬 추론, 다국어 채팅 도우미, 이미지 캡션 및 설명, 경량 콘텐츠 생성 | |
| Gemma 3 12B | 워크스테이션을 위한 균형 잡힌 텍스트 및 이미지 모델입니다. 개인정보 보호 기반의 애플리케이션을 위한 로컬 배포를 통한 다국어 이해입니다. | 워크스테이션 기반 AI 애플리케이션, 엔터프라이즈를 위한 로컬 배포, 다국어 문서 처리, 이미지 분석 및 Q&A, 그리고 개인 정보 보호 기반 AI 도우미 | |
| Gemma 3 27B | 엔터프라이즈 애플리케이션을 위한 강력한 텍스트 및 이미지 모델입니다. 개인정보 보호 및 제어를 위한 로컬 배포를 통한 다국어 지원입니다. | 엔터프라이즈 로컬 배포, 고성능 멀티모달 애플리케이션, 고급 이미지 이해, 다국어 고객 서비스, 데이터 보호 기반의 AI 워크플로 | |
| Moonshot AI | Kimi K2 Thinking | 도구를 사용하면서 생각하는 심층 추론 모델입니다. 수백 개의 순차적 작업이 필요한 연구, 코딩 및 복잡한 워크플로를 처리합니다. | 계획, 다단계 워크플로, 데이터 분석 및 계산, 연구를 통한 긴 형식의 콘텐츠 제작이 필요한 복잡한 코딩 프로젝트 |
| MiniMax AI | MiniMax M2 | 코딩 에이전트 및 자동화를 위해 구축되었습니다. 다중 파일 편집, 터미널 작업, 긴 도구 직접 호출 체인의 효율적인 실행에 탁월합니다. | 코딩 에이전트 및 통합 개발 환경(IDE) 통합, 다중 파일 코드 편집, 터미널 자동화 및 DevOps, 긴 체인 도구 오케스트레이션, 에이전트 소프트웨어 개발 |
| Mistral AI | Magistral Small 1.2 | 효율적인 로컬 배포를 위한 비전 기능을 통해 수학, 코딩, 다국어 작업 및 멀티모달 추론에 탁월합니다. | 수학 및 코딩 작업, 다국어 분석 및 처리, 비전을 통한 멀티모달 추론 |
| Voxtral Mini 1.0 | 트랜스크립션, 다국어 지원, Q&A, 요약 및 함수 직접 호출이 포함된 고급 오디오 이해 모델입니다. | 음성으로 제어되는 애플리케이션, 빠른 음성을 텍스트로 변환, 오프라인 음성 어시스턴트 | |
| Voxtral Small 1.0 | 동급 최고의 텍스트 성능과 최첨단 오디오 입력 기능을 제공하며, 음성 전사, 번역 및 이해에 탁월합니다. | 엔터프라이즈 음성 트랜스크립션, 다국어 고객 서비스, 오디오 콘텐츠 요약 | |
| NVIDIA | NVIDIA Nemotron Nano 2 9B | 하이브리드 트랜스포머 Mamba 설계를 기반으로 한 고효율 LLM으로 추론 및 에이전트 작업에 탁월합니다. | 추론, 도구 직접 호출, 수학, 코딩 및 지침 수행 |
| NVIDIA Nemotron Nano 2 VL 12B | 비디오 이해 및 문서 인텔리전스를 위한 고급 멀티모달 추론 모델로, 검색 증강 생성(RAG) 및 멀티모달 에이전트 애플리케이션을 지원합니다. | 다중 이미지 및 비디오 이해, 시각적 Q&A, 요약 | |
| OpenAI | gpt-oss-safeguard-20b | 사용자 지정 정책을 적용하는 콘텐츠 안전 모델입니다. 유해 콘텐츠를 분류하고 신뢰 및 안전 워크플로에 대한 설명을 제공합니다. | 콘텐츠 조정 및 안전 분류, 사용자 지정 정책 적용, 사용자 생성 콘텐츠 필터링, 신뢰 및 안전 워크플로, 자동화된 콘텐츠 분류 |
| gpt-oss-safeguard-120b | 복잡한 조정을 위한 대규모 콘텐츠 안전 모델입니다. 기업 신뢰 및 안전 팀을 위해 세부적인 추론을 기반으로 맞춤형 정책을 적용합니다. | 대규모 엔터프라이즈 콘텐츠 조정, 복잡한 정책 해석, 다층적 안전 분류, 규정 준수 검사, 고위험 콘텐츠 검토 | |
| Qwen | Qwen3-Next-80B-A3B | 매우 긴 문서에 대한 하이브리드 어텐션을 통한 빠른 추론입니다. RAG 파이프라인, 도구 사용 및 빠른 응답을 제공하는 에이전트 워크플로에 최적화되어 있습니다. | 긴 문서가 포함된 RAG 파이프라인, 도구 직접 호출을 통한 에이전트 워크플로, 코드 생성 및 소프트웨어 개발, 확장된 컨텍스트를 활용한 다중 차례 전환 대화, 다국어 콘텐츠 생성 |
| Qwen3-VL-235B-A22B | 이미지와 비디오를 이해합니다. 문서에서 텍스트를 추출하고, 스크린샷을 작업 코드로 변환하고, 인터페이스를 통한 클릭을 자동화합니다. | 이미지 및 PDF에서 텍스트 추출, UI 디자인 또는 스크린샷을 작업 코드로 변환, 애플리케이션의 클릭 및 탐색 자동화, 비디오 분석 및 이해, 차트 및 다이어그램 읽기 |
공개적으로 사용 가능한 모델을 구현할 때는 프로덕션 환경의 데이터 개인정보 보호 요구 사항을 신중하게 고려하고, 출력의 편향을 확인하고, 데이터 보안, 책임 있는 AI 및 모델 평가를 위해 결과를 모니터링해야 합니다.
Amazon Bedrock의 엔터프라이즈급 보안 기능에 액세스하고 Amazon Bedrock Guardrails를 사용하여 애플리케이션 요구 사항 및 책임 있는 AI 정책에 맞게 맞춤화된 보호 기능을 구현할 수 있습니다. 또한 Amazon Bedrock 모델 평가 도구를 사용하여 모델을 평가 및 비교하여 사용 사례에 가장 적합한 모델을 파악할 수 있습니다.
시작하려면 Amazon Bedrock 콘솔의 플레이그라운드에서 몇 가지 프롬프트를 사용하여 이러한 모델을 빠르게 테스트하거나 AWS SDK를 사용하여 InvokeModel 및 Converse API에 대한 액세스를 포함할 수 있습니다. Amazon Bedrock을 지원하는 모든 에이전트 프레임워크와 함께 이러한 모델을 사용하고 Amazon Bedrock AgentCore 및 Strands Agents를 사용하여 에이전트를 배포할 수도 있습니다. 자세히 알아보려면 Amazon Bedrock 사용 설명서에서 AWS SDK를 사용하는 Amazon Bedrock의 코드 예를 참조하세요.
정식 출시
전체 리전 목록에서 새 모델의 이용 가능 여부 및 향후 업데이트를 확인하거나 리전별 AWS 기능의 AWS CloudFormation 리소스 탭에서 모델 이름을 검색하세요. 더 자세히 알아보려면 Amazon Bedrock 제품 페이지와 Amazon Bedrock 요금 페이지를 확인하세요.
지금 Amazon Bedrock 콘솔에서 이러한 모델을 사용해 보고 Amazon Bedrock용 AWS re:Post 또는 평소 연락하는 AWS Support 담당자를 통해 피드백을 보내주세요.
– Channy
