게시된 날짜: Apr 18, 2024

오늘부터 Meta Llama 모델의 차세대 버전인 Llama 3를 Amazon SageMaker JumpStart에서 사용할 수 있습니다. Amazon SageMaker JumpStart는 ML을 빠르게 시작할 수 있도록 사전 훈련된 모델, 기본 제공 알고리즘 및 사전 구축된 솔루션을 제공하는 기계 학습(ML) 허브입니다. SageMaker Studio에서 몇 번의 클릭으로 또는 SageMaker Python SDK를 통해 프로그래밍 방식으로 이 Llama 3 파운데이션 모델을 배포하고 사용할 수 있습니다.

Llama 3는 다양한 파라미터 크기(8B 및 70B)로 제공되며 추론, 코드 생성 및 명령 따르기 기능이 개선되어 광범위한 사용 사례를 지원하는 데 사용할 수 있습니다. Llama 3는 디코더 전용 트랜스포머 아키텍처와 향상된 모델 성능을 제공하는 새로운 토크나이저를 사용합니다. 또한 Meta의 향상된 훈련 후 프로시저는 허위 거부율을 크게 줄이고 정렬을 개선하며 모델 응답의 다양성을 높였습니다. 이제 SageMaker Pipelines, SageMaker Debugger 또는 컨테이너 로그와 같은 Amazon SageMaker 기능을 사용하여 Llama 3 성능과 MLOps 제어의 이점을 결합하여 활용할 수 있습니다. 이 모델은 VPC가 제어하는 AWS 보안 환경에 배포되어 데이터 보안을 보장합니다.

Llama 3 파운데이션 모델은 현재 미국 동부(오하이오), 미국 서부(오레곤), 미국 동부(버지니아 북부), 아시아 태평양(도쿄) 및 유럽(아일랜드) AWS 리전의 SageMaker JumpStart에서 우선적으로 사용할 수 있습니다. SageMaker JumpStart를 통해 Llama 3 파운데이션 모델을 시작하려면 설명서블로그를 살펴보세요.