Amazon Bedrock Model Distillation, 평가판으로 사용 가능
Amazon Bedrock Model Distillation을 사용하면 Amazon Bedrock에서 가장 성능이 뛰어난 모델에 필적하는 사용 사례별 정확도를 제공하는 더 작고 더 빠르며 더 비용 효율적인 모델을 사용할 수 있습니다.
현재, 고객 사용 사례의 정확도를 높이기 위해 비용 효율적인 소규모 모델을 미세 조정하는 작업은 반복 프로세스로, 고객이 프롬프트와 응답을 작성하고, 훈련 데이터세트를 미세 조정하고, 훈련 데이터세트에 다양한 예시가 포함되도록 하고, 훈련 파라미터를 조정해야 합니다.
Amazon Bedrock Model Distillation은 교사 모델로부터 합성 데이터를 생성하는 데 필요한 프로세스를 자동화하고, 학생 모델을 훈련 및 평가한 다음, 추론을 위해 증류된 최종 모델을 호스팅합니다. Model Distillation은 반복의 부담을 덜기 위해 다양한 데이터 합성 방법 중 사용 사례에 가장 적합한 방법을 적용하여 특정 사용 사례의 고급 모델과 거의 일치하는 증류된 모델을 생성할 수 있습니다. 예를 들어 Bedrock은 유사한 프롬프트를 생성하여 훈련 데이터세트를 확장하거나, 고객이 제공한 프롬프트 응답 쌍을 골든 예시로 사용하여 고품질의 합성 응답을 생성할 수 있습니다.
자세한 내용은 설명서와 블로그를 참조하세요.