Model Distillation (Destilación de modelos) de Amazon Bedrock ya está disponible en versión preliminar

Publicado en: 3 de dic de 2024

Con Model Distillation (Destilación de modelos) de Amazon Bedrock, los clientes pueden usar modelos más pequeños, rápidos y rentables que ofrecen una precisión específica para cada caso de uso comparable a la de los modelos más capaces de Amazon Bedrock.

Hoy en día, afinar un modelo más pequeño y rentable para aumentar su precisión para el caso de uso de los clientes es un proceso iterativo en el que los clientes deben escribir las peticiones y las respuestas, refinar el conjunto de datos de entrenamiento y asegurarse de que este capture diversos ejemplos, y ajustar los parámetros del entrenamiento.

Model Distillation (Destilación de modelos) de Amazon Bedrock automatiza el proceso necesario para generar datos sintéticos a partir del modelo de enseñanza, entrena y evalúa el modelo de aprendizaje y, a continuación, aloja el modelo destilado final para su inferencia. Para eliminar parte de la carga de la iteración, Model Distillation (Destilación de modelos) puede optar por aplicar los diferentes métodos de síntesis de datos que mejor se adapten a su caso de uso para crear un modelo destilado que coincida aproximadamente con el modelo avanzado para el caso de uso específico. Por ejemplo, Bedrock puede ampliar el conjunto de datos de entrenamiento al generar peticiones similares o respuestas sintéticas de alta calidad utilizando los pares petición-respuesta proporcionados por el cliente como ejemplos base.

Para obtener más información al respecto, consulte nuestra documentación y el blog.