Amazon Bedrock Model Distillation est désormais disponible en version préliminaire
Avec Amazon Bedrock Model Distillation, les clients peuvent utiliser des modèles plus petits, plus rapides et plus économiques qui offrent une précision spécifique à chaque cas d'utilisation comparable à celle des modèles les plus performants d'Amazon Bedrock.
Aujourd'hui, la mise au point d'un modèle plus petit et rentable afin d'augmenter sa précision en fonction du cas d'utilisation d'un client est un processus itératif dans lequel les clients doivent rédiger des instructions et des réponses, affiner le jeu de données d’entraînement, s'assurer que celui-ci capture divers exemples et ajuster les paramètres d'entraînement.
Amazon Bedrock Model Distillation automatise le processus nécessaire pour générer des données synthétiques à partir du modèle enseignant, entraîne et évalue le modèle de l'étudiant, puis héberge le modèle distillé final à des fins d'inférence. Pour alléger la charge liée à l'itération, Model Distillation peut choisir d'appliquer différentes méthodes de synthèse de données les mieux adaptées à votre cas d'utilisation afin de créer un modèle distillé qui correspond approximativement au modèle avancé pour le cas d'utilisation spécifique. Par exemple, Bedrock peut étendre le jeu de données de formation en générant des invites similaires ou générer des réponses synthétiques de haute qualité en utilisant les paires de réponses promptes fournies par le client comme exemples de référence.
Pour en savoir plus, reportez-vous à notre documentation ainsi qu’au blog.