Amazon Bedrock Prompt Management est désormais disponible généralement

Publié le: 7 nov. 2024

Plus tôt cette année, nous avons lancé Amazon Bedrock Prompt Management en version préliminaire afin de simplifier la création, les tests, la gestion des versions et le partage des invites. Aujourd'hui, nous annonçons sa disponibilité générale et ajoutons plusieurs nouvelles fonctionnalités clés. Tout d'abord, nous introduisons la possibilité d'exécuter facilement des invites stockées dans votre compte AWS. Les API Amazon Bedrock Runtime Converse et InvokeModel prennent désormais en charge l'exécution d'une invite à l'aide d'un identifiant Prompt. Ensuite, lors de la création et du stockage des invites, vous pouvez désormais spécifier l'invite du système, plusieurs messages utilisateur/assistant et la configuration des outils, en plus du choix du modèle et de la configuration d'inférence disponibles dans la version préliminaire. Cela permet aux ingénieurs avancés de tirer parti des fonctionnalités d'appel de fonctions fournies par certaines familles de modèles telles que les modèles Anthropic Claude. Vous pouvez désormais stocker des invites pour les agents Bedrock en plus des modèles de fondation, et nous avons également introduit la possibilité de comparer deux versions d'une invite afin de passer rapidement en revue les différences entre les versions. Enfin, nous prenons désormais en charge le stockage des métadonnées personnalisées avec les instructions via le kit SDK Bedrock, ce qui vous permet de stocker des métadonnées telles que l'auteur, l'équipe, le département, etc. pour répondre aux besoins de votre entreprise en matière de gestion des rapides.

Amazon Bedrock est un service entièrement géré qui propose un choix de grands modèles de langage (LLM) et d'autres FM très performants issus de grandes sociétés d'IA telles que AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI et Amazon via une seule API.

Pour en savoir plus, cliquez ici et consultez notre documentation. Lisez notre blog ici.