Gerenciamento de Prompts do Amazon Bedrock já está disponível ao público em geral
No início deste ano, lançamos a pré-visualização do Gerenciamento de Prompts do Amazon Bedrock para simplificar a criação, o teste, o versionamento e o compartilhamento de prompts. Hoje, estamos anunciando a disponibilidade geral desse recurso e adicionando vários outros recursos importantes. Primeiro, estamos introduzindo a capacidade de executar facilmente os prompts armazenados em sua conta da AWS. Agora, as APIs Converse e InvokeModel do runtime do Amazon Bedrock oferecem suporte à execução de um prompt com o uso de um identificador de prompt. Além disso, quando cria e armazena prompts, você já pode especificar o prompt do sistema, várias mensagens de usuário/assistente e a configuração de ferramentas, bem como a escolha do modelo e da configuração de inferência disponíveis na pré-visualização. Isso permite que engenheiros avançados de prompts utilizem os recursos de chamadas de funções fornecidos por determinadas famílias de modelos, como os modelos Claude da Anthropic. Você também já pode armazenar prompts para agentes do Bedrock além dos modelos de base e comparar duas versões de um prompt para analisar rapidamente as diferenças entre elas. Por fim, passamos a oferecer suporte ao armazenamento de metadados personalizados com os prompts por meio do SDK do Bedrock, permitindo que você armazene metadados como autor, equipe, departamento etc. para atender às necessidades de gerenciamento de prompts da empresa.
O Amazon Bedrock é um serviço totalmente gerenciado que oferece uma variedade de grandes modelos de linguagem (LLMs) de alta performance e outros modelos de base (FMs) das principais empresas de IA, como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI e Amazon, por meio de uma única API.
Saiba mais aqui e na documentação. Leia nosso blog aqui.