La gestione prompt di Amazon Bedrock è ora disponibile al pubblico
All'inizio dell'anno abbiamo lanciato in anteprima la gestione prompt di Amazon Bedrock per semplificare la creazione, il test, il controllo delle versioni e la condivisione dei prompt. Oggi le rendiamo disponibili al pubblico, introducendo alcune nuove funzionalità chiave. Innanzitutto, stiamo presentando la possibilità di eseguire facilmente i prompt memorizzati nel proprio account AWS. Le API per il runtime di Amazon Bedrock, Converse e InvokeModel, ora supportano l'esecuzione di un prompt utilizzando un identificatore di prompt. Inoltre, durante la creazione e l'archiviazione dei prompt, ora è possibile specificare il prompt di sistema, più messaggi utente/assistente e la configurazione degli strumenti oltre alla scelta del modello e alla configurazione dell'inferenza disponibili in anteprima. Questa opzione permette agli esperti di prompt di sfruttare le funzionalità di chiamata di funzioni offerte da alcune famiglie di modelli, come i modelli Claude di Anthropic. Ora puoi archiviare i prompt per gli agenti Bedrock oltre che per i modelli di fondazione, e abbiamo anche introdotto la possibilità di confrontare due versioni di un prompt per esaminare rapidamente le differenze tra le versioni. Infine, ora supportiamo l'archiviazione dei metadati personalizzati con i prompt tramite Bedrock SDK, che consente di archiviare metadati come autore, team, reparto, ecc. per soddisfare le esigenze aziendali relativamente alle gestione dei prompt.
Amazon Bedrock è un servizio completamente gestito che offre una scelta di modelli linguistici di grandi dimensioni (LLM) ad alte prestazioni e altri FM di aziende leader nel campo dell'intelligenza artificiale come AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI e Amazon tramite un'unica API.
Ulteriori informazioni sono disponibili qui e nella nostra documentazione. Leggi il nostro blog qui.