Manajemen Prompt Amazon Bedrock sekarang tersedia secara umum
Awal tahun ini, kami meluncurkan Manajemen Prompt Amazon Bedrock dalam pratinjau untuk menyederhanakan pembuatan, pengujian, penentuan versi, dan berbagi prompt. Hari ini, kami mengumumkan ketersediaan umum dan menambahkan beberapa fitur utama baru. Pertama, kami memperkenalkan kemampuan untuk menjalankan prompt yang disimpan di akun AWS Anda dengan mudah. Amazon Bedrock Runtime API Converse dan InvokeModel sekarang mendukung eksekusi prompt menggunakan pengenal Prompt. Selanjutnya, saat membuat dan menyimpan prompt, Anda sekarang dapat menentukan prompt sistem, beberapa pesan pengguna/asisten, dan konfigurasi alat selain pilihan model dan konfigurasi inferensi yang tersedia dalam pratinjau - ini memungkinkan teknisi prompt tingkat lanjut untuk memanfaatkan kemampuan panggilan fungsi yang disediakan oleh keluarga model tertentu seperti model Anthropic Claude. Anda sekarang dapat menyimpan petunjuk untuk Agen Bedrock selain Model Fondasi, dan kami juga telah memperkenalkan kemampuan untuk membandingkan dua versi prompt untuk meninjau perbedaan antar versi dengan cepat. Akhirnya, kami sekarang mendukung metadata khusus untuk disimpan dengan prompt melalui Bedrock SDK, memungkinkan Anda menyimpan metadata seperti penulis, tim, departemen, dll. untuk memenuhi kebutuhan manajemen prompt perusahaan Anda.
Amazon Bedrock adalah layanan yang dikelola sepenuhnya yang menawarkan pilihan model bahasa besar (LLM) berkinerja tinggi dan FM lainnya dari perusahaan AI terkemuka seperti AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI, serta Amazon melalui satu API.
Pelajari lebih lanjut di sini dan dalam dokumentasi kami. Baca blog kami di sini.