Veröffentlicht am: Mar 29, 2024
Wir freuen uns, Ihnen mitteilen zu können, dass Sie in den Wissensdatenbanken für Amazon Bedrock jetzt benutzerdefinierte Prompts erstellen können, um die vom Basismodell (FM) generierten Antworten besser kontrollieren zu können. Darüber hinaus können Sie die Anzahl der abgerufenen Passagen konfigurieren, was die Genauigkeit verbessert, indem dem FM zusätzlicher Kontext zur Verfügung gestellt wird.
Prompts wirken sich erheblich darauf aus, wie FMs Informationen verarbeiten und Antworten generieren. Mit benutzerdefinierten Prompts können Sie die Anweisungen für die Aufforderung anpassen, indem Sie Kontext-, Benutzereingabe- oder Ausgabeindikatoren hinzufügen, damit das Modell Antworten generiert, die den Anforderungen Ihres Anwendungsfalls besser entsprechen. Sie können beispielsweise die Ausgabesprache und das Format definieren (z. B. „Erstelle die Antwort auf Spanisch“) und sparen sich den Aufwand, separate Nachbearbeitungs- und Orchestrierungsschritte einzurichten. Benutzerdefinierte Prompts sind ein optionaler Parameter, ohne den Standard-Prompts des Systems verwendet werden.
Darüber hinaus können Benutzer jetzt die Menge an Informationen kontrollieren, die für eine endgültige Antwort erforderlich sind, indem sie die Anzahl der abgerufenen Passagen anpassen. Der Vorgang, bei dem lange Eingabetexte in kleinere Segmente oder Passagen aufgeteilt werden, wird als Chunking bezeichnet. Bisher gab die Retrieve API beim Abfragen einer Wissensdatenbank bis zu fünf Chunks zurück. Wissensdatenbanken unterstützen jetzt bis zu hundert abgerufene Chunks, sodass relevantere und umfassendere Informationen abgerufen werden können.
Diese beiden Funktionen sind jetzt in den AWS-Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar. Weitere Informationen finden Sie in der Dokumentation zu Wissensdatenbanken für Amazon Bedrock. Um loszulegen, nutzen Sie die Amazon Bedrock-Konsole oder die RetrieveAndGenerate API und die Retrieve API.