Amazon Bedrock Prompt Management ist jetzt allgemein verfügbar

Veröffentlicht am: 7. Nov. 2024

Anfang dieses Jahres haben wir Amazon Bedrock Prompt Management als Vorschauversion eingeführt, um das Erstellen, Testen, Versionieren und Freigeben von Prompts zu vereinfachen. Wir haben es jetzt allgemein verfügbar gemacht und mehrere wichtige Features neu hinzugefügt. Zunächst haben wir die Möglichkeit eingeführt, in Ihrem AWS-Konto gespeicherte Prompts auf einfache Weise auszuführen. Die Amazon Bedrock Laufzeit-APIs Converse und InvokeModel unterstützen jetzt das Ausführen eines Prompts mit einer Prompt-ID. Als Nächstes können Sie, während des Erstellens und Speicherns der Prompts, neben der in der Vorschau verfügbaren Modellauswahl und Inferenzkonfiguration nun auch System-Prompt, mehrere Benutzer-/Assistentenmeldungen und Tool-Konfiguration angeben. Dies ermöglicht es fortgeschrittenen Prompt-Engineers, Funktionen bestimmter Modellfamilien wie die der Claude-Modelle von Anthropic für Funktionsaufrufe zu nutzen. Sie können jetzt Prompts für Bedrock Agents zusätzlich zu den Basismodellen speichern. Wir haben außerdem die Möglichkeit eingeführt, zwei Versionen eines Prompts zu vergleichen, um die Unterschiede zwischen Versionen schnell zu überprüfen. Schlussendlich unterstützen wir jetzt benutzerdefinierte Metadaten, die gemeinsam mit den Prompts über das Bedrock SDK gespeichert werden, sodass Sie Metadaten wie Autor, Team, Abteilung usw. speichern können, um die Anforderungen an das Prompt-Management Ihres Unternehmens zu erfüllen.

Amazon Bedrock ist ein vollständig verwalteter Service, der eine Auswahl an leistungsstarken, großen Sprachmodellen (LLMs) und anderen FMs von führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI sowie Amazon über eine einzige API bietet.

Weitere Informationen dazu finden Sie hier und in unserer Dokumentation. Lesen Sie unseren Blog darüber hier.