AWS kündigt Amazon-Redshift-Integration mit Amazon Bedrock für generative KI an
AWS kündigt die Integration von Amazon Redshift mit Amazon Bedrock an, einem vollständig verwalteten Service, der leistungsstarke Basismodelle (FMs) bietet, mit denen Sie generative KI-Anwendungen einfacher und schneller erstellen können. Diese Integration ermöglicht es Ihnen, große Sprachmodelle (LLMs) aus einfachen SQL-Befehlen zusammen mit Ihren Daten in Amazon Redshift zu nutzen.
Mit diesem neuen Feature können Sie jetzt ganz einfach generative KI-Aufgaben wie Sprachübersetzung, Textgenerierung, Zusammenfassung, Kundenklassifizierung und Stimmungsanalyse für Ihre Redshift-Daten mithilfe gängiger FMs wie Anthropic Claude, Amazon Titan, Llama 2 und Mistral AI ausführen. Zunächst fügt Ihr Redshift-Administrator eine Richtlinie zum Aufrufen von Bedrock-Modellen in der IAM-Rolle zu Ihrem Redshift Serverless-Namespace oder -Cluster hinzu. Anschließend können Sie einfach den Befehl CREATE EXTERNAL MODEL verwenden, um auf ein LLM in Amazon Bedrock zu verweisen, ohne dass ein Modelltraining oder eine Bereitstellung erforderlich ist. Sie können diese Modelle mit vertrauten SQL-Befehlen aufrufen, sodass es einfacher denn je ist, generative KI-Funktionen in Ihre Datenanalytik-Workflows zu integrieren. Für die Verwendung von großen Sprachmodellen (LLMs) mit Amazon Redshift ML fallen keine zusätzlichen Amazon Redshift-Gebühren an, die über die Standardpreise von Amazon Bedrock hinausgehen.
Die Amazon-Redshift-Integration mit Amazon Bedrock ist jetzt in allen Regionen allgemein verfügbar, in denen Amazon Bedrock und Amazon Redshift ML unterstützt werden. Weitere Informationen finden Sie in der Dokumentation zum Machine Learning in Amazon Redshift und auf der Produktseite von Amazon Bedrock.