AWS annonce l'intégration d'Amazon Redshift à Amazon Bedrock pour l'IA générative

Publié le: 30 oct. 2024

AWS annonce l'intégration d'Amazon Redshift à Amazon Bedrock, un service entièrement géré proposant des modèles de fondation (FM) performants qui vous permettent de créer plus facilement et plus rapidement des applications d'IA générative. Cette intégration vous permet de tirer parti de grands modèles de langage (LLM) à partir de simples commandes SQL et de vos données dans Amazon Redshift.

Grâce à cette nouvelle fonctionnalité, vous pouvez désormais effectuer facilement des tâches d'IA générative telles que la traduction linguistique, la génération de texte, la synthèse, la classification des clients et l'analyse des sentiments sur vos données Redshift à l'aide de machines virtuelles populaires telles que Anthropic Claude, Amazon Titan, Llama 2 et Mistral AI. Tout d'abord, votre administrateur Redshift ajoute une stratégie pour invoquer les modèles Bedrock dans le rôle IAM dans votre espace de noms ou cluster Redshift sans serveur. Ensuite, vous pouvez simplement utiliser la commande CREATE EXTERNAL MODEL pour pointer vers un LLM dans Amazon Bedrock, sans nécessiter d’entraînement ou de provisionnement du modèle. Vous pouvez invoquer ces modèles à l'aide de commandes SQL familières, ce qui facilite plus que jamais l'intégration de fonctionnalités d'IA générative dans vos flux de travail d'analytique des données. L'utilisation de grands modèles de langage (LLM) avec Amazon Redshift ML n'entraîne aucun frais supplémentaire pour Amazon Redshift au-delà de la tarification standard d'Amazon Bedrock.

L'intégration d'Amazon Redshift à Amazon Bedrock est désormais généralement disponible dans toutes les régions où Amazon Bedrock et Amazon Redshift ML sont pris en charge. Pour commencer, consultez la documentation Amazon Redshift relative au machine learning et la page produit d’Amazon Bedrock.