AWS anuncia a integração do Amazon Redshift com o Amazon Bedrock para IA generativa

Publicado: 30 de out de 2024

A AWS anuncia a integração do Amazon Redshift com o Amazon Bedrock, um serviço totalmente gerenciado que oferece modelos de base (FMs) de alta performance, simplificando e agilizando a criação de aplicações de IA generativa. Essa integração permite que você utilize grandes modelos de linguagem (LLMs) a partir de comandos SQL simples com dados no Amazon Redshift.

Com esse novo recurso, você já pode realizar facilmente tarefas de IA generativa, como tradução de idiomas, geração de texto, resumo, classificação de clientes e análise de sentimentos em dados do Redshift usando FMs populares como Anthropic Claude, Amazon Titan, Llama 2 e Mistral AI. Primeiro, o administrador do Redshift adiciona uma política para invocar modelos do Bedrock no perfil do IAM em um namespace ou cluster do Redshift sem servidor. Em seguida, você pode simplesmente usar o comando CREATE EXTERNAL MODEL para apontar para um LLM no Amazon Bedrock, sem necessidade de treinamento ou provisionamento de modelos. Você pode invocar esses modelos usando comandos SQL familiares, facilitando ainda mais a integração de recursos de IA generativa a fluxos de trabalho de data analytics. Você não incorre em cobranças adicionais do Amazon Redshift pelo uso de grandes modelos de linguagem (LLMs) com o Amazon Redshift ML além dos preços padrão do Amazon Bedrock.

A integração do Amazon Redshift com o Amazon Bedrock já está disponível ao público em geral em todas as regiões que têm suporte para o Amazon Bedrock e o Amazon Redshift ML. Para começar a usar, acesse a documentação de machine learning do Amazon Redshift e a página de produto do Amazon Bedrock.