O blog da AWS
Realizando inferências de IA de forma mais econômica usando os recursos sem servidor do Amazon Bedrock com um modelo treinado no Amazon SageMaker.
Este post foi escrito Joseph Sadler, Arquiteto de Soluções Sênior na equipe do Setor Público Mundial na AWS, blog original em inglês.
Neste post, mostrarei como usar o Amazon Bedrock – com sua API totalmente gerenciada e sob-demanda – em conjunto com os modelos treinados previamente no Amazon SageMaker.
Amazon Bedrock é um serviço totalmente gerenciado que oferece diversas opções de modelos fundacionais (FMs) de alta performance disponibilizados pelas principais empresas de IA, como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI e Amazon através de uma única API, além de fornecer um amplo conjunto de recursos para criar aplicações de IA generativa com segurança, privacidade e IA responsável.
Anteriormente, se você quisesse utilizar seus próprios modelos customizados e ajustados (fine-tuned) no Amazon Bedrock, você teria que gerenciar a infraestrutura de inferência no Amazon SageMaker ou treinar os modelos diretamente no Amazon Bedrock, sendo necessário realizar o provisionamento de throughput.
Com a opção de impotar modelos customizados – Amazon Bedrock Custom Model Import – você pode usar modelos novos ou existentes que tenham sido treinados ou ajustados (fine-tuned) com o Amazon SageMaker usando o Amazon SageMaker JumpStart. Você pode importar as arquiteturas suportadas para o Amazon Bedrock, permitindo acessá-las sob demanda e totalmente gerenciado pelo Amazon Bedrock, através da API invoke model.
Visão geral da solução:
No momento em que este documento foi escrito, o Amazon Bedrock suporta a importação de modelos personalizados nas regiões de N. da Virgínia e Oregon e para as seguintes arquiteturas:
- Mistral
- Flan
- Meta Llama 2 e Llama 3
Para este post, vamos utilizar o modelo Hugging Face Flan-T5 Base.
Nas sessões a seguir, vou mostrar os passos para treinar um modelo no SageMaker JumpStart e importá-lo para o Amazon Bedrock. Em seguida, você poderá interagir com seu modelo personalizado através dos playgrounds do Amazon Bedrock.
Pré-requisitos:
Antes de começar, verifique que você possui acesso a uma conta AWS com acesso ao Amazon SageMaker Studio e ao Amazon Bedrock.
Caso ainda não tenha nenhuma instância do SageMaker Studio, siga as instruções de como Inciar o Amazon SageMaker Studio.
Treinando um modelo no SageMaker JumpStart
Complete os passos abaixo para treinar o modelo Flan no SageMaker JumpStart:
1. Abra a console de gerencialmento da AWS e abra o SageMaker Studio
2. No SageMaker Studio, escolha JumpStart no painel de navegação.
Com o SageMaker JumpStart, os profissionais de machine learning (ML) podem escolher entre uma ampla seleção de modelos fundacionais (FMs) publicamente disponíveis usando soluções de machine learning pré-construídas que podem ser implantadas em alguns cliques.
3. Pesquise e selecione o modelo Hugging Face Flan-T5 Base
Na página de detalhes do modelo escolhido, você pode revisar uma breve descrição do modelo, como implantá-lo, como ajustá-lo e em qual formato seus dados de treinamento precisam estar para personalizar o modelo.
4. Escolhar Train para iniciar o ajuste fino (fine-tuning) do modelo nos seus dados de treinamento.
Crie o trabalho de treinamento mantendo as configurações padrões. As configurações padrão preenchem o trabalho de treinamento com configurações recomendadas.
5. O exemplo neste post usa um conjunto de dados de exemplo pré-preenchido. Ao usar seus próprios dados, insira sua localização na seção Data , garantindo que atenda aos requisitos de formato do modelo.
6. Configure as configurações de segurança como as funções (role) no AWS Identity and Access Management (IAM), virtual private cloud (VPC), e criptografia.
7. Anote o valor do Local do artefato de saída (URI do S3) – Output artifact location (S3 URI) – para usar mais tarde.
8. Envie o trabalho para iniciar o treinamento.
Você pode monitorar seu trabalho selecionando Training no menu suspenso Jobs. Quando o status do trabalho de treinamento mostrar como Completed, o trabalho terminou. Com as configurações padrão, o treinamento leva cerca de 10 minutos.
Importando o modelo para o Amazon Bedrock
Após o modelo ter concluído o treinamento, você pode importá-lo para o Amazon Bedrock. Complete as seguintes etapas:
1. Na console do Amazon Bedrock, escolha Imported models em Foundation models no painel de navegação.
2. Escolha Import model.
3. Para Model name, insira um nome reconhecível para seu modelo.
4. Em Model import settings, selecione a opção Amazon SageMaker model
5. Em Service access, selecione Create and use a new service role e insira um nome para essa função.
6. Escolha Import model.
7. A importação do modelo será concluída em cerca de 15 minutos.
8. Em Playgrounds no painel de navegação, escolha Text.
9. Escolha Select model.
10. Para Category, escolha Imported models.
11. Para Model escolha flan-t5-fine-tuned.
12. Para Throughput, escolha On-demand.
13. Escolha Apply.
Agora você já pode interagir com seu modelo customizado. Na imagem abaixo, estamos utilizando o nosso modelo customizado de exemplo para sumarizar a descrição do Amazon Bedrock.
Deletando os recursos
Complete as seguintes etapas para remover seus recursos:
1. Se você não for continuar utilizando o SageMaker, delete seu domínio do SageMaker.
2. Se você não quiser manter os artefatos do modelo gerado, delete o Amazon Simple Storage Service (Amazon S3) bucket onde os artefatos do modelo forão armazenados.
3. Para excluir o modelo quie foi importado no Amazon Bedrock, na página de Imported models na console do Amazon Bedrock, selecione seu modelo e, em seguida, escolha o menu de opções (três pontos) e selecione Delete.
Conclusão
Neste post, exploramos como o recurso de Importação de Modelo Customizado (Custom Model Import) no Amazon Bedrock permite que você utilize sues róprios modelos treinados ou ajustados (fine-tuned) para fazer inferências sob demanda e com eficiência de custos. Ao integrar as capacidades de treinamenteo de modelos do SageMaker com a infraestrutura totalmente gerenciada e escalável do Amazon Bedrock, você tem uma maneira simplificada de implantar seus modelos customizados e torná-los acessíveis através de uma API simples.
Caso você prefira a console amigável do SageMaker Studio ou a flexibilidade do SageMaker notebooks, você pode treinar e importar seus modelos no Amazon Bedrock. Isso permite que você foque no desenvolvimento de aplicações e soluções inovadoras, sem se preocupar com a complexidade do gerenciamento de infrastrutura necessário para aprendizado de máquina.
À medida que os large language models (LLM) continuam evoluindo, a habilidade de integrar modelos customizados em suas aplicações se tornam muito valiosas. Com o recurso de Importação de Modelo Personalizado do Amazon Bedrock, você agora pode desbloquear todo o potencial de seus modelos especializados e oferecer experiências personalizadas aos seus clientes, tudo isso beneficiando-se da escalabilidade e eficiência de custos de um serviço totalmente gerenciado.
Para aprofundar-se no ajuste fino (fine-tuning) do SageMaker, consulte as Instruções de ajuste fino para FLAN T5 XL com Amazon SageMaker Jumpstart. Para obter mais experiência prática com Amazon Bedrock, confira nosso workshop Construindo com Amazon Bedrock.
Sobre o Autor
![]() |
Joseph Sadler é Arquiteto de Soluções Sênior na equipe do Setor Público Mundial na AWS, especializado em cibersegurança e aprendizado de máquina. Com experiência nos setores público e privado, ele possui expertise em segurança na nuvem, inteligência artificial, detecção de ameaças e resposta a incidentes. Sua formação diversificada o ajuda a arquitetar soluções robustas e seguras que utilizam tecnologias de ponta para proteger sistemas de missão crítica. |
Sobre o tradutor
![]() |
Ariane Vieira trabalha com TI há 9 anos e atualmente na equipe do Setor Público Brasil na AWS, onde atua apoiando os clientes em projetos de data lake e generative IA, assim como migração e modernização. Anteriormente trabalhou no setor financeiro em projetos de inovação em canais digitais para o contato com os clientes, adquirindo experiencia em sistemas distribuídos, de mensageira em ambientes on-premises e realizando migrações para AWS. |