Pular para o conteúdo principal

Biblioteca de Soluções da AWS

Orientação para a criação de um avatar personalizado com o Amazon SageMaker

Visão geral

Esta Orientação demonstra como calibrar e implantar um modelo Stable Diffusion para gerar avatares personalizados com um simples prompt de texto. O Stable Diffusion é um modelo de conversão de texto em imagem gerado por um tipo de inteligência artificial (IA) que aproveita os últimos avanços em machine learning. Aqui, os modelos são criados pelo Amazon SageMaker e calibrados com a abordagem DreamBooth, que usa de 10 a 15 imagens do usuário para capturar os detalhes precisos da pessoa. O modelo gera um avatar personalizado que pode ser usado em uma variedade de aplicações, incluindo mídias sociais, jogos e eventos virtuais. A Orientação também inclui um recurso de prompts de texto que permite aos usuários gerar avatares com base em entradas de texto específicas. Esse recurso expande as capacidades das aplicações e fornece às organizações de mídia e entretenimento mais formas de desenvolver conteúdo personalizado, adaptado ao consumidor.

Esta Orientação fornece uma abordagem baseada em IA para ajudar organizações de mídia e entretenimento a desenvolver conteúdo personalizado e individualizado em grande escala. No entanto, os usuários desta Orientação devem tomar precauções para garantir que esses recursos de IA não sejam manipulados ou usados de forma abusiva. Acesse Safe image generation and diffusion models with Amazon AI content moderation services para saber como proteger o conteúdo por meio de um mecanismo de moderação adequado.

Como funciona

Esses detalhes técnicos apresentam um diagrama de arquitetura para ilustrar como usar essa solução com eficiência. O diagrama da arquitetura apresenta os principais componentes e suas interações, fornecendo uma visão geral da estrutura e do funcionamento da arquitetura, etapa por etapa.

Pilares do Well-Architected

O diagrama de arquitetura acima exemplifica a criação de uma solução pautada nas melhores práticas do Well-Architected. Para estar totalmente em conformidade com o Well-Architected, é necessário adotar o maior número possível de práticas recomendadas do Well-Architected.

    Os endpoints multimodelo do SageMaker e o Amazon CloudWatch são usados ao longo desta Orientação e projetados para aprimorar sua excelência operacional. Primeiro, os endpoints multimodelo do SageMaker permitem que você implante vários modelos por trás de um único endpoint, reduzindo o número de endpoints que você precisa gerenciar. O SageMaker gerencia modelos de carregamento e armazenamento em cache com base em seus padrões de tráfego. Você pode adicionar ou atualizar o modelo sem implantar novamente o endpoint. Basta fazer o upload dos modelos para o local gerenciado pelo SageMaker no Amazon S3. Além disso, o SageMaker se integra automaticamente ao CloudWatch, em que você pode rastrear métricas, eventos e arquivos de log do modelo e obter insights sobre a performance de seus modelos. Você também pode definir alarmes e monitorar de forma proativa possíveis problemas antes que eles impactem a experiência do cliente.

    Leia o whitepaper sobre excelência operacional

    O API Gateway fornece mecanismos integrados para autenticar e autorizar solicitações de API, prevenindo ataques de negação de serviço ou outros tipos de abuso que podem sobrecarregar os recursos de backend. Além disso, é possível usar grupos de usuários do Amazon Cognito, do OAuth 2.0 ou perfis do IAM para controlar o acesso às APIs. E para proteger os dados, o API Gateway garante que os dados que chegam ao seu endpoint sejam criptografados por SSL/TLS. Ele também é compatível com controle de utilização de APIs, ajudando a proteger suas APIs de tráfego excessivo ou uso abusivo. Considere ainda adicionar o AWS WAF, um firewall de aplicações web, como camada de proteção para o API Gateway a fim de proteger aplicações contra ataques e explorações da web. Por fim, considere o AWS Shield para proteger as workloads de ataques de negação de serviço distribuída (DDoS).

    Leia o whitepaper sobre segurança

    O API Gateway, o Lambda e o SageMaker são usados ao longo desta Orientação para aumentar a confiabilidade das workloads. Primeiro, o API Gateway fornece tolerância a falhas e ajuste de escala automático incorporados para lidar com picos de tráfego. Ele também se integra ao Lambda e ao SageMaker para facilitar a criação de APIs escaláveis e sem servidor. Além disso, o SageMaker foi projetado para fornecer alta confiabilidade e disponibilidade para executar workloads de machine learning e servir modelos de machine learning. Ele fornece ajuste de escala automático gerenciado, tolerância a falhas, verificações de integridade, monitoramento e diagnóstico. Ele é executado em uma infraestrutura distribuída em várias zonas de disponibilidade, garantindo alta disponibilidade. Esses recursos garantem a confiabilidade do treinamento de modelo e das inferências.

    Leia o whitepaper sobre confiabilidade

    O SageMaker é usado nesta Orientação para aprimorar a eficiência da performance, fornecendo um serviço de inferência de alta performance e baixa latência que pode ser usado para hospedar modelos de machine learning. É possível configurar de forma simples o tipo de instância, o número de instâncias e outras configurações de implantação para ajustar corretamente a workload de inferência, otimizando latência, throughput e custo.

    Leia o whitepaper sobre eficiência de performance

    Os endpoints multimodelo do SageMaker fornecem uma maneira escalável e com boa relação custo-benefício para implantar grandes quantidades de modelos. Esses endpoints usam o mesmo contêiner para hospedar todos os seus modelos, permitindo que você reduza a sobrecarga do gerenciamento de endpoints separados. Quando alguns dos modelos não são utilizados com tanta frequência, há compartilhamento de recursos para maximizar a utilização da infraestrutura e reduzir custos em relação à criação de endpoints separados. 

    Leia o whitepaper sobre otimização de custos

    A inferência assíncrona do SageMaker é uma funcionalidade que coloca as solicitações recebidas em fila e processa essas solicitações de forma assíncrona. Em outras palavras, o SageMaker pode reduzir automaticamente para zero instâncias quando não estiver sendo utilizado, economizando recursos de computação em períodos ociosos e contribuindo para reduzir o impacto ambiental das workloads na nuvem. 

    Leia o whitepaper sobre sustentabilidade

Recursos de implementação

O código de exemplo é um ponto de partida. Ele é validado para o setor, é um guia prescritivo, mas não definitivo, e mostra como tudo funciona para ajudar você a começar.
Abra o código de exemplo no GitHub

Conteúdo relacionado

AWS Machine Learning | Blog

Geração segura de imagens e modelos de difusão com os serviços de moderação de conteúdo de IA da Amazon

Esta publicação analisa a aplicação dos serviços de IA da AWS, como o Amazon Rekognition e o Amazon Comprehend, além de outras técnicas, na moderação eficiente de conteúdos gerados pelo modelo Stable Diffusion em tempo quase real.

Aviso de isenção de responsabilidade

O código de exemplo, as bibliotecas de software, as ferramentas de linha de comando, as provas de conceito, os modelos ou outra tecnologia relacionada (incluindo qualquer uma das anteriores fornecidas por nossa equipe) são fornecidos a você como Conteúdo da AWS nos termos do Contrato de Cliente da AWS ou o contrato por escrito pertinente entre você e a AWS (o que for aplicável). Você não deve usar esse Conteúdo da AWS em suas contas de produção, na produção ou em outros dados essenciais. Você é responsável por testar, proteger e otimizar o Conteúdo da AWS, como código de exemplo, conforme apropriado para uso em nível de produção com base em suas práticas e padrões específicos de controle de qualidade. A implantação de Conteúdo da AWS pode gerar cobranças da AWS para criar ou usar recursos cobráveis, como executar instâncias do Amazon EC2 ou usar armazenamento do Amazon S3.

Você encontrou o que estava procurando hoje?

Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas