- Machine Learning›
- Amazon SageMaker AI›
- Perguntas frequentes
Perguntas frequentes sobre o Amazon SageMaker AI
Tópicos da página
Geral
Abrir tudoO Amazon SageMaker AI é um serviço totalmente gerenciado que reúne um amplo conjunto de ferramentas para oferecer machine learning (ML) de alta performance e baixo custo para qualquer caso de uso. Com o SageMaker AI você pode criar, treinar e implantar modelos de ML em grande escala usando ferramentas como cadernos, depuradores, perfiladores, pipelines, MLOps e muito mais, tudo em um ambiente de desenvolvimento integrado (IDE). O SageMaker AI oferece suporte aos requisitos de governança com controle de acesso simplificado e transparência sobre seus projetos de ML. Além disso, você pode criar seus próprios modelos de base (FMs), grandes modelos que foram treinados em grandes conjuntos de dados, com ferramentas específicas para ajustar, experimentar, retreinar e implantar FMs. O SageMaker AI também oferece acesso a centenas de modelos pré-treinados, incluindo FMs disponíveis publicamente, que você pode implantar em algumas etapas rápidas.
Para obter uma lista das regiões compatíveis com o SageMaker AI, acesse a página de serviços regionais da AWS. Para obter mais informações, consulte os endpoints regionais no guia de referência geral da AWS.
O SageMaker AI foi projetado para oferecer alta disponibilidade. Não há janelas de manutenção nem tempos de inatividade programados. As APIs do SageMaker AI são executadas nos data centers comprovados e de alta disponibilidade da Amazon, com replicação da pilha de serviços configurada em três instalações em cada região para fornecer tolerância a falhas em caso de falha de servidor ou interrupção de zona de disponibilidade.
O SageMaker AI armazena código em volumes de armazenamento de ML, protegidos por grupos de segurança e, opcionalmente, criptografados quando em repouso.
O SageMaker AI garante que os artefatos de modelos de ML e outros artefatos de sistema sejam criptografados em trânsito e em repouso. As solicitações para a API e o console do SageMaker AI são realizadas em uma conexão segura (SSL). Você envia os perfis do AWS Identity and Access Management ao SageMaker AI para fornecer permissões de acesso a recursos em seu nome para treinamento e implantação. Você pode usar buckets criptografados do Amazon Simple Storage Service (Amazon S3) para modelar artefatos e dados, além de enviar uma chave do AWS Key Management Service (AWS KMS) para cadernos, tarefas de treinamento e endpoints do SageMaker AI para criptografar o volume de armazenamento de ML conectado. O SageMaker AI também oferece suporte à Amazon Virtual Private Cloud (Amazon VPC) e ao AWS PrivateLink.
O SageMaker AI não usa nem compartilha modelos de clientes, dados de treinamento ou algoritmos. Sabemos que os clientes se preocupam muito com a privacidade e a segurança dos dados. É por isso que a AWS oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e avançadas que permitem determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso de seus usuários a serviços e recursos da AWS. Também implementamos controles técnicos e físicos projetados para evitar o acesso e a divulgação não autorizados do seu conteúdo. Como cliente, você mantém a propriedade sobre o seu conteúdo e seleciona quais serviços da AWS podem processar, armazenar e hospedar esse conteúdo. Não acessamos seu conteúdo para qualquer finalidade sem o seu consentimento.
Você paga pelos recursos de computação, armazenamento e processamento de dados de Machine Learning usados para hospedar o notebook, treinar o modelo, executar previsões e registrar as saídas. Com o SageMaker AI, você pode selecionar o número e o tipo de instância usada para o caderno hospedado, treinamento e hospedagem de modelos. O pagamento é feito conforme o uso. Não há taxas mínimas nem compromissos antecipados. Para obter detalhes, consulte os Preços do Amazon SageMaker AI e a Calculadora de preços do Amazon SageMaker.
Há diversas práticas recomendadas que você pode adotar para otimizar o uso de recursos do SageMaker AI. Algumas abordagens envolvem otimizações de configurações, enquanto outras envolvem soluções programáticas. Esta publicação de blog oferece um guia completo sobre esse conceito, com tutoriais visuais e amostras de código.
O SageMaker AI oferece um fluxo de trabalho completo e total, mas você pode continuar a usar suas ferramentas atuais com o SageMaker AI. É possível transferir facilmente os resultados de cada fase para dentro e para fora do SageMaker AI de modo a atender aos seus requisitos de negócios.
Sim. Você pode usar o R nas instâncias de cadernos do SageMaker AI, que incluem um kernel R pré-instalado e a biblioteca de reticulação. A reticulação oferece uma interface R ao Amazon SageMaker AI Python SDK, ajudando os profissionais de ML a criar, treinar, ajustar e implantar modelos R. Você também pode iniciar o RStudio, um ambiente de desenvolvimento integrado (IDE) para R no Amazon SageMaker Studio.
O Amazon SageMaker Studio fornece uma interface visual única baseada na Web em que você pode executar todas as etapas de desenvolvimento de ML. O SageMaker Studio fornece total acesso, controle e visibilidade em cada etapa necessária para preparar dados, criar, treinar e implantar modelos. Você pode fazer upload de dados, criar novos notebooks, treinar e ajustar modelos, alternar entre as etapas para ajustar experimentos, comparar resultados e implantar modelos na produção em um único local com rapidez, aumentando muito a sua produtividade. Todas as atividades de desenvolvimento de ML, incluindo notebooks, gerenciamento de experimentos, criação automática de modelos, depuração e criação de perfil e detecção de desvio de modelo, podem ser executadas na interface visual unificada do SageMaker Studio.
O Amazon SageMaker Studio oferece IDEs de nuvem totalmente gerenciados e opções de IDE local. Tenha acesso a um amplo conjunto de IDEs de nuvem totalmente gerenciados, incluindo JupyterLab, editor de código baseado em Code-OSS (VS Code Open Source) e RStudio. Além disso, conecte-se aos ambientes de desenvolvimento do Amazon SageMaker Studio usando seu Visual Studio Code local para acessar os recursos computacionais escaláveis do SageMaker AI.
Leia o Guia do desenvolvedor do SageMaker Studio para obter mais informações
Não há cobrança adicional pela utilização do SageMaker Studio. Você paga apenas pelas taxas de computação e armazenamento subjacentes referentes aos serviços que usa no SageMaker Studio.
Você pode encontrar as regiões nas quais há suporte ao SageMaker Studio no Guia do desenvolvedor do Amazon SageMaker.
O Amazon SageMaker Clarify ajuda a aprimorar a transparência do modelo detectando tendências estatísticas ao longo de todo o fluxo de trabalho de ML. O SageMaker Clarify verifica os desequilíbrios durante a preparação dos dados, após o treinamento e continuamente ao longo do tempo, além de incluir também ferramentas para ajudar a explicar os modelos de ML e suas previsões. As conclusões podem ser compartilhadas por meio de relatórios de explicabilidade.
O RStudio no SageMaker AI é o primeiro RStudio Workbench totalmente gerenciado na nuvem. Você pode abrir rapidamente o ambiente de desenvolvimento integrado (IDE) do RStudio e aumentar ou reduzir os recursos de computação subjacentes sem interromper seu trabalhando, facilitando a criação em escala de soluções de ML e analytics em R. Você pode alternar facilmente entre a IDE do RStudio e os notebooks do SageMaker Studio para desenvolvimento em R ou Python. Todo o seu trabalho, incluindo código, conjuntos de dados, repositórios e outros artefatos, é automaticamente sincronizado entre os dois ambientes para reduzir a troca de contexto e aumentar sua produtividade.
O SageMaker Clarify é integrado aos SageMaker Experiments para fornecer um gráfico de importância do recurso, detalhando a importância de cada entrada para o processo de tomada de decisão geral do seu modelo após o modelo ter sido treinado. Esses detalhes podem ajudar a identificar se uma determinada entrada do modelo exerce mais influência do que deveria no comportamento geral do modelo. O SageMaker Clarify também oferece explicações para previsões individuais disponíveis por meio de uma API.
SageMaker e SageMaker AI
Abrir tudoA SageMaker AI (o antigo SageMaker) é um serviço totalmente gerenciado que reúne um amplo conjunto de ferramentas para proporcionar ML de alta performance e baixo custo para qualquer caso de uso. Com o SageMaker AI, você pode criar, treinar e implantar modelos de ML em grande escala. A próxima geração do SageMaker é uma plataforma unificada para dados, analytics e IA. Reunindo recursos amplamente adotados de machine learning (ML) e analytics da AWS, a próxima geração do SageMaker oferece uma experiência integrada para analytics e IA com acesso unificado a todos os seus dados.
A próxima geração do SageMaker inclui os seguintes recursos:
- Estúdio Unificado SageMaker: crie com todos os seus dados e ferramentas para analytics e IA em um
ambiente único. - SageMaker Lakehouse: unifique os dados entre os data lakes do Amazon S3 e os dados do Amazon Redshift
armazéns, fontes de dados de terceiros e federadas com o SageMaker Lakehouse. - Governança de dados e IA do SageMaker: descubra, governe e colabore com segurança em dados e IA
com o Catálogo do SageMaker, desenvolvido na Amazon DataZone. - Desenvolvimento de modelos: crie, treine e implante modelos de ML e modelos de base (FMs) com
infraestrutura totalmente gerenciada, ferramentas e fluxos de trabalho com o SageMaker AI (o antigo SageMaker). - Desenvolvimento de aplicações de IA generativa: desenvolva e escale aplicações de IA generativa com o Amazon
Bedrock. - SQL analytics: obtenha insights com o Amazon Redshift, o mecanismo SQL com melhor relação custo-benefício.
- Processamento de dados: analise, prepare e integre dados para analytics e IA usando frameworks
de código aberto no Athena, Amazon EMR e AWS Glue.
Os recursos com suporte incluem: criação com notebooks JupyterLab; treinamento e ajuste fino com JumpStart, Amazon Q Developer, tarefas de treinamento e HyperPod; implantação com endpoints de inferência; MLOps escalável com MLFlow, pipelines e registro de modelos; governança com painel de modelos; integrações de terceiros com aplicações de IA de parceiros e Snowflake.
O SageMaker fornece uma experiência unificada de dados e IA para encontrar, acessar e agir com base em seus dados, acelerando as iniciativas de analytics e IA. Como o SageMaker AI continuará sendo compatível, você não precisa tomar nenhuma medida para garantir que seus fluxos de trabalho existentes continuem funcionando. Por exemplo, você pode continuar usando seus clusters existentes do Amazon SageMaker HyperPod do jeito que estão. Se quiser usá-los no novo SageMaker Unified Studio, configure uma conexão com esse cluster. Todas as configurações existentes do HyperPod serão migradas automaticamente para seu projeto no SageMaker, e o desempenho e a economia serão os mesmos. No entanto, a experiência do SageMaker Unified Studio pode melhorar a produtividade ao reunir todas as ferramentas em um só lugar.
Temos o prazer de anunciar um estúdio unificado que permite colaborar e criar mais rapidamente: a partir de um único ambiente de desenvolvimento de dados e IA. No Estúdio Unificado SageMaker, você pode descobrir seus dados e colocá-los em prática usando ferramentas AWS familiares para desenvolvimento de modelos, IA generativa, processamento de dados e analytics SQL. Estamos aqui para apoiar você em cada etapa do processo. Se tiver alguma dúvida, não hesite em entrar em contato com sua equipe de contas.
O SageMaker Studio continua sendo uma ótima opção para clientes que precisam de uma experiência de desenvolvimento de ML confiável e simplificada. As organizações que procuram uma experiência integrada para analytics e IA com acesso unificado a todos os seus dados devem considerar o Estúdio Unificado SageMaker. Com o Estúdio Unificado SageMaker, você tem acesso a ferramentas da AWS familiares para fluxos de trabalho de desenvolvimento completos, incluindo desenvolvimento de modelos e aplicações de IA generativa, processamento de dados e analytics SQL em um único ambiente controlado.
Sim, o HyperPod, o JumpStart, o MLFlow, o JupyterLab e Pipelines estão todos disponíveis no novo SageMaker Unified Studio.
Jornada 1. Selecione, personalize e implante modelos de base (FMs):
- Navegue e selecione um conjunto de dados
- Selecione um FM
- Avalie modelos (automáticos e humanos)
- Personalize, ajuste: otimize o preço, o desempenho e a qualidade do FM
- Otimize e implante para inferência
- Automatize com FMOps e monitoramento de modelos
Jornada 2. Crie, treine e implante modelos de ML em grande escala:
- Acelere e escale a preparação de dados para ML
- Criar modelos de ML
- Treinar e ajustar modelos de ML
- Implemente na produção
- Gerencie e monitore
- Automatize o ciclo de vida de ML
Jornada 3. Selecione um modelo, crie e implante uma aplicação de IA generativa:
- Selecione um modelo e ajuste-o
- Importe o modelo para o Amazon Bedrock
- Crie e implante uma aplicação de IA generativa que se integra ao seu endpoint
Jornada 4. Selecione e implante um modelo em um endpoint e conecte esse endpoint a aplicações de IA generativa:
- Selecione um modelo
- Implante o modelo em um endpoint do SageMaker AI
- Conecte o endpoint às suas aplicações de IA generativa
Ao usar o SageMaker, você será cobrado de acordo com o modelo de preços dos vários serviços da AWS acessíveis por meio do SageMaker. Não há custo separado para usar o SageMaker Unified Studio, o ambiente de desenvolvimento de dados e IA que fornece a experiência integrada no SageMaker. Consulte os preços do SageMaker para obter mais informações.
Governança de ML
Abrir tudoO SageMaker AI oferece ferramentas de governança de ML com propósito específico para todo o ciclo de vida de ML. Com o Gerenciador de Perfis do Amazon SageMaker, os administradores podem definir permissões mínimas em minutos. Os Cartões de Modelos do Amazon SageMaker facilita a captura, recuperação e compartilhamento de informações essenciais do modelo, desde a concepção até a implantação. E com o Painel de Modelos do Amazon SageMaker, você acompanha o comportamento do modelo em produção, tudo em único lugar. Para obter mais informações, consulte Governança de ML com o Amazon AI SageMaker.
Você pode definir permissões mínimas em minutos com o SageMaker Role Manager. Ele fornece um conjunto inicial de permissões para atividades e personas de ML com um catálogo de políticas de IAM pré-configuradas. Você pode manter as permissões iniciais ou personalizá-las de acordo com suas necessidades específicas. Com algumas instruções autoguiadas, você pode inserir rapidamente estruturas de governança comuns como limites de acesso à rede e chaves de criptografia. Em seguida, o SageMaker Role Manager vai gerar automaticamente as políticas do IAM. Você pode encontrar as funções geradas e políticas associadas no console do AWS IAM. Para personalizar as permissões para os seus casos de uso, associe suas políticas do IAM ao perfil do IAM que você criar com o SageMaker Role Manager. Você também pode adicionar tags para ajudar a identificar os perfis e organizá-los nos serviços da AWS.
Os SageMaker Model Cards ajudam você a centralizar e padronizar a documentação dos modelos por todo o ciclo de vida de ML ao criar uma única fonte confiável para informações de modelos. Os SageMaker Model Cards preenchem automaticamente os detalhes de treinamento para agilizar o processo de documentação. Você também pode adicionar detalhes como o propósito do modelo e as metas de performance. Você pode associar resultados de avaliação do modelo ao cartão do modelo e fornecer visualizações para obter insights importantes sobre a performance do modelo. Os SageMaker Model Cards podem ser facilmente compartilhados com outras pessoas em um arquivo PDF exportado.
O SageMaker Model Dashboard fornece uma visão abrangente dos modelos implantados e endpoints para que você acompanhe os recursos e violações de comportamento do modelo em um único painel. Ele permite que você acompanhe o comportamento do modelo em quatro dimensões, incluindo qualidade de dados e do modelo e viés do modelo e desvio de atribuição de recurso por meio da sua integração com o SageMaker Model Monitor e com o SageMaker Clarify. O SageMaker Model Dashboard também proporciona uma experiência integrada para configuração e recebimento de alertas de trabalhos de monitoramento de modelos inativos ou ausentes e desvios no comportamento do modelo por qualidade do modelo, qualidade dos dados, desvio de tendência e desvio de atribuição de recurso. Você também pode inspecionar modelos individuais e analisar fatores que afetam a performance do modelo ao longo do tempo. Em seguida, pode solicitar que os profissionais de ML façam as correções necessárias.
Modelos básicos
Abrir tudoO SageMaker JumpStart ajuda você a começar a usar o ML de modo rápido e fácil. O SageMaker JumpStart oferece um conjunto de soluções para os casos de uso mais comuns que podem ser implantados prontamente em apenas algumas etapas. As soluções são totalmente personalizáveis e mostram o uso de modelos do AWS CloudFormation e arquiteturas de referência para que você possa acelerar sua jornada de ML. O SageMaker JumpStart também fornece modelos básicos e oferece suporte para implantação com uma etapa e o ajuste fino de mais de 150 modelos populares de código aberto, como modelos de transformadores, detecção de objetos e classificação de imagens.
O SageMaker JumpStart fornece modelos proprietários e públicos. Para obter uma lista dos modelos básicos disponíveis, consulte Conceitos básicos do Amazon SageMaker JumpStart.
Você pode acessar modelos básicos por meio do SageMaker Studio, do SageMaker SDK e do Console de Gerenciamento da AWS. Para começar a usar modelos básicos proprietários, você deve aceitar os termos de venda no AWS Marketplace.
Não. Seus dados de inferência e treinamento não serão usados nem compartilhados para atualizar ou treinar o modelo básico que o SageMaker JumpStart apresenta aos clientes.
Não. Modelos proprietários não permitem que os clientes visualizem pesos e scripts de modelos.
Os modelos podem ser descobertos em todas as regiões em que o SageMaker Studio estiver disponível, mas a capacidade de implantar um modelo difere de acordo com a disponibilidade do modelo e da instância do tipo de instância necessário. Você pode consultar a disponibilidade da região da AWS e a instância exigida na página de detalhes do modelo no AWS Marketplace.
Para modelos proprietários, há cobrança pelo preço do software determinado pelo fornecedor do modelo e as cobranças de infraestrutura do SageMaker AI com base na instância usada. Para modelos disponíveis ao público, são cobradas taxas de infraestrutura do SageMaker AI com base na instância usada. Para obter mais informações, consulte Preços do Amazon SageMaker AI e o AWS Marketplace.
A segurança é a principal prioridade na AWS, e o SageMaker JumpStart foi projetado para ser seguro. É por isso que o SageMaker AI oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e poderosas que ajudam você a determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso dos seus usuários a serviços e recursos da AWS.
- Não compartilhamos informações de inferência e treinamento de clientes com vendedores de modelos no AWS Marketplace. Da mesma forma, os artefatos do modelo do vendedor (por exemplo, pesos de modelos) não são compartilhados com o cliente.
- O SageMaker JumpStart não usa modelos de clientes, dados de treinamento ou algoritmos para melhorar seu serviço e não compartilha dados de treinamento e inferência de clientes com terceiros.
- No SageMaker JumpStart, os artefatos dos modelos de ML são criptografados em trânsito e em repouso.
- No Modelo de Responsabilidade Compartilhada da AWS, a AWS é responsável por proteger a infraestrutura global que administra toda a AWS. Você é responsável por manter o controle sobre seu conteúdo hospedado nessa infraestrutura.
Ao usar um modelo do AWS Marketplace ou do SageMaker JumpStart, os usuários assumem a responsabilidade pela qualidade da saída do modelo e reconhecem os recursos e as limitações descritos na descrição individual do modelo.
O SageMaker JumpStart inclui mais de 150 modelos pré-treinados do PyTorch Hub e do TensorFlow Hub disponíveis publicamente. Para tarefas de visão, como classificação de imagens e detecção de objetos, você pode aproveitar modelos como o RESNET, MobileNet e single-shot detector (SSD). Para tarefas de texto, como classificação de frases, classificação de textos e respostas a perguntas, você pode usar modelos como BERT, RoBERTa e DistilBERT.
Com o SageMaker JumpStart, cientistas de dados e desenvolvedores de ML podem facilmente compartilhar artefatos de ML, incluindo notebooks e modelos, dentro da organização. Os administradores podem configurar um repositório acessível para um grupo definido de usuários. Todos os usuários com permissão de acesso ao repositório podem explorar, pesquisar e usar modelos e notebooks, bem como todo o conteúdo público dentro do SageMaker JumpStart. Os usuários podem selecionar artefatos para treinar modelos, implantar endpoints e executar notebooks no SageMaker JumpStart.
Com o SageMaker JumpStart, você pode agilizar o tempo de introdução no mercado ao desenvolver aplicativos de ML. Os modelos e notebooks desenvolvidos por uma equipe podem ser facilmente compartilhados com outras equipes dentro da sua organização em apenas algumas etapas. O comportamento interno de conhecimento e a reutilização de ativos pode aumentar a produtividade da sua organização de forma significativa.
Sim. Os administradores podem controlar quais modelos do Amazon SageMaker JumpStart são visíveis e utilizáveis por seus usuários em várias contas da AWS e entidades principais de usuários. Para saber mais, consulte a documentação.
O kit de ferramentas de otimização de inferência facilita a implementação das técnicas mais recentes de otimização de inferência para alcançar um desempenho de custo de última geração (SOTA, na sigla em inglês) no Amazon SageMaker AI, economizando meses de tempo de desenvolvimento. É possível escolher entre diversas técnicas de otimização populares disponibilizadas pelo SageMaker AI, executar trabalhos de otimização antecipadamente, realizar avaliações comparativas do modelo para métricas de desempenho e de precisão, e, em seguida, implantar o modelo otimizado em um endpoint do SageMaker AI para realizar inferências. O kit de ferramentas trata de todos os aspectos da otimização do modelo, para que você possa se concentrar mais nos seus objetivos de negócios.
O kit de ferramentas de otimização de inferências ajuda você a melhorar os custos, a performance e o tempo de comercialização de aplicações de IA generativa. O kit de ferramentas de otimização de modelos totalmente gerenciado oferece acesso às técnicas de otimização mais recentes, com ferramentas fáceis de usar. Também é fácil fazer upgrade com o passar do tempo para a melhor solução disponível, pois o kit de ferramentas se adapta continuamente às inovações de última geração, novos recursos de hardware e hospedagem.
O kit de ferramentas de otimização de inferências oferece suporte a técnicas de otimização, como Decodificação especulativa, Quantização e Compilação. Você pode escolher as otimizações que deseja adicionar ao seu modelo com alguns cliques, e o Amazon SageMaker AI gerenciará todo o trabalho pesado indiferenciado de adquirir o hardware, selecionar o contêiner de aprendizado profundo e os parâmetros de ajuste correspondentes para executar os trabalhos de otimização e, em seguida, salvar os artefatos do modelo otimizado no local do S3 fornecido por você.
Para Decodificação especulativa, você pode começar a usar o modelo preliminar fornecido pelo SageMaker AI, o que evita ter de criar seus próprios modelos preliminares do zero, e solicitar otimizações em nível de sistema e roteamento. Com a Quantização, basta escolher o tipo de precisão que deseja usar e inicia um trabalho de benchmark para medir as compensações entre performance e precisão. O Amazon SageMaker gerará um relatório de avaliação abrangente para que você possa analisar facilmente a relação entre performance e precisão. Com a Compilação, para os modelos mais populares e suas configurações, o Amazon SageMaker AI buscará automaticamente os artefatos do modelo compilado durante a configuração e a escalabilidade do endpoint, eliminando a necessidade de executar trabalhos de compilação com antecedência e, dessa forma, economizando em custos de hardware.
O kit de ferramentas de otimização de inferências do Amazon SageMaker AI ajuda a reduzir seus custos e o tempo para otimizar modelos de IA generativa, permitindo que você se concentre em seus objetivos de negócios.
ML de pouco código
Abrir tudoO SageMaker Canvas é um serviço no-code com uma interface intuitiva do tipo apontar e clicar, que permite que você crie previsões baseadas em machine learning altamente precisas a partir dos seus dados. O SageMaker Canvas permite que você acesse e combine dados de várias origens usando uma interface de usuário do tipo arrastar e soltar, limpando e preparando os dados automaticamente para minimizar a limpeza manual. O SageMaker Canvas aplica uma variedade de algoritmos de ML de última geração para encontrar modelos preditivos altamente precisos e fornece uma interface intuitiva para fazer previsões. Você pode usar o SageMaker Canvas para fazer previsões muito mais precisas em uma variedade de aplicações de negócios e colaborar facilmente com cientistas e analistas de dados em sua empresa, compartilhando seus modelos, dados e relatórios. Para saber mais sobre o SageMaker Canvas, consulte Perguntas frequentes sobre o Amazon SageMaker Canvas.
O SageMaker Autopilot é o primeiro recurso de machine learning automatizado do setor que oferece controle e visibilidade completos dos seus modelos de ML. O SageMaker Autopilot inspeciona dados brutos, aplica processadores de recursos, escolhe o melhor conjunto de algoritmos, treina e ajusta vários modelos, monitora a performance e os classifica com base na performance, tudo de maneira automática e com apenas alguns cliques. O resultado é o modelo com melhor performance que você pode implantar em uma fração do tempo normalmente necessário para treinar o modelo. Você obtém total visibilidade de como o modelo foi criado e o que ele contém e o SageMaker Autopilot se integra ao SageMaker Studio. Você pode explorar até 50 modelos diferentes gerados pelo SageMaker Autopilot no SageMaker Studio, facilitando a escolha do melhor modelo para seu caso de uso. O SageMaker Autopilot pode ser usado por pessoas sem experiência em ML para facilmente produzir um modelo. Ele pode ser usado também por desenvolvedores experientes para o desenvolvimento rápido de um modelo de referência em que as equipes podem iterar ainda mais.
Com o SageMaker Canvas, você paga com base na utilização. O SageMaker Canvas permite que você ingira, explore e prepare seus dados de diversas origens de forma interativa, treine modelos de ML altamente precisos com seus dados e gere previsões. Dois componentes determinam a sua fatura: cobrança por sessão com base no número de horas em que o SageMaker Canvas foi usado ou estava conectado e cobrança pelo treinamento do modelo com base no tamanho do conjunto de dados utilizado para construir o modelo. Para obter mais informações, consulte preços do Amazon SageMaker Canvas.
Sim. Você pode interromper um trabalho a qualquer momento. Quando um trabalho do SageMaker Autopilot é interrompido, todas as avaliações em andamento são interrompidas e nenhuma nova avaliação é iniciada.
Fluxos de trabalho de ML
Abrir tudoO Amazon SageMaker Pipelines ajuda você a criar fluxos de trabalho de ML totalmente automatizados, da preparação de dados até a implantação do modelo, para que seja possível escalar para milhares de modelos de ML em produção. É possível criar pipelines com o SageMaker Python SDK e visualizá-los, executá-los e auditá-los na interface visual do SageMaker Studio. O SageMaker Pipelines cuida do gerenciamento de dados entre as etapas, empacotando as fórmulas de código e orquestrando sua execução, reduzindo meses de codificação a algumas horas. Sempre que um fluxo de trabalho é executado, um registro completo dos dados processados e das ações realizadas é mantido para que os cientistas de dados e desenvolvedores de ML possam depurar problemas rapidamente.
Um pipeline do SageMaker é composto por “etapas”. Você pode escolher qualquer um dos tipos de etapas com suporte nativo para compor um fluxo de trabalho que invoca vários atributos do SageMaker AI (por exemplo, treinamento, avaliação) ou outros serviços da AWS (por exemplo, EMR, Lambda). Você também pode aplicar lift-and-shift em seu código do Python de ML existente no pipeline do SageMaker usando o decorador do python “@step” ou adicionando cadernos do python inteiros como componentes do pipeline. Para obter mais detalhes, consulte o guia do desenvolvedor de pipelines do SageMaker.
Não há cobrança adicional pelo SageMaker Pipelines. Você paga somente pela computação subjacente ou por quaisquer serviços separados da AWS que usar no SageMaker Pipelines.
Sim. Os componentes do Amazon SageMaker AI para Kubeflow Pipelines são plug-ins de código aberto que permitem o uso do Kubeflow Pipelines para definir fluxos de trabalho de ML e usar o SageMaker AI para as etapas de rotulagem, treinamento e inferência de dados. O Kubeflow Pipelines é um complemento do Kubeflow que permite a criação e a implantação de pipelines completos de ML portáteis e escaláveis. No entanto, quando usam o Kubeflow Pipelines, as equipes de operações de ML precisam gerenciar um cluster do Kubernetes com instâncias de CPU e GPU, além de manter uma alta utilização constante para reduzir os custos operacionais. A maximização da utilização de um cluster entre equipes de ciência de dados é um desafio e adiciona sobrecarga operacional às equipes de operações de ML. Como alternativa para um cluster Kubernetes otimizado para ML, com os componentes do SageMaker para Kubeflow Pipelines você pode aproveitar os recursos avançados do SageMaker, como rotulagem de dados, tarefas de treinamento distribuído totalmente gerenciadas de ajuste de hiperparâmetros em larga escala, implantação segura e escalonável de modelos com um clique e treinamento econômico usando instâncias spot do Amazon Elastic Compute Cloud (Amazon EC2) sem precisar configurar e gerenciar clusters do Kubernetes especificamente para a execução de trabalhos de ML.
Não há cobrança adicional pelo uso dos componentes do SageMaker para Kubeflow Pipelines.
Humanos envolvidos no processo
Abrir tudoHuman-in-the-loop é o processo de aproveitar a contribuição humana em todo o ciclo de vida do ML para melhorar a precisão e a relevância dos modelos. As pessoas podem realizar uma variedade de tarefas, desde a geração e anotação de dados até a revisão e personalização do modelo. A intervenção humana é especialmente importante para aplicações de IA generativa, em que os humanos normalmente são tanto o solicitante quanto o consumidor do conteúdo. Portanto, é fundamental que as pessoas treinem os modelos de base (FMs) para responder com precisão, segurança e relevância às solicitações dos usuários. O feedback humano pode ser aplicado para ajudar você a concluir várias tarefas. Primeiro, criar conjuntos de dados de treinamento rotulados de alta qualidade para aplicações de IA generativa por meio de aprendizado supervisionado (em que uma pessoa simula o estilo, a duração e a precisão de como um modelo deve responder às solicitações do usuário) e o aprendizado por reforço com feedback humano (em que uma pessoa ordena e classifica as respostas do modelo). Segundo, usando dados gerados por humanos para personalizar FMs em tarefas específicas ou com dados específicos da empresa e domínio e tornando a saída do modelo relevante para você.
Os recursos human-in-the-loop desempenham um papel importante na criação e no aprimoramento de aplicações de IA generativa alimentadas por FMs. Uma força de trabalho humana altamente qualificada, treinada de acordo com as diretrizes das tarefas, pode fornecer feedback, orientação, contribuições e avaliação em atividades, como gerar dados de demonstração para treinar FMs, corrigir e melhorar as respostas das amostras, ajustar um modelo com base em dados da empresa e do setor, agir como uma proteção contra toxicidade e preconceitos e muito mais. Os recursos human in the loop, portanto, podem melhorar a precisão e a performance do modelo.
O Amazon SageMaker Ground Truth oferece o conjunto mais abrangente de recursos de human in the loop. Há duas maneiras de usar o Amazon SageMaker Ground Truth: uma oferta de autoatendimento e uma oferta gerenciada pela AWS. Na oferta de autoatendimento, seus anotadores de dados, criadores de conteúdo e engenheiros de prompts (internos, gerenciados pelo fornecedor ou público) podem usar nossa interface de usuário de baixo código para acelerar tarefas simples e ter flexibilidade para criar e gerenciar fluxos de trabalho personalizados. Na oferta gerenciada pela AWS (SageMaker Ground Truth Plus), cuidamos do trabalho pesado para você, que inclui selecionar e gerenciar a força de trabalho certa para seu caso de uso. O SageMaker Ground Truth Plus projeta e personaliza um fluxo de trabalho de ponta a ponta (incluindo treinamento detalhado da equipe e etapas de garantia de qualidade) e fornece uma equipe qualificada gerenciada pela AWS que é treinada nas tarefas específicas e atende aos requisitos de qualidade, segurança e conformidade de dados da empresa.
Preparar dados
Abrir tudoO SageMaker Data Wrangler reduz o tempo de agregação e preparação de dados para ML. A partir de uma única interface no SageMaker Studio, é possível navegar e importar dados do Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake e do Databricks em apenas algumas etapas. Além disso, é possível consultar e importar dados transferidos de mais de 50 fontes de dados e registrados no Catálogo de Dados do AWS Glue pelo Amazon AppFlow. O SageMaker Data Wrangler faz o carregamento, agregação e exibição dos dados brutos automaticamente. Após importar seus dados no SageMaker Data Wrangler, você pode ver colunas de resumo e histogramas gerados automaticamente. Você pode então analisar seus dados mais a fundo para identificar possíveis erros com o relatório de qualidade dos dados e insights do SageMaker Data Wrangler, que fornece um resumo estatístico e alertas de qualidade. Você também pode executar uma análise de tendência com o SageMaker Clarify diretamente no SageMaker Data Wrangler para detectar possíveis tendências durante a preparação de dados. Ali, você pode usar as transformações predefinidas do SageMaker Data Wrangler para preparar seus dados. Depois que os dados estiverem preparados, você pode criar fluxos de trabalho de ML totalmente automatizados com o Amazon SageMaker Pipelines ou importar os dados para o Amazon SageMaker Feature Store.
Você paga por todos os recursos de computação, armazenamento e processamento de dados de ML que utiliza no SageMaker Data Wrangler. Você pode revisar todos os detalhes dos preços do SageMaker Data Wrangler aqui. Como parte do nível gratuito da AWS, você também pode começar a usar o SageMaker Data Wrangler gratuitamente.
Você pode configurar e iniciar trabalhos de processamento do SageMaker AI diretamente na IU do SageMaker Data Wrangler, inclusive agendar o seu trabalho de processamento de dados e parametrizar suas fontes de dados para transformar novos lotes de dados em escala com facilidade.
Depois que você tiver preparado seus dados, o SageMaker Data Wrangler oferece diferentes opções para promover seu fluxo do SageMaker Data Wrangler para produção e integra perfeitamente com MLOps e recursos de CI/CD. Você pode configurar e iniciar trabalhos de processamento do SageMaker AI diretamente na IU do SageMaker Data Wrangler, inclusive agendar o seu trabalho de processamento de dados e parametrizar suas fontes de dados para transformar novos lotes de dados em escala com facilidade. Alternativamente, o SageMaker Data Wrangler se integra perfeitamente ao processamento do SageMaker AI e ao contêiner do SageMaker Spark, permitindo que você use SDKs do SageMaker para integrar o SageMaker Data Wrangler no seu fluxo de trabalho de produção.
O SageMaker Feature Store é uma plataforma totalmente gerenciada e desenvolvida para armazenar, compartilhar e gerenciar recursos para modelos de machine learning (ML). Os atributos podem ser descobertos e compartilhados para facilitar a reutilização entre modelos e equipes com acesso e controle seguros, inclusive entre contas da AWS. O arquivo de atributos SageMaker oferece suporte a recursos online e offline para inferência em tempo real, inferência em lote e treinamento. Ele também gerencia canais de engenharia de atributos em lote e streaming para reduzir a duplicação na criação de atributos e melhorar a precisão do modelo.
Comece a usar o arquivo do SageMaker Feature Store gratuitamente como parte do nível gratuito da AWS. Com a SageMaker Feature Store, você paga para gravar na loja de recursos e ler e armazenar na loja de recursos online. Para obter detalhes dos preços, consulte preços do Amazon SageMaker.
O SageMaker AI disponibiliza duas ofertas de rotulagem de dados: Amazon SageMaker Ground Truth Plus e Amazon SageMaker Ground Truth. Ambas as opções permitem a identificação de dados brutos, como imagens, arquivos de texto e vídeos, e a adição de rótulos informativos para criar conjuntos de dados de treinamento de alta qualidade para seus modelos de ML. Para saber mais, consulte Rotulagem de dados do Amazon SageMaker.
Criar modelos
Abrir tudoÉ possível usar cadernos Jupyter totalmente gerenciados no SageMaker AI para o desenvolvimento completo de ML. Aumente ou diminua a escala verticalmente de instâncias de computação com uma ampla seleção de instâncias otimizadas para computação e com GPU acelerada na nuvem.
Os cadernos do SageMaker Studio são cadernos Jupyter que podem ser iniciados rapidamente com uma etapa. Os recursos de computação subjacentes são totalmente elásticos. Portanto, você pode aumentar ou reduzir facilmente os recursos disponíveis, e as alterações ocorrem automaticamente em segundo plano sem interromper seu trabalho. O SageMaker AI também permite o compartilhamento de cadernos com uma única etapa. Você pode compartilhar facilmente cadernos com outros usuários e eles receberão exatamente o mesmo caderno, salvo no mesmo local.
Com os cadernos do SageMaker Studio, você pode fazer login com suas credenciais corporativas usando o IAM Identity Center. É fácil compartilhar notebooks dentro das equipes e entre elas, pois as dependências necessárias para a execução de um notebooks são rastreadas automaticamente em imagens de trabalho encapsuladas com o notebooks quando ele é compartilhado.
Os cadernos nos IDEs do SageMaker Studio oferecem alguns atributos importantes que os diferenciam dos cadernos baseados em instâncias. Primeiro, é possível iniciar cadernos com rapidez, sem a necessidade do provisionamento manual de uma instância e a espera de que ela esteja operacional. O tempo de inicialização da execução da IU para leitura e execução de um caderno é mais rápido do que os cadernos baseados em instância. Você também tem a flexibilidade de escolher entre uma grande coleção de tipos de instância diretamente da IU a qualquer momento. Não será mais necessário acessar o Console de Gerenciamento da AWS para iniciar novas instâncias e fazer a portabilidade dos seus cadernos. Cada usuário tem um diretório inicial isolado, independente de uma instância específica. Esse diretório é montado automaticamente em todos os servidores de cadernos e kernels à medida que são inicializados, permitindo que você acesse seus cadernos e outros arquivos mesmo que mude de instância para visualizar e executar seus cadernos. Os notebooks do SageMaker Studio são integrados ao Centro de Identidade do AWS IAM (sucessor do AWS SSO), facilitando o uso de suas credenciais organizacionais para acessá-los. Eles também são integrados a ferramentas de ML com propósito específico no SageMaker AI e a outros serviços da AWS para o desenvolvimento completo de ML, desde a preparação de dados em escala de petabytes usando o Spark no Amazon EMR, o treinamento e a depuração de modelos, até a implantação e o monitoramento de modelos e o gerenciamento de pipelines.
Profissionais de ML podem criar uma área de trabalho compartilhada onde os membros da equipe podem ler e editar notebooks do SageMaker Studio juntos. Ao usar os espaços compartilhados, os colegas de equipe podem coeditar o mesmo arquivo de notebook, executar o código do notebook simultaneamente e analisar os resultados juntos para eliminar idas e vindas e simplificar a colaboração. Nos espaços compartilhados, as equipes de ML terão suporte integrado para serviços como BitBucket e AWS CodeCommit para que possam gerenciar com facilidade diferentes versões do notebook e comparar alterações ao longo do tempo. Todos os recursos criados dentro dos notebooks, como experimentos e modelos de ML, são automaticamente gravados e associados ao espaço de trabalho específico no qual foram criados para facilitar a organização e agilizar o desenvolvimento de modelos de ML.
Quando você usa cadernos do SageMaker AI em IDEs do Studio, paga por computação e armazenamento. Consulte os preços do Amazon SageMaker AI para conferir a cobrança por tipo de instância de computação. Seus blocos de anotações e artefatos associados, como arquivos de dados e scripts, são persistidos no Amazon Elastic File System (Amazon EFS). Consulte os preços do Amazon EFS para ver as taxas de armazenamento. Como parte do nível gratuito da AWS, você pode começar a usar gratuitamente os cadernos no SageMaker Studio.
Não. Você pode criar e executar vários blocos de anotações na mesma instância de computação. Você paga apenas pela computação utilizada e não por itens individuais. Leia mais sobre isso em nosso guia de medição.
Além dos notebooks, você também pode iniciar e executar terminais e shells interativos no SageMaker Studio, tudo na mesma instância de computação. Cada aplicação é executada em um contêiner ou em uma imagem. O SageMaker Studio fornece várias imagens incorporadas, criadas e pré-configuradas especificamente para ciência de dados e ML.
Você pode monitorar e desativar os recursos usados pelos cadernos do SageMaker Studio usando a interface visual do SageMaker Studio e o Console de Gerenciamento da AWS. Consulte a documentação para obter mais detalhes.
Não. A criação e configuração de um domínio do SageMaker Studio não é cobrada, assim como a inclusão, alteração e exclusão de perfis de usuário.
Como administrador, você pode ver a lista de cobranças discriminadas do SageMaker AI, incluindo o SageMaker Studio, no Console de Faturamento da AWS. No Console de Gerenciamento da AWS para o SageMaker AI, selecione Serviços no menu superior, digite “faturamento” na caixa de pesquisa, selecione Faturamento na lista suspensa e Faturas no painel esquerdo. Na seção Detalhes, você pode selecionar SageMaker para ampliar a lista de regiões e detalhar as cobranças por item.
O SageMaker Studio Lab se destina a estudantes, pesquisadores e cientistas de dados que precisam de um ambiente gratuito para desenvolvimento de notebooks sem necessidade de configuração para suas aulas e experimentos de ML. O SageMaker Studio Lab é ideal para usuários que não precisam de um ambiente de produção, mas que ainda desejam um subconjunto de funcionalidades do SageMaker AI para aprimorar suas habilidades de ML. As sessões do SageMaker AI são salvas automaticamente, ajudando os usuários a continuar de onde pararam em cada sessão.
O SageMaker Canvas é um serviço visual de arrastar e soltar que permite que analistas de negócios criem modelos de ML e gerem previsões precisas sem escrever qualquer código ou ter experiência em ML. O SageMaker Canvas torna mais fácil acessar e combinar dados de uma variedade de fontes, limpar dados automaticamente e aplicar uma variedade de ajustes de dados e criar modelos de ML para gerar previsões precisas com uma única etapa. Além disso, é fácil publicar resultados, explicar e interpretar modelos, e enviar modelos para revisão por outras pessoas na organização.
O SageMaker Canvas ajuda você a descobrir perfeitamente as fontes de dados da AWS às quais sua conta tem acesso, incluindo o Simple Storage Service (Amazon S3) e o Amazon Redshift. Você pode navegar e importar dados usando a interface visual do tipo arrastar e soltar do SageMaker Canvas. Além disso, você pode arrastar e soltar arquivos do disco local e usar conectores predefinidos para importar dados de fontes de terceiros, como o Snowflake.
Depois de conectar as origens, selecionar um conjunto de dados e preparar seus dados, você pode selecionar a coluna de destino que deseja prever para iniciar um trabalho de criação de modelo. O SageMaker Canvas identifica automaticamente o tipo de problema, gera novos atributos relevantes, testa um conjunto abrangente de modelos preditivos usando técnicas de ML como regressão linear, regressão logística, aprendizado profundo, previsão de séries temporais e boosting de gradiente, e cria o modelo que faz previsões precisas com base no seu conjunto de dados.
O tempo que leva para construir um modelo depende do tamanho do seu conjunto de dados. Conjuntos de dados pequenos podem levar menos de 30 minutos e conjuntos de dados grandes podem levar algumas horas. Conforme o trabalho de criação do modelo avança, o SageMaker Canvas fornece atualizações visuais detalhadas, incluindo a porcentagem de conclusão e a quantidade de tempo restante para a conclusão do trabalho.
Treinar modelos
Abrir tudoRecomendamos que você use o Amazon Bedrock para o ajuste fino de modelos ao:
- É um criador de aplicações de IA generativa que deseja uma abordagem gerenciada baseada em API, menos hiperparâmetros e uma abstração da complexidade associada ao treinamento de modelos.
- É necessário uma sobrecarga mínima de infraestrutura, têm pouco ou nenhum investimento em infraestrutura de ML a considerar e pretendem uma implantação rápida sem servidor.
Recomendamos que você use o Amazon SageMaker AI para o ajuste fino do modelo quando:
- É um cientista de dados, engenheiro de ML ou desenvolvedor de modelos de IA que deseja ter acesso a técnicas avançadas de personalização, como destilação de conhecimento, ajuste fino supervisionado ou otimização direta de preferências, tanto para pesos completos quanto para ajuste fino eficiente de parâmetros. O SageMaker AI também oferece a possibilidade de personalizar sua fórmula de treinamento e arquitetura de modelo.
- Estabelecemos fluxos de trabalho de ML e investimentos em infraestrutura com o objetivo de obter maior controle sobre a infraestrutura e os custos.
- Quer maior flexibilidade para trazer suas próprias bibliotecas e framework para otimizar o fluxo de trabalho de treinamento e obter melhor precisão e performance.
Com o Amazon SageMaker AI, você pode personalizar modelos de base proprietários e disponíveis publicamente. Cientistas de dados e desenvolvedores de todos os níveis de habilidade podem personalizar rapidamente modelos de IA generativa usando fórmulas otimizadas. Cada receita é testada pela AWS, eliminando semanas de trabalho tedioso com testes de diferentes configurações de modelos para alcançar um desempenho de ponta. Você pode personalizar famílias de modelos populares disponíveis publicamente, incluindo Llama, Mixtral, Mistral e DeepSeek. Além disso, você pode personalizar os modelos de base do Amazon Nova por meio de técnicas que incluem ajuste supervisionado (SFT), destilação de conhecimento, otimização direta de preferências (DPO), otimização de política proximal e pré-treinamento contínuo — com suporte para opções de treinamento com eficiência de parâmetros e modelo completo em SFT, destilação e DPO.
Sim. O SageMaker AI pode distribuir automaticamente modelos de aprendizado profundo e grandes conjuntos de treinamento em instâncias de GPU da AWS em uma fração do tempo necessário para construir e otimizar essas estratégias de distribuição manualmente. As duas técnicas de treinamento distribuído aplicadas pelo SageMaker AI são paralelismo de dados e paralelismo de modelos. O paralelismo de dados é aplicado para melhorar as velocidades de treinamento, dividindo os dados igualmente em várias instâncias de GPU, permitindo que cada instância treine simultaneamente. O paralelismo de modelos é útil para modelos muito grandes para serem armazenados em uma única GPU, o que exige que o modelo seja particionado em partes menores antes de ser distribuído em várias GPUs. Com apenas algumas linhas de código adicional em seus scripts de treinamento PyTorch e TensorFlow, o SageMaker AI aplicará automaticamente o paralelismo de dados ou o paralelismo de modelo, permitindo que você desenvolva e implante seus modelos mais rapidamente. O SageMaker AI determinará a melhor abordagem para dividir seu modelo usando algoritmos de particionamento gráfico para equilibrar a computação de cada GPU, ao mesmo tempo minimizando a comunicação entre instâncias de GPU. O SageMaker AI também otimiza suas tarefas de treinamento distribuído por meio de algoritmos que utilizam totalmente a infraestrutura de computação e rede da AWS para obter eficiência de escalabilidade quase linear, o que permite concluir o treinamento com mais rapidez em comparação com as implementações de código aberto manuais.
O SageMaker Training Compiler é um compilador de aprendizado profundo (DL) que acelera o treinamento do modelo de DL em até 50 por cento por meio de otimizações em nível de gráfico e kernel para usar GPUs com mais eficiência. O SageMaker Training Compiler é integrado às versões do TensorFlow e PyTorch no SageMaker para que você possa agilizar o treinamento nesses frameworks populares com um mínimo de alterações no código.
O SageMaker Training Compiler acelera as tarefas de treinamento ao converter modelos de deep learning (DL - aprendizado profundo) com base na sua representação de linguagem de alto nível em instruções otimizadas por hardware que treinam mais rápido do que trabalhos com os frameworks nativos. Mais especificamente, o SageMaker Training Compiler usa otimização em nível de gráficos (fusão de operador, planejamento de memória e simplificação algébrica), otimizações de nível de fluxo de dados (transformação de layout, eliminação de subexpressão comum) e otimizações de backend (ocultação de latência de memória, otimizações orientadas em loop) para produzir uma tarefa de treinamento de modelo otimizada que usa recursos de hardware com mais eficiência e, como resultado, treina com mais rapidez.
O treinamento gerenciado de spots com o SageMaker AI permite treinar modelos de ML usando instâncias spot do Amazon EC2 e reduzir o custo do treinamento de modelos em até 90%.
O SageMaker Training Compiler é integrado ao SDK do SageMaker para Python e aos contêineres de aprendizado profundo da Hugging Face para SageMaker. Você não precisa alterar seus fluxos de trabalho para acessar os benefícios de aceleração. Você pode executar trabalhos de treinamento da mesma maneira que já faz, usando qualquer uma das interfaces do SageMaker: instâncias de cadernos do SageMaker, SageMaker Studio, AWS SDK para Python (Boto3) e a AWS Command Line Interface (AWS CLI). Você pode habilitar o SageMaker Training Compiler adicionando uma classe TrainingCompilerConfig como um parâmetro ao criar um objeto estimador no framework. Na prática, isso significa algumas linhas de código adicionadas a um script de tarefa de treinamento existente para uma única instância de GPU. A documentação detalhada mais atualizada, cadernos de amostra e exemplos estão disponíveis na documentação.
O SageMaker Training Compiler é um atributo de treinamento do SageMaker e é fornecido sem custo adicional exclusivamente para clientes do SageMaker AI. Os clientes podem, realmente, reduzir seus custos com o SageMaker Training Compiler, pois os tempos de treinamento são reduzidos.
Você habilita a opção de Treinamento gerenciado de spots ao enviar suas tarefas de treinamento e também especifica por quanto tempo aguardará a capacidade spot. O SageMaker AI usará instâncias spot do Amazon EC2 para executar seu trabalho e gerenciar a capacidade spot. Você tem total visibilidade do status das tarefas de treinamento, seja enquanto eles estão em execução, seja enquanto estão aguardando capacidade.
O treinamento gerenciado de spots usa instâncias spot do Amazon EC2 para treinamento, e essas instâncias poderão ser pré-esvaziadas quando a AWS precisar de capacidade. Como resultado, as tarefas de treinamento gerenciado de spots podem ser executadas em pequenos incrementos como e quando a capacidade se tornar disponível. As tarefas de treinamento não precisam ser reiniciadas do zero quando há uma interrupção, pois o SageMaker AI pode retomar tarefas de treinamento usando o ponto de verificação mais recente do modelo. As estruturas e os algoritmos de visão computacional incorporados ao SageMaker AI possibilitam usar pontos de verificação periódicos, sendo possível habitá-los com modelos personalizados.
Recomendamos usar pontos de verificação periódicos como prática recomendada para a execução prolongada de tarefas de treinamento. Isso impede que suas tarefas de treinamento gerenciado de spots sejam reinicializadas se a capacidade for pré-esvaziada. Quando você habilita os pontos de verificação, o SageMaker AI retoma suas tarefas de treinamento gerenciado de spots desde o ponto de verificação mais recente.
O treinamento gerenciado de spots pode ser usado com todas as instâncias compatíveis com o SageMaker AI.
O treinamento gerenciado de spots é compatível com todas as regiões em que o SageMaker AI está atualmente disponível.
Não há limites fixos para o tamanho do conjunto de dados que pode ser usado para modelos de treinamento com o SageMaker AI.
O SageMaker AI inclui algoritmos incorporados para regressão linear, regressão logística, clusters k-means, análise de componente de entidade principal, máquinas de fatoração, modelagem tópica neural, alocação latente de Dirichlet, árvores reforçadas com gradiente, sequence2sequence, previsão de séries temporais, word2vec e classificação de imagens. O SageMaker AI também fornece contêineres otimizados do Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn e Deep Graph Library. Além disso, o SageMaker AI oferece suporte a algoritmos de treinamento personalizados fornecidos por meio de uma imagem do Docker de acordo com a especificação documentada.
Você pode executar o ajuste automático de modelos no SageMaker AI para qualquer algoritmo, desde que cientificamente viável, incluindo algoritmos incorporados do SageMaker AI, redes neurais profundas ou algoritmos arbitrários a serem incorporados ao SageMaker AI na forma de imagens do Docker.
Não neste momento. O desempenho e a experiência do ajuste de modelos são melhores dentro do SageMaker AI.
No momento, o algoritmo de ajuste de hiperparâmetros é uma implementação personalizada da otimização Bayesiana. Essa implementação se destina a otimizar uma métrica de objetivo especificada pelo cliente durante todo o processo de ajuste. Especificamente, a implementação verifica a métrica do objeto de tarefas de treinamento concluídas e usa esse conhecimento para inferir a combinação de hiperparâmetros para a próxima tarefa de treinamento.
Não. O impacto de determinados hiperparâmetros sobre a performance do modelo depende de vários fatores. É difícil afirmar com certeza se um hiperparâmetro é mais importante do que os demais e, portanto, precisa de ajuste. Para algoritmos incorporados ao SageMaker AI, informamos se um hiperparâmetro é ou não ajustável.
A duração do trabalho de ajuste de um hiperparâmetro depende de vários fatores, incluindo o tamanho dos dados, o algoritmo subjacente e os valores dos hiperparâmetros. Além disso, os clientes podem escolher o número de trabalhos de treinamento simultâneos e o seu número total. Todas essas escolhas afetam a duração do trabalho de ajuste de hiperparâmetros.
Não neste momento. No momento, é necessário especificar uma única métrica de objetivo a ser otimizada ou alterar o código do algoritmo para emitir uma nova métrica, que é a média ponderada entre duas ou mais métricas úteis, e fazer o processo de ajuste otimizar considerando esta nova métrica de objetivo.
O trabalho de ajuste de hiperparâmetros não é cobrado. As tarefas de treinamento, iniciadas pelo trabalho de ajuste de hiperparâmetros, serão cobradas de acordo com o preço de treinamento do modelo.
O SageMaker Autopilot automatiza tudo em um fluxo de trabalho típico de ML, incluindo pré-processamento de recursos, seleção de algoritmos e ajuste de hiperparâmetros, concentrando-se especificamente em casos de uso de classificação e regressão. Por outro lado, o ajuste automático de modelos se destina a ajustar qualquer modelo, não importando se ele é baseado em algoritmos integrados, frameworks de aprendizado profundo ou contêineres personalizados. Em troca da flexibilidade, você deve escolher manualmente o algoritmo específico, os hiperparâmetros a serem ajustados e os intervalos de pesquisa correspondentes.
Aprendizado por reforço é uma técnica de ML que permite que um atendente aprenda em um ambiente interativo por tentativa e erro, usando feedback recebido por suas próprias ações e experiências.
Sim, você pode treinar modelos de aprendizado por reforço no SageMaker AI, além dos modelos de aprendizado supervisionado e não supervisionado.
Embora ambos os aprendizados usem mapeamento entre entrada e saída, ao contrário do aprendizado supervisionado em que o feedback fornecido para o atendente é o conjunto correto de funções para execução de uma tarefa, o aprendizado por reforço usa um feedback atrasado em que sinais de recompensa são otimizados para garantir um objetivo em longo prazo por meio de uma sequência de ações.
Enquanto o objetivo das técnicas de aprendizado supervisionado é encontrar a resposta certa com base nos padrões dos dados de treinamento, o objetivo das técnicas de aprendizado não supervisionado é encontrar semelhanças e diferenças entre os pontos de dados. Em contraste, o objetivo das técnicas de aprendizado por reforço (RL) é aprender como alcançar um resultado desejado mesmo quando não estiver claro o que deve ser feito para isso. Como resultado, o RL é mais adequado para habilitar aplicações inteligentes, em que um atendente pode tomar decisões autônomas, como robótica, veículos autônomos, HVAC, controle industrial e muito mais.
O RL do Amazon SageMaker oferece suporte a diversos ambientes diferentes para treinamento de modelos de RL. Use produtos da AWS, como o AWS RoboMaker, ambientes de código aberto ou ambientes personalizados desenvolvidos usando interfaces Open AI Gym, ou ambientes de simulação comerciais, como o MATLAB e o SimuLink.
Não, o RL do SageMaker inclui toolkits de RL, como Coach and Ray RLLib, que oferecem implementações de algoritmos de atendente de RL, como DQN, PPO, A3C e muito mais.
Sim, você pode usar suas próprias bibliotecas de RL e implementações de algoritmo em contêineres Docker e executá-las no RL do SageMaker.
Sim. Também é possível selecionar um cluster heterogêneo onde o treinamento pode ser executado em uma instância da GPU e as simulações podem ser executadas em várias instâncias da CPU.
A observabilidade do SageMaker HyperPod permite que os clientes acelerem o tempo de comercialização e reduzam o custo das inovações de IA generativa. Os administradores podem usar esse recurso para obter uma visão abrangente do desempenho, da integridade e da utilização de seus clusters em minutos para otimizar o uso e a configuração dos recursos de computação acelerada. Quando os cientistas de dados encontram interrupções em suas tarefas de desenvolvimento de IA generativa, como treinamento de modelos, ajuste fino ou inferência em um cluster do HyperPod, eles podem identificar em poucos minutos qual configuração ou recurso precisa ser atualizado para recuperar as tarefas. A redução do tempo de resolução para interrupções de tarefas e menos tentativas de repetição de tarefas permite que as organizações se concentrem em acelerar sua inovação em IA generativa e o tempo de lançamento no mercado, em vez de passar horas ou dias coletando e analisando dados de telemetria de cluster.
Implantar modelos
Abrir tudoDepois de criar e treinar modelos, o SageMaker AI oferece três opções para implantá-los para que você possa começar a fazer previsões. A inferência em tempo real é adequada para workloads com requisitos de latência de milissegundos, tamanhos de carga útil de até 6MB e tempos de processamento de até 60 segundos. A transformação em lote é ideal para previsões offline em grandes lotes de dados que estão disponíveis antecipadamente. A inferência assíncrona se destina a workloads sem requisitos de latência de subsegundo, com tamanhos de carga útil de até 1GB e tempos de processamento de até 15 minutos.
É possível reduzir a escala verticalmente da contagem de instâncias de endpoint de inferência assíncrona do SageMaker a zero para economizar custos quando você não estiver processando ativamente as solicitações. Você precisa definir uma política de escalabilidade para escalar a métrica personalizada 'ApproximateBacklogPerInstance' e definir o valor 'MinCapacity' a zero. Para obter instruções detalhadas, visite a seção escalar um endpoint assíncrono automaticamente no guia do desenvolvedor.
Inferência Sem Servidor do SageMaker é uma opção de serviço de modelo sem servidor desenvolvida para fins específicos que facilita a implantação e a escala de modelos de ML. Os pontos de extremidade de Inferência Sem Servidor do SageMaker iniciam automaticamente os recursos de computação e aumentam e diminuem a escala dependendo do tráfego, eliminando a necessidade de você escolher o tipo de instância, executar a capacidade provisionada ou gerenciar o escalonamento. Opcionalmente, você pode especificar os requisitos de memória para seu endpoint de inferência sem servidor. Você paga apenas pela duração da execução do código de inferência e pela quantidade de dados processados, não pelos períodos ociosos.
Com endpoints de tecnologia sem servidor sob demanda, se seu endpoint não receber tráfego por um tempo e, de repente, receber novas solicitações, pode levar algum tempo até que seu endpoint ative os recursos de computação para processar as solicitações. Isso é chamado de inicialização a frio. Uma inicialização a frio também pode ocorrer se suas solicitações simultâneas excederem o uso atual da solicitações simultâneas. O tempo de inicialização a frio depende do tamanho do modelo, do tempo necessário para fazer o download do modelo e do tempo de inicialização do contêiner.
Para reduzir a variabilidade em seu perfil de latência, você pode ativar a Simultaneidade Provisionada para seus endpoints de tecnologia sem servidor. Com a Simultaneidade provisionada, seus endpoints de tecnologia sem servidor estão sempre prontos e podem atender instantaneamente picos de tráfego, sem inicialização a frio.
Assim como na Inferência Sem Servidor sob demanda, quando a simultaneidade provisionada é ativada, você paga pela capacidade computacional usada para processar solicitações de inferência, cobrada por milissegundo, e pela quantidade de dados processados. Você também paga pelo uso da simultaneidade provisionada, com base na memória configurada, na duração provisionada e na quantidade de simultaneidade habilitada. Para obter mais informações, consulte Preços do Amazon SageMaker AI.
O SageMaker AI ajuda você a executar testes de validação por comparação para avaliar um novo modelo de ML antes da liberação em produção, testando seu desempenho em comparação com o modelo já implantado. O SageMaker AI implanta o novo modelo em modo sombra junto com o modelo atual em produção e espelha uma porção definida pelo usuário do tráfego de produção para o novo modelo. Opcionalmente, ele registra as inferências do modelo em um log para comparação offline. Ele também oferece um painel em tempo real com a comparação das principais métricas de performance, como latência e taxa de erros, entre o modelo em produção e o sombra para ajudar a decidir se o novo modelo deve ser promovido para produção.
O SageMaker AI simplifica o processo de definição e monitoramento de variantes sombra para que você possa avaliar o desempenho do novo modelo de ML com o tráfego real de produção. O SageMaker AI elimina a necessidade de orquestrar a infraestrutura para testes de validação por comparação. Ele permite que você controle parâmetros, como a porcentagem de tráfego espelhado para a variante sombra e a duração do teste. Como resultado, você pode começar pequeno e aumentar as solicitações de inferência para o novo modelo depois que estiver mais confiante quanto à performance dele. O SageMaker AI cria painéis em tempo real que mostram as diferenças de desempenho nas principais métricas para que você possa comparar e avaliar as diferenças de desempenho entre o novo modelo e o modelo em produção.
O SageMaker Inference Recommender reduz o tempo necessário para colocar os modelos de ML em produção, automatizando a comparação de performance e ajustando a performance do modelo em instâncias de ML do SageMaker. Agora você pode usar o SageMaker Inference Recommender para implantar seu modelo em um endpoint que oferece o melhor performance e minimiza os custos. Você pode começar a usar o SageMaker Inference Recommender em minutos enquanto seleciona um tipo de instância e obter recomendações para configurações de endpoint ideais em horas, eliminando semanas de teste manual e tempo de ajuste. Com o SageMaker Inference Recommender, você paga apenas pelas instâncias do SageMaker ML usadas durante os testes de carga e não há cobrança adicional.
Não, atualmente só oferecemos suporte a um único modelo por endpoint.
Atualmente, oferecemos suporte apenas a endpoints em tempo real.
Oferecemos suporte a todas as regiões com suporte ao Amazon SageMaker, exceto as regiões da AWS China.
Sim, oferecemos suporte a todos os tipos de contêineres. A Inf1 do Amazon EC2, baseada no chip AWS Inferentia, requer um artefato de modelo compilado usando o compilador Neuron ou o Amazon SageMaker Neo. Depois de ter um modelo compilado para um alvo do Inferentia e o URI da imagem do contêiner associado, você pode usar o SageMaker Inference Recommender para avaliar diferentes tipos de instância do Inferentia.
O SageMaker Model Monitor permite que os desenvolvedores detectem e corrijam o desvio do conceito. O SageMaker Model Monitor detecta automaticamente desvios de conceito nos modelos implantados e fornece alertas detalhados que ajudam a identificar a origem do problema. Todos os modelos treinados no SageMaker AI emitem automaticamente as principais métricas que podem ser coletadas e visualizadas no SageMaker Studio. No SageMaker Studio, você pode configurar os dados a serem coletados, como visualizá-los e quando receber alertas.
Não. O SageMaker AI opera a infraestrutura de computação em seu nome, o que permite executar verificações de integridade, aplicar patches de segurança e realizar outras manutenções de rotina. Você também pode implantar os artefatos do modelo do treinamento com código de inferência personalizado no seu próprio ambiente de hospedagem.
A hospedagem do SageMaker AI escala automaticamente o desempenho necessário para a aplicação usando o Application Auto Scaling. Além disso, você pode alterar manualmente o número e o tipo das instâncias sem que haja tempo de inatividade pela modificação da configuração do endpoint.
O SageMaker AI emite métricas de desempenho para o Amazon CloudWatch Metrics para que você possa rastrear métricas, definir alarmes e reagir automaticamente a mudanças no tráfego de produção. Além disso, o SageMaker AI escreve logs para o Amazon CloudWatch Logs, o que permite monitorar e solucionar problemas do ambiente de produção.
O SageMaker AI pode hospedar qualquer modelo que siga a especificação documentada para imagens do Docker de inferência. Isso inclui os modelos criados de artefatos de modelo e código de inferência do SageMaker AI.
O SageMaker AI foi criado para escalar para um grande número de transações por segundo. O número preciso varia em função do modelo implantado e do número e do tipo de instâncias nas quais o modelo é implantado.
Como um serviço totalmente gerenciado, o Amazon SageMaker AI se encarrega de configurar e gerenciar instâncias, compatibilidades de versões de software e versões de patches. Ele também fornece métricas e logs integrados para endpoints que você pode usar para monitorar e receber alertas. Com as ferramentas e fluxos de trabalho guiados do SageMaker AI, todo o processo de empacotamento e implantação do modelo de ML é simplificado, facilitando a otimização dos endpoints para alcançar o desempenho desejado e economizar. Você pode implantar facilmente os modelos de ML, incluindo modelos de base, com apenas alguns cliques no SageMaker Studio ou usando o novo PySDK.
O Batch Transform permite que você execute previsões em dados em lotes grandes ou pequenos. Não é preciso dividir o conjunto de dados em diversas partes nem gerenciar endpoints em tempo real. Com uma API simples, você pode solicitar previsões para um grande número de registros de dados e transformar os dados de maneira rápida e fácil.
O SageMaker AI oferece suporte às seguintes opções de endpoint: endpoints de modelo único, um modelo em um contêiner hospedado em instâncias dedicadas ou com tecnologia sem servidor para baixa latência e alto throughput. Endpoints multimodelo: hospede vários modelos usando uma infraestrutura compartilhada para obter economia e maximizar a utilização. Você pode controlar o volume de computação e memória que cada modelo pode usar para garantir que cada modelo tenha acesso aos recursos necessários para uma execução eficiente. Pipelines de inferência serial: vários contêineres que compartilham instâncias dedicadas e executam em uma sequência. Use um pipeline de inferência para combinar tarefas da ciência de dados que incluem pré-processamento, previsões e pós-processamento.
O SageMaker Edge Manager torna mais fácil otimizar, proteger, monitorar e manter modelos de ML em frotas de dispositivos de borda, como câmeras inteligentes, robôs, computadores pessoais e dispositivos móveis. O SageMaker Edge Manager ajuda os desenvolvedores de ML a operar modelos de ML em uma variedade de dispositivos de borda em escala.
Para começar a usar o SageMaker Edge Manager, você precisa compilar e empacotar seus modelos de ML treinados na nuvem, registrar seus dispositivos e prepará-los com o SDK do SageMaker Edge Manager. Para preparar o seu modelo para implantação, o SageMaker Edge Manager usa o SageMaker Neo para compilar o seu modelo para o hardware de borda de destino. Depois que o modelo é compilado, o SageMaker Edge Manager assina o modelo com uma chave gerada pela AWS e, em seguida, empacota o modelo com seu tempo de execução e as credenciais necessárias para prepará-lo para a implantação. No lado do dispositivo, você registra seu dispositivo com o SageMaker Edge Manager, baixa o SDK do SageMaker Edge Manager e, em seguida, segue as instruções para instalar o agente SageMaker Edge Manager nos seus dispositivos. O caderno do tutorial fornece um exemplo detalhado de como você pode preparar os modelos e conectá-los em dispositivos de borda com o SageMaker Edge Manager.
O SageMaker Edge Manager é compatível com dispositivos baseados em CPU (ARM, x86), GPU (ARM, Nvidia) comuns, com sistemas operacionais Linux e Windows. Com o passar tempo, o SageMaker Edge Manager se expandirá para ser compatível com mais processadores integrados e plataformas móveis que também são compatíveis com o SageMaker Neo.
Não, você não precisa. Você pode treinar seus modelos em outro lugar ou usar um modelo pré-treinado de código aberto ou de seu fornecedor de modelos.
Sim, você precisa. O SageMaker Neo converte e compila seus modelos em um executável que você pode empacotar e implantar em seus dispositivos de borda. Assim que o pacote do modelo for implantado, o agente SageMaker Edge Manager desempacotará o pacote do modelo e executará o modelo no dispositivo.
O SageMaker Edge Manager armazena o pacote do modelo no bucket do Simple Storage Service (Amazon S3) especificado. Você pode usar o recurso de implantação via ondas de rádio fornecido pelo AWS IoT Greengrass ou qualquer outro mecanismo de implantação da sua escolha para implantar o pacote de modelo do seu bucket do S3 nos dispositivos.
Neo dlr é um runtime de código aberto que executa apenas modelos compilados pelo serviço SageMaker Neo. Em comparação com a dlr de código aberto, o SDK do SageMaker Edge Manager inclui um atendente de nível corporativo no dispositivo com segurança adicional, gerenciamento de modelo e recursos de serviço de modelos. O SDK do SageMaker Edge Manager é adequado para implantação de produção em escala.
O SageMaker Edge Manager e o AWS IoT Greengrass podem trabalhar juntos em sua solução de IoT. Quando seu modelo de ML for empacotado com SageMaker Edge Manager, você poderá usar o recurso de atualização OTA do AWS IoT Greengrass para implantar o pacote de modelo no seu dispositivo. O AWS IoT Greengrass permite monitorar seus dispositivos IoT remotamente, enquanto o SageMaker Edge Manager ajuda a monitorar e manter os modelos de ML nos dispositivos.
A AWS oferece a maior amplitude e profundidade de recursos para a execução de modelos em dispositivos de borda. Temos serviços para oferecer suporte a uma ampla variedade de casos de uso, incluindo visão computacional, reconhecimento de voz e manutenção preditiva.
Para empresas que procuram executar visão computacional em dispositivos de borda, como câmeras e aparelhos, você pode usar o AWS Panorama. O AWS Panorama oferece aplicações de visão computacional prontas para implantar para dispositivos de borda. É fácil começar a usar o AWS Panorama fazendo login no console da nuvem, especificando o modelo que você gostaria de usar no Amazon S3 ou no SageMaker AI e, em seguida, escrevendo a lógica de negócios como um script Python. O AWS Panorama compila o modelo para o dispositivo de destino e cria um pacote de aplicações que possa ser implantado nos seus dispositivos com apenas alguns cliques. Além disso, os ISVs que desejam criar suas próprias aplicações personalizadas podem usar o AWS Panorama SDK e os fabricantes de dispositivos podem usar o Device SDK para certificar seus dispositivos para o AWS Panorama.
Os clientes que desejam criar seus próprios modelos e ter um controle mais detalhado sobre os recursos do modelo podem usar o SageMaker Edge Manager. O SageMaker Edge Manager é um serviço gerenciado para preparar, executar, monitorar e atualizar modelos de machine learning (ML) em frotas de dispositivos de borda, como câmeras inteligentes, alto-falantes inteligentes e robôs para qualquer caso de uso, como processamento de linguagem natural, detecção de fraude, e manutenção preditiva. O SageMaker Edge Manager é direcionado a desenvolvedores de borda de ML que desejem controle sobre seu modelo, incluindo a engenharia de diferentes recursos de modelos e modelos de monitor para variações.. Qualquer desenvolvedor de borda de ML pode usar o SageMaker Edge Manager por meio do console do SageMaker AI e das APIs do SageMaker AI. O SageMaker Edge Manager traz os recursos do SageMaker AI para criar, treinar e implantar modelos na nuvem para dispositivos de borda.
Você pode usar o SageMaker Edge Manager em seis regiões: Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Europa (Irlanda), Europa (Frankfurt) e Ásia-Pacífico (Tóquio). Acesse a Lista de serviços regionais da AWS para obter detalhes.
O SageMaker Neo permite que modelos de ML sejam treinados uma vez e executados em qualquer lugar na nuvem e na borda. O SageMaker Neo otimiza automaticamente os modelos criados com frameworks populares de DL que podem ser usados para implantação em várias plataformas de hardware. Os modelos otimizados são executados até 25 vezes mais rápido e consomem menos de um décimo dos recursos dos modelos de ML típicos.
Para começar a usar o SageMaker Neo, faça login no console do SageMaker AI, escolha um modelo treinado, siga o exemplo para compilar modelos e implante o modelo resultante na plataforma de hardware de destino.
O SageMaker Neo contém dois componentes principais: um compilador e um runtime. Primeiro, o compilador SageMaker Neo lê os modelos exportados por frameworks diferentes. Em seguida, ele converte as funções e operações específicas para cada estrutura em uma representação intermediária indiferente à estrutura. Depois, realiza uma série de otimizações. Em seguida, o compilador gera código binário para as operações otimizadas e grava em uma biblioteca de objetos compartilhados. O compilador também salva a definição do modelo e os parâmetros em arquivos separados. Durante a execução, o runtime do SageMaker Neo carrega os artefatos gerados pelo compilador: definição do modelo, parâmetros e a biblioteca de objetos compartilhados para executar o modelo.
Não. Você pode treinar os modelos em outros lugares e usar o SageMaker Neo para otimizá-los para instâncias de ML do SageMaker ou dispositivos compatíveis do AWS IoT Greengrass.
Atualmente, o SageMaker Neo oferece suporte à maioria dos modelos de DL que alimentam as aplicações de visão computacional e os modelos de árvore de decisões mais populares usados no SageMaker AI atualmente. O SageMaker Neo otimiza o desempenho dos modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet e DenseNet treinados em MXNet e TensorFlow e modelos de floresta de corte de classificação e aleatórios treinados em XGBoost.
Você encontra as listas de instâncias de nuvem, dispositivos de borda e versões de framework com suporte na documentação do SageMaker Neo.
Para ver uma lista das regiões com suporte, consulte a lista de serviços regionais da AWS.
O SageMaker HyperPod agora permite a implantação de modelos de base de pesos abertos do SageMaker JumpStart ou a implantação de seus próprios modelos ajustados do Amazon S3 e Amazon FSx em algumas etapas fáceis. Depois de selecionar um modelo, o SageMaker HyperPod lida automaticamente com o provisionamento de infraestrutura, a configuração de endpoint e a configuração de ajuste de escala automático, ao mesmo tempo em que publica métricas de performance abrangentes no painel de observabilidade para monitoramento e otimização em tempo real.
Savings Plans para o Amazon SageMaker
Abrir tudoOs Savings Plans do SageMaker oferecem um modelo de preços flexível baseado em uso para o SageMaker AI, em troca de um compromisso com uma quantidade consistente de uso (medida em USD/hora) por um período de um ou três anos. Os SageMaker Savings Plans fornecem a maior flexibilidade e ajudam a reduzir seus custos em até 64%. Esses planos são aplicados automaticamente a usos de instâncias de ML qualificadas do SageMaker, incluindo cadernos do SageMaker Studio, cadernos sob demanda do SageMaker, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference e SageMaker Batch Transform, independentemente da família, tamanho ou região das instâncias. Por exemplo, você pode alterar o uso de uma instância de CPU ml.c5.xlarge em execução no Leste dos EUA (Ohio) para uma instância ml.Inf1 no Oeste dos EUA (Oregon) para workloads de inferência a qualquer momento e continuar automaticamente a pagar o preço dos Savings Plans.
Se você tem uma quantidade consistente de uso de instâncias do SageMaker AI (medidas em USD/hora) e usa vários componentes do SageMaker AI, ou espera que sua configuração de tecnologia (por exemplo, família de instâncias ou região) mude ao longo do tempo, os Savings Plans do SageMaker simplificam a maximização das suas economias e, ao mesmo tempo, proporcionam flexibilidade para alterar a configuração de tecnologia subjacente com base nas necessidades da aplicação ou em inovações. A taxa do Savings Plans é aplicada automaticamente a todo o uso de instâncias de ML qualificadas sem modificações manuais necessárias.
A diferença entre os Savings Plans para o SageMaker AI e o Savings Plans para o Amazon EC2 está nos serviços que eles incluem. Os SageMaker Savings Plans só se aplicam ao uso de instâncias de ML do SageMaker.
Os Savings Plans podem ser comprados em qualquer conta dentro de uma família do AWS Organization/Faturamento consolidado. Por padrão, o benefício fornecido pelos Savings Plans é aplicável ao uso em todas as contas de uma família do AWS Organization/faturamento consolidado. No entanto, você também pode optar por restringir o benefício dos Savings Plans apenas à conta que os comprou.
Personalize modelos
Abrir tudoSim, com o Amazon SageMaker AI, você pode acelerar o fluxo de trabalho de personalização do modelo. Comece rapidamente através de um fluxo de trabalho guiado por um agente de IA (em pré-visualização) ou através da interface fácil de usar (UI). Usando o agente de IA (em pré-visualização), você pode articular seu caso de uso em linguagem natural. Com base na descrição dos requisitos do seu caso de uso, o agente de IA gera uma especificação que inclui diretrizes para o conjunto de dados, critérios de avaliação, métricas associadas e uma técnica de personalização. A interface conversacional permite que você itere e refine ainda mais a especificação do seu caso de uso, se necessário. Com a interface de usuário fácil de usar, você pode iniciar rapidamente experimentos de personalização de modelos com apenas alguns cliques, começando pela identificação dos critérios de avaliação do modelo, seleção de um modelo e técnica de personalização e upload de um conjunto de dados. O SageMaker AI seleciona e provisiona automaticamente os recursos de computação adequados com base no modelo e no tamanho dos dados.
Depois de atingir as metas de precisão e performance desejadas, você pode realizar a implantação de modelos em produção com apenas alguns cliques por meio dos endpoint do SageMaker Inference ou do Amazon Bedrock. Como alternativa, se você deseja mais controle e flexibilidade, pode personalizar modelos de IA com código usando fórmulas otimizadas. Cada receita é testada pela AWS, eliminando semanas de trabalho tedioso com testes de diferentes configurações de modelos para alcançar um desempenho de ponta.
O SageMaker AI é compatível com as mais recentes técnicas de personalização de modelos, incluindo ajuste fino supervisionado (SFT), otimização de preferência direta (DPO) e aprendizado por reforço com feedback de IA (RLAIF) e recompensas verificáveis (RLVR).
No SageMaker Studio, selecione a guia modelos para começar a usar a interface fácil de usar ou através do notebook..
O SageMaker AI oferece treinamento sem servidor, o que elimina a necessidade de selecionar e gerenciar instâncias. Você só paga pelos tokens processados durante o treinamento. Para obter mais detalhes, consulte a página de preços do SageMaker AI.
O fluxo de trabalho orientado por agente de IA para personalização de modelos no Amazon SageMaker AI está atualmente em pré-visualização. Você pode solicitar um convite para participar da pré-visualização. Após a aceitação, você receberá um convite no e-mail fornecido.
Você encontrou o que estava procurando hoje?
Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas