Perguntas frequentes sobre o Amazon SageMaker

Geral

O SageMaker é um serviço totalmente gerenciado para preparar dados e criar, treinar e implantar modelos de machine learning (ML) para qualquer caso de uso com infraestrutura, ferramentas e fluxos de trabalho totalmente gerenciados.

Para obter uma lista das regiões compatíveis com o SageMaker, acesse a página de serviços regionais da AWS. Para obter mais informações, consulte os endpoints regionais no guia de referência geral da AWS.

O SageMaker foi projetado para oferecer alta disponibilidade. Não há janelas de manutenção nem tempos de inatividade programados. As APIs do SageMaker são executadas nos data centers comprovados e de alta disponibilidade da Amazon, com replicação da pilha de serviços configurada em três instalações em cada região para fornecer tolerância a falhas em caso de falha de servidor ou interrupção de zona de disponibilidade.

O SageMaker armazena código em volumes de armazenamento de Machine Learning, protegidos por grupos de segurança e, opcionalmente, criptografados quando ociosos.

O SageMaker garante que os artefatos de modelos de machine learning e outros artefatos de sistema sejam criptografados quando em trânsito e quando ociosos. As solicitações para a API e o console do SageMaker são realizadas em uma conexão segura (SSL). Você envia os perfis do AWS Identity and Access Management ao SageMaker para fornecer permissões de acesso a recursos em seu nome para treinamento e implantação. Você pode usar buckets criptografados do Amazon Simple Storage Service (Amazon S3) para modelar artefatos e dados, além de enviar uma chave do AWS Key Management Service (AWS KMS) para notebooks, tarefas de treinamento e endpoints do SageMaker para criptografar o volume associado de armazenamento de machine learning. O SageMaker também oferece suporte à Amazon Virtual Private Cloud (Amazon VPC) e ao AWS PrivateLink.

O SageMaker não usa nem compartilha modelos de clientes, dados de treinamento ou algoritmos. Sabemos que os clientes se preocupam muito com a privacidade e a segurança dos dados. É por isso que a AWS oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e avançadas que permitem determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso de seus usuários a serviços e recursos da AWS. Também implementamos controles técnicos e físicos projetados para evitar o acesso e a divulgação não autorizados do seu conteúdo. Como cliente, você mantém a propriedade sobre o seu conteúdo e seleciona quais serviços da AWS podem processar, armazenar e hospedar esse conteúdo. Não acessamos seu conteúdo para qualquer finalidade sem o seu consentimento.

Você paga pelos recursos de computação, armazenamento e processamento de dados de Machine Learning usados para hospedar o notebook, treinar o modelo, executar previsões e registrar as saídas. Com o SageMaker, você pode selecionar o número e o tipo de instância usada para o caderno hospedado para treinamento e para hospedagem de modelos. O pagamento é feito conforme o uso. Não há taxas mínimas nem compromissos antecipados. Para obter detalhes, consulte os preços do Amazon SageMaker e a Calculadora de preços do Amazon SageMaker.

Há diversas práticas recomendadas que você pode adotar para otimizar o uso de recursos do SageMaker. Algumas abordagens envolvem otimizações de configurações, enquanto outras envolvem soluções programáticas. Esta publicação de blog oferece um guia completo sobre esse conceito, com tutoriais visuais e amostras de código.

O SageMaker oferece um fluxo de trabalho completo e total, mas você pode continuar a usar suas ferramentas atuais com o SageMaker. É possível transferir facilmente os resultados de cada fase para dentro e para fora do SageMaker para atender a requisitos de negócios.

Sim. Você pode usar o R nas instâncias de cadernos do SageMaker, que incluem um kernel R pré-instalado e a biblioteca de reticulação. A reticulação oferece uma interface R ao Amazon SageMaker Python SDK, ajudando os profissionais de ML a criar, treinar, ajustar e implantar modelos R. 

O Amazon SageMaker Clarify ajuda a aprimorar a transparência do modelo detectando tendências estatísticas ao longo de todo o fluxo de trabalho de ML. O SageMaker Clarify verifica os desequilíbrios durante a preparação dos dados, após o treinamento e continuamente ao longo do tempo, além de incluir também ferramentas para ajudar a explicar os modelos de ML e suas previsões. As conclusões podem ser compartilhadas por meio de relatórios de explicabilidade.

Medir tendências em modelos de ML é uma primeira etapa na mitigação de tendências. As tendências podem ser medidas antes e depois do treinamento, bem como para inferência para um modelo implantado. Cada medição de tendência corresponde a uma noção diferente de justiça. Mesmo considerando que noções simples de justiça levam a várias medições diferentes aplicáveis em vários contextos. Você deve escolher noções de tendências e métricas que sejam válidas para a aplicação e a situação sob investigação. O SageMaker atualmente é compatível com a computação de diferentes métricas de tendências para dados de treinamento (como parte da preparação de dados do SageMaker) para o modelo treinado (como parte do Amazon SageMaker Experiments) e para inferência de um modelo implantado (como parte do Amazon SageMaker Model Monitor). Por exemplo, antes do treinamento, fornecemos métricas para verificar se os dados de treinamento são representativos (ou seja, se um grupo está sub-representado) e se há diferenças na distribuição de rótulos entre os grupos. Após o treinamento ou durante a implantação, as métricas podem ser úteis para medir se (e por quanto) a performance do modelo difere entre os grupos. Por exemplo, podemos iniciar comparando as taxas de erro (a probabilidade da previsão de um modelo diferir do rótulo verdadeiro) ou avaliar com ainda mais precisão (a probabilidade de uma previsão positiva ser correta) e a revocação (a probabilidade de o modelo rotular corretamente um exemplo positivo).

O SageMaker Clarify é integrado aos SageMaker Experiments para fornecer um gráfico de importância do recurso, detalhando a importância de cada entrada para o processo de tomada de decisão geral do seu modelo após o modelo ter sido treinado. Esses detalhes podem ajudar a identificar se uma determinada entrada do modelo exerce mais influência do que deveria no comportamento geral do modelo. O SageMaker Clarify também oferece explicações para previsões individuais disponíveis por meio de uma API. 

O Amazon SageMaker Studio oferece uma ampla variedade de ambientes de desenvolvimento integrados (IDEs), incluindo JupyterLab, editor de código baseado no Visual Studio - Código aberto (Código - OSS) e RStudio. Você pode escolher seus IDEs preferidos para acessar ferramentas específicas e realizar todas as etapas de desenvolvimento do machine learning (ML), desde a preparação de dados até a criação, o treinamento e a implantação de seus modelos de ML. Você pode carregar dados rapidamente, criar modelos com cadernos e escalar para treinamento distribuído usando seu IDE preferido. 

O RStudio no SageMaker é o primeiro RStudio Workbench totalmente gerenciado na nuvem. Você pode abrir rapidamente o ambiente de desenvolvimento integrado (IDE) do RStudio e aumentar ou reduzir os recursos de computação subjacentes sem interromper seu trabalhando, facilitando a criação em escala de soluções de ML e análises em R. Você pode alternar facilmente entre a IDE do RStudio e os notebooks do SageMaker Studio para desenvolvimento em R ou Python. Todo o seu trabalho, incluindo código, conjuntos de dados, repositórios e outros artefatos, é automaticamente sincronizado entre os dois ambientes para reduzir a troca de contexto e aumentar sua produtividade.

Não há cobrança adicional pela utilização do SageMaker Studio. Você paga apenas pelas taxas de computação e armazenamento subjacentes referentes aos serviços que usa no SageMaker Studio.

Você pode encontrar as regiões nas quais há suporte ao SageMaker Studio no Guia do desenvolvedor do Amazon SageMaker.

Governança de ML

O SageMaker oferece ferramentas de governança de ML específicas para todo o ciclo de vida do ML. Com o Gerenciador de Perfis do Amazon SageMaker, os administradores podem definir permissões mínimas em minutos. Os Cartões de Modelos do Amazon SageMaker facilita a captura, recuperação e compartilhamento de informações essenciais do modelo, desde a concepção até a implantação. E com o Painel de Modelos do Amazon SageMaker, você acompanha o comportamento do modelo em produção, tudo em único lugar. Para
obter mais informações, consulte com o Amazon SageMaker.

Você pode definir permissões mínimas em minutos com o SageMaker Role Manager. Ele fornece um conjunto inicial de permissões para atividades e personas de ML com um catálogo de políticas de IAM pré-configuradas. Você pode manter as permissões iniciais ou personalizá-las de acordo com suas necessidades específicas. Com algumas instruções autoguiadas, você pode inserir rapidamente estruturas de governança comuns como limites de acesso à rede e chaves de criptografia. Em seguida, o SageMaker Role Manager vai gerar automaticamente as políticas do IAM. Você pode encontrar as funções geradas e políticas associadas no console do AWS IAM. Para personalizar as permissões para os seus casos de uso, associe suas políticas do IAM ao perfil do IAM que você criar com o SageMaker Role Manager. Você também pode adicionar tags para ajudar a identificar os perfis e organizá-los nos serviços da AWS.

Os SageMaker Model Cards ajudam você a centralizar e padronizar a documentação dos modelos por todo o ciclo de vida de ML ao criar uma única fonte confiável para informações de modelos. Os SageMaker Model Cards preenchem automaticamente os detalhes de treinamento para agilizar o processo de documentação. Você também pode adicionar detalhes como o propósito do modelo e as metas de performance. Você pode associar resultados de avaliação do modelo ao cartão do modelo e fornecer visualizações para obter insights importantes sobre a performance do modelo. Os SageMaker Model Cards podem ser facilmente compartilhados com outras pessoas em um arquivo PDF exportado.

O SageMaker Model Dashboard fornece uma visão abrangente dos modelos implantados e endpoints para que você acompanhe os recursos e violações de comportamento do modelo em um único painel. Ele permite que você acompanhe o comportamento do modelo em quatro dimensões, incluindo qualidade de dados e do modelo e viés do modelo e desvio de atribuição de recurso por meio da sua integração com o SageMaker Model Monitor e com o SageMaker Clarify. O SageMaker Model Dashboard também proporciona uma experiência integrada para configuração e recebimento de alertas de trabalhos de monitoramento de modelos inativos ou ausentes e desvios no comportamento do modelo por qualidade do modelo, qualidade dos dados, desvio de tendência e desvio de atribuição de recurso. Você também pode inspecionar modelos individuais e analisar fatores que afetam a performance do modelo ao longo do tempo. Em seguida, pode solicitar que os profissionais de ML façam as correções necessárias.

Modelos básicos

O SageMaker JumpStart ajuda você a começar a usar o ML de modo rápido e fácil. O SageMaker JumpStart oferece um conjunto de soluções para os casos de uso mais comuns que podem ser implantados prontamente em apenas algumas etapas. As soluções são totalmente personalizáveis e mostram o uso de modelos do AWS CloudFormation e arquiteturas de referência para que você possa acelerar sua jornada de ML. O SageMaker JumpStart também fornece modelos básicos e oferece suporte para implantação com uma etapa e o ajuste fino de mais de 150 modelos populares de código aberto, como modelos de transformadores, detecção de objetos e classificação de imagens. 

O SageMaker JumpStart fornece modelos proprietários e públicos. Para obter uma lista dos modelos básicos disponíveis, consulte Conceitos básicos do Amazon SageMaker JumpStart.

Você pode acessar modelos básicos por meio do SageMaker Studio, do SageMaker SDK e do Console de Gerenciamento da AWS. Para começar a usar modelos básicos proprietários, você deve aceitar os termos de venda no AWS Marketplace.

Não. Seus dados de inferência e treinamento não serão usados nem compartilhados para atualizar ou treinar o modelo básico que o SageMaker JumpStart apresenta aos clientes.

Não. Modelos proprietários não permitem que os clientes visualizem pesos e scripts de modelos.

Os modelos podem ser descobertos em todas as regiões em que o SageMaker Studio estiver disponível, mas a capacidade de implantar um modelo difere de acordo com a disponibilidade do modelo e da instância do tipo de instância necessário. Você pode consultar a disponibilidade da região da AWS e a instância exigida na página de detalhes do modelo no AWS Marketplace.

Para modelos proprietários, há cobrança pelo preço do software determinado pelo fornecedor do modelo e as cobranças de infraestrutura do SageMaker com base na instância usada. Para modelos disponíveis ao público, são cobradas taxas de infraestrutura do SageMaker com base na instância usada. Para obter mais informações, consulte Preços do Amazon SageMaker e o AWS Marketplace.

A segurança é a principal prioridade na AWS, e o SageMaker JumpStart foi projetado para ser seguro. É por isso que o SageMaker oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e poderosas que ajudam você a determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso dos seus usuários a serviços e recursos da AWS.

  1. Não compartilhamos informações de inferência e treinamento de clientes com vendedores de modelos no AWS Marketplace. Da mesma forma, os artefatos do modelo do vendedor (por exemplo, pesos de modelos) não são compartilhados com o cliente.
  2. O SageMaker JumpStart não usa modelos de clientes, dados de treinamento ou algoritmos para melhorar seu serviço e não compartilha dados de treinamento e inferência de clientes com terceiros.
  3. No SageMaker JumpStart, os artefatos dos modelos de ML são criptografados em trânsito e em repouso.
  4. No Modelo de Responsabilidade Compartilhada da AWS, a AWS é responsável por proteger a infraestrutura global que administra toda a AWS. Você é responsável por manter o controle sobre seu conteúdo hospedado nessa infraestrutura.

Ao usar um modelo do AWS Marketplace ou do SageMaker JumpStart, os usuários assumem a responsabilidade pela qualidade da saída do modelo e reconhecem os recursos e as limitações descritos na descrição individual do modelo.

O SageMaker JumpStart inclui mais de 150 modelos de código aberto pré-treinados do PyTorch Hub e do TensorFlow Hub. Para tarefas de visão, como classificação de imagens e detecção de objetos, você pode aproveitar modelos como o RESNET, MobileNet e single-shot detector (SSD). Para tarefas de texto, como classificação de frases, classificação de textos e respostas a perguntas, você pode usar modelos como BERT, RoBERTa e DistilBERT.

Com o SageMaker JumpStart, cientistas de dados e desenvolvedores de ML podem facilmente compartilhar artefatos de ML, incluindo notebooks e modelos, dentro da organização. Os administradores podem configurar um repositório acessível para um grupo definido de usuários. Todos os usuários com permissão de acesso ao repositório podem explorar, pesquisar e usar modelos e notebooks, bem como todo o conteúdo público dentro do SageMaker JumpStart. Os usuários podem selecionar artefatos para treinar modelos, implantar endpoints e executar notebooks no SageMaker JumpStart.

Com o SageMaker JumpStart, você pode agilizar o tempo de introdução no mercado ao desenvolver aplicativos de ML. Os modelos e notebooks desenvolvidos por uma equipe podem ser facilmente compartilhados com outras equipes dentro da sua organização em apenas algumas etapas. O comportamento interno de conhecimento e a reutilização de ativos pode aumentar a produtividade da sua organização de forma significativa.

O Amazon SageMaker Clarify agora é compatível com a avaliação do modelo de base. Você pode avaliar, comparar e selecionar os melhores modelos de base para seu caso de uso específico. Basta escolher o modelo que deseja avaliar para uma determinada tarefa, como responder perguntas ou resumir conteúdo. Em seguida, selecione os critérios de avaliação (por exemplo, precisão, imparcialidade e robustez) e carregue um conjunto de dados próprio de prompts ou selecione um dos conjuntos de dados integrados disponíveis publicamente. Para critérios subjetivos ou conteúdo diferenciado que exijam julgamento humano sofisticado, você pode decidir aproveitar sua própria força de trabalho ou usar uma força de trabalho gerenciada fornecida pela AWS para analisar as respostas. Depois de concluir o processo de configuração, o SageMaker Clarify executa as avaliações e gera um relatório, para que você possa entender facilmente a performance do modelo em relação aos principais critérios. Você pode avaliar os modelos de base no SageMaker JumpStart usando o assistente de avaliação ou qualquer modelo de base que não esteja hospedado na AWS usando a biblioteca de código aberto.

ML de pouco código

O SageMaker Autopilot é o primeiro recurso de machine learning automatizado do setor que oferece controle e visibilidade completos dos seus modelos de ML. O SageMaker Autopilot inspeciona dados brutos, aplica processadores de recursos, escolhe o melhor conjunto de algoritmos, treina e ajusta vários modelos, monitora a performance e os classifica com base na performance, tudo de maneira automática e com apenas alguns cliques. O resultado é o modelo com melhor performance que você pode implantar em uma fração do tempo normalmente necessário para treinar o modelo. Você obtém total visibilidade de como o modelo foi criado e o que ele contém e o SageMaker Autopilot se integra ao SageMaker Studio. Você pode explorar até 50 modelos diferentes gerados pelo SageMaker Autopilot no SageMaker Studio, facilitando a escolha do melhor modelo para seu caso de uso. O SageMaker Autopilot pode ser usado por pessoas sem experiência em ML para facilmente produzir um modelo. Ele pode ser usado também por desenvolvedores experientes para o desenvolvimento rápido de um modelo de referência em que as equipes podem iterar ainda mais.

Sim. Você pode interromper um trabalho a qualquer momento. Quando um trabalho do SageMaker Autopilot é interrompido, todas as avaliações em andamento são interrompidas e nenhuma nova avaliação é iniciada.

O SageMaker Canvas é um serviço sem código com uma interface intuitiva do tipo apontar e clicar, que permite que você crie previsões baseadas em machine learning altamente precisas a partir dos seus dados. O SageMaker Canvas permite que você acesse e combine dados de várias origens usando uma interface de usuário do tipo arrastar e soltar, limpando e preparando os dados automaticamente para minimizar a limpeza manual. O SageMaker Canvas aplica uma variedade de algoritmos de ML de última geração para encontrar modelos preditivos altamente precisos e fornece uma interface intuitiva para fazer previsões. Você pode usar o SageMaker Canvas para fazer previsões muito mais precisas em uma variedade de aplicações de negócios e colaborar facilmente com cientistas e analistas de dados em sua empresa, compartilhando seus modelos, dados e relatórios. Para saber mais sobre o SageMaker Canvas, consulte Perguntas frequentes sobre o Amazon SageMaker Canvas.

Com o SageMaker Canvas, você paga com base na utilização. O SageMaker Canvas permite que você ingira, explore e prepare seus dados de diversas origens de forma interativa, treine modelos de ML altamente precisos com seus dados e gere previsões. Dois componentes determinam a sua fatura: cobrança por sessão com base no número de horas em que o SageMaker Canvas foi usado ou estava conectado e cobrança pelo treinamento do modelo com base no tamanho do conjunto de dados utilizado para construir o modelo. Para obter mais informações, consulte preços do Amazon SageMaker Canvas.

Fluxos de trabalho de ML

O Amazon SageMaker Pipelines ajuda você a criar fluxos de trabalho de ML totalmente automatizados, da preparação de dados até a implantação do modelo, para que seja possível escalar para milhares de modelos de ML em produção. O SageMaker Pipelines é fornecido com um SDK de Python que se conecta ao SageMaker Studio para que você possa aproveitar uma interface visual para criar cada etapa do fluxo de trabalho. Em seguida, usando uma única API, você pode conectar cada etapa para criar um fluxo de trabalho completo. O SageMaker Pipelines cuida do gerenciamento de dados entre as etapas, empacotando as fórmulas de código e orquestrando sua execução, reduzindo meses de codificação a algumas horas. Sempre que um fluxo de trabalho é executado, um registro completo dos dados processados e das ações realizadas é mantido para que os cientistas de dados e desenvolvedores de ML possam depurar problemas rapidamente.

O SageMaker Pipelines oferece um repositório central de modelos treinados, chamado de registro de modelos. Você pode descobrir modelos e acessar o registro de modelos visualmente por meio do SageMaker Studio ou, programaticamente, por meio do Python SDK, facilitando a escolha do modelo desejado para implantar na produção.

Os componentes disponíveis por meio do SageMaker Studio, incluindo SageMaker Clarify, Amazon SageMaker Data Wrangler, Amazon SageMaker Feature Store, Amazon SageMaker Experiments, Amazon SageMaker Debugger e Amazon SageMaker Model Monitor, podem ser adicionados ao SageMaker Pipelines.

O SageMaker Pipelines rastreia automaticamente todos os constituintes do modelo e mantém uma trilha de auditoria de todas as alterações, eliminando o rastreamento manual, e pode ajudar você a cumprir as metas de conformidade. Você pode rastrear dados, códigos, modelos treinados e muito mais com o SageMaker Pipelines.

Não há cobrança adicional pelo SageMaker Pipelines. Você paga somente pela computação subjacente ou por quaisquer serviços separados da AWS que usar no SageMaker Pipelines.

Sim. Os componentes do Amazon SageMaker para Kubeflow Pipelines são plug-ins de código aberto que permitem o uso do Kubeflow Pipelines para definir fluxos de trabalho de ML e usar o SageMaker para as etapas de rotulagem, treinamento e inferência de dados. O Kubeflow Pipelines é um complemento do Kubeflow que permite a criação e a implantação de pipelines completos de ML portáteis e escaláveis. No entanto, quando usam o Kubeflow Pipelines, as equipes de operações de ML precisam gerenciar um cluster do Kubernetes com instâncias de CPU e GPU, além de manter uma alta utilização constante para reduzir os custos operacionais. A maximização da utilização de um cluster entre equipes de ciência de dados é um desafio e adiciona sobrecarga operacional às equipes de operações de ML. Como alternativa para um cluster Kubernetes otimizado para ML, com os componentes do SageMaker para Kubeflow Pipelines você pode aproveitar os recursos avançados do SageMaker, como rotulagem de dados, trabalhos totalmente gerenciados de ajuste de hiperparâmetros e de treinamento distribuído em larga escala, implantação segura e escalonável de modelos com um clique e treinamento econômico usando instâncias spot do Amazon Elastic Compute Cloud (Amazon EC2) sem precisar configurar e gerenciar clusters do Kubernetes especificamente para a execução de trabalhos de ML.

Não há cobrança adicional pelo uso dos componentes do SageMaker para Kubeflow Pipelines. 

Preparar dados

O SageMaker Data Wrangler reduz o tempo de agregação e preparação de dados para ML. De uma única interface no SageMaker Studio, você pode explorar e importar dados do Amazon S3, do Amazon Athena, do Amazon Redshift, do AWS Lake Formation do Amazon SageMaker Feature Store e do Snowflake em apenas algumas etapas. Você também pode fazer consultas e importar dados que são transferidos de mais de 40 fontes de dados e registrados no Catálogo de Dados do AWS Glue pelo Amazon AppFlow. O SageMaker Data Wrangler faz o carregamento, agregação e exibição dos dados brutos automaticamente. Após importar seus dados no SageMaker Data Wrangler, você pode ver colunas de resumo e histogramas gerados automaticamente. Você pode então analisar seus dados mais a fundo para identificar possíveis erros com o relatório de qualidade dos dados e insights do SageMaker Data Wrangler, que fornece um resumo estatístico e alertas de qualidade. Você também pode executar uma análise de tendência com o SageMaker Clarify diretamente no SageMaker Data Wrangler para detectar possíveis tendências durante a preparação de dados. Ali, você pode usar as transformações predefinidas do SageMaker Data Wrangler para preparar seus dados. Depois que os dados estiverem preparados, você pode criar fluxos de trabalho de ML totalmente automatizados com o Amazon SageMaker Pipelines ou importar os dados para o Amazon SageMaker Feature Store.

O SageMaker Data Wrangler aceita dados tabulares, de séries temporais e de imagens, oferecendo mais de 300 transformações de dados pré-configuradas para preparar diferentes modalidades de dados. Para clientes que desejam preparar dados de texto no Data Wrangler para casos de uso de PLN, o Data Wrangler oferece suporte à biblioteca NLTK para que os clientes possam preparar dados de texto criando transformações personalizadas no Data Wrangler.

Sem escrever uma única linha de código, o SageMaker Data Wrangler pode transformar automaticamente seus dados em novos atributos. O SageMaker Data Wrangler oferece uma seleção de transformações de dados pré-configuradas, como imputação de dados faltantes, codificação one-hot, redução de dimensionalidade usando análise de componentes principais (PCA), bem como transformadores específicos de séries temporais. Por exemplo, você pode converter uma coluna de campo de texto em uma coluna numérica em uma única etapa. Você também pode criar um trecho de código a partir da biblioteca de snippets do SageMaker Data Wrangler.

O SageMaker Data Wrangler ajuda você a entender seus dados e identificar possíveis erros e valores extremos com um conjunto de modelos robustos e pré-configurados de visualização. Histogramas, gráficos de dispersão e visualizações específicas de ML, como detecção de vazamento de destino, estão todos disponíveis sem necessidade de se escrever uma única linha de código. Você também pode criar e editar suas próprias visualizações.

Você paga por todos os recursos de computação, armazenamento e processamento de dados de ML que utiliza no SageMaker Data Wrangler. Você pode revisar todos os detalhes dos preços do SageMaker Data Wrangler aqui. Como parte do nível gratuito da AWS, você também pode começar a usar o SageMaker Data Wrangler gratuitamente.

O SageMaker Data Wrangler oferece uma experiência unificada que permite que você prepare dados e treine perfeitamente um modelo de machine learning no SageMaker Autopilot. O SageMaker Autopilot cria, treina e ajusta automaticamente os melhores modelos de ML com base nos seus dados. Com o SageMaker Autopilot, você ainda mantém total controle e visibilidade do seu modelo e seus dados. Você também pode usar atributos preparados no SageMaker Data Wrangler com seus modelos existentes. Você pode configurar o processamento de trabalhos do SageMaker Data Wrangler para ser executado como parte do seu pipeline de treinamento do SageMaker configurando o trabalho na interface do usuário (IU) ou exportando um notebook com o código de orquestração.

Você pode configurar e iniciar os trabalhos do SageMaker Processing diretamente na IU do SageMaker Data Wrangler, inclusive agendar o seu trabalho de processamento de dados e parametrizar suas fontes de dados para transformar novos lotes de dados em escala com facilidade.

Depois que você tiver preparado seus dados, o SageMaker Data Wrangler oferece diferentes opções para promover seu fluxo do SageMaker Data Wrangler para produção e integra perfeitamente com MLOps e recursos de CI/CD. Você pode configurar e iniciar os trabalhos do SageMaker Processing diretamente na IU do SageMaker Data Wrangler, inclusive agendar o seu trabalho de processamento de dados e parametrizar suas fontes de dados para transformar novos lotes de dados em escala com facilidade. Alternativamente, o SageMaker Data Wrangler se integra perfeitamente ao SageMaker Processing e ao contêiner do SageMaker Spark, permitindo que você use o SDK do SageMaker para integrar o SageMaker Data Wrangler no seu fluxo de trabalho de produção.

Em algumas etapas, o SageMaker Data Wrangler divide e treina um modelo XGBoost com hiperparâmetros padrão. Com base no tipo de problema, o SageMaker Data Wrangler fornece um resumo do modelo, um resumo dos atributos e uma matriz de confusão para que você tenha informações rápidas para poder iterar seus dados nos fluxos de preparação. 

O SageMaker Data Wrangler oferece suporte a várias técnicas de amostragem, como top-K, aleatória e estratificada para importação de dados, para que você possa transformar seus dados rapidamente usando a IU do SageMaker Data Wrangler. Se você estiver usando conjuntos de dados grandes ou largos, pode aumentar o tamanho da instância do SageMaker Data Wrangler para melhorar a performance. Depois de criar seu fluxo, você pode processar o seu conjunto de dados completo usando os trabalhos de processamento do SageMaker Data Wrangler.

Você pode configurar o SageMaker Feature Store como um destino para seus atributos preparados no SageMaker Data Wrangler. Isso pode ser feito diretamente na IU ou você pode exportar um notebook gerado especificamente para processamento de dados com o SageMaker Feature Store como um destino.

O SageMaker Feature Store fornece um repositório central de recursos de dados com leituras e gravações de baixa latência (milissegundos). Os recursos podem ser armazenados, recuperados, descobertos e compartilhados por meio do SageMaker Feature Store para fácil reutilização em modelos e equipes com acesso e controle seguros. O SageMaker Feature Store é compatível com recursos online e offline gerados por meio de pipelines em lote ou de transmissão. Ela é compatível com preenchimento dos recursos e fornece armazenamento online e offline para manter a paridade entre os recursos usados no treinamento do modelo e na inferência.

A SageMaker Feature Store mantém automaticamente a consistência entre os recursos online e offline sem necessidade de gerenciamento ou código adicional. A SageMaker Feature Store é totalmente gerenciada e mantém a consistência nos ambientes de treinamento e inferência.

A SageMaker Feature Store mantém registros de data e hora para todos os recursos em todas as instâncias. Isso ajuda você a recuperar recursos a qualquer momento para requisitos de negócios ou de conformidade. Você pode explicar facilmente os recursos do modelo e seus valores desde a primeira vez que foram criados até o momento presente, reproduzindo o modelo com base em um determinado momento.

Os recursos offline são usados para treinamento, pois você precisa acessar volumes muito grandes por um longo período de tempo. Esses recursos são servidos por um repositório de alta vazão e alta largura de banda.

Os atributos online são usados em aplicações necessárias para fazer previsões em tempo real. Os atributos online são operados de um repositório com alto throughput e latência abaixo de dez milissegundos para previsões rápidas.

Comece a usar o arquivo do SageMaker Feature Store gratuitamente como parte do nível gratuito da AWS. Com a SageMaker Feature Store, você paga para gravar na loja de recursos e ler e armazenar na loja de recursos online. Para obter detalhes dos preços, consulte preços do Amazon SageMaker.

O SageMaker oferece duas ofertas de rotulagem de dados: Amazon SageMaker Ground Truth Plus e Amazon SageMaker Ground Truth. Ambas as opções permitem a identificação de dados brutos, como imagens, arquivos de texto e vídeos, e a adição de rótulos informativos para criar conjuntos de dados de treinamento de alta qualidade para seus modelos de ML. Para saber mais, consulte Rotulagem de dados do Amazon SageMaker.

Dados geoespaciais representam características ou objetos na superfície da Terra. O primeiro tipo de dado geoespacial é um vetor de dados que usa elementos geométricos bidimensionais como pontos, linhas ou polígonos para representar objetos como estradas e limites de terras. O segundo tipo de dado geoespacial são dados rasterizados como imagens capturadas por satélite, plataformas aéreas ou dados de sensoriamento remoto. Esse tipo de dado usa uma matriz de pixels para definir onde os atributos estão localizados. Você pode usar formatos rasterizados para armazenar dados variáveis. Um terceiro tipo de dado geoespacial são os dados com geotag da localização. Isso inclui pontos de interesse, como a Torre Eiffel, por exemplo, locais marcados em publicações nas redes sociais, coordenadas de latitude e longitude ou diferentes estilos e formatos de endereços físicos.

Os recursos geoespaciais do SageMaker facilitam para cientistas de dados e engenheiros de ML as tarefas de criar, treinar e implantar modelos de ML para fazer previsões usando dados geoespaciais. Você pode trazer seus próprios dados, como dados de satélite da Planet Labs do Amazon S3, ou adquirir dados do Open Data na AWS, do Amazon Location Service e de outras fontes de dados geoespaciais do SageMaker.

Você pode usar os recursos geoespacial do SageMaker para fazer previsões sobre dados geoespaciais mais rapidamente do que soluções do tipo “faça você mesmo”. Os recursos geoespaciais do SageMaker facilitam o acesso aos dados geoespaciais dos data lakes existentes dos clientes, conjuntos de dados de código aberto e outras fontes de dados geoespaciais do SageMaker. Os recursos geoespaciais do SageMaker minimizam a necessidade de criar funções personalizadas de infraestrutura e pré-processamento de dados, oferecendo algoritmos específicos para preparação eficiente de dados, treinamento de modelos e inferência. Você também pode criar e compartilhar visualizações e dados personalizados dentro da sua organização com o SageMaker Studio. Os recursos geoespaciais do SageMaker incluem modelos pré-treinados para usos comuns em agricultura, imóveis, seguros e serviços financeiros.

Criar modelos

Os notebooks do SageMaker Studio são cadernos Jupyter colaborativos, gerenciados e de início rápido. Os notebooks do SageMaker Studio se integram com ferramentas específicas de ML no SageMaker e em outros serviços da AWS para o desenvolvimento de ML completo no SageMaker Studio, o IDE completo para ML.

Os cadernos do SageMaker Studio oferecem alguns recursos importantes que os diferenciam dos cadernos baseados em instâncias. Com os cadernos do Studio, é possível iniciar rapidamente cadernos sem precisar provisionar uma instância manualmente e esperar que ela fique operacional. O tempo de inicialização da execução da IU para leitura e execução de um caderno é mais rápido do que os cadernos baseados em instância.

Você também tem a flexibilidade de escolher entre uma grande coleção de tipos de instância diretamente da IU a qualquer momento. Não será mais necessário acessar o Console de Gerenciamento da AWS para iniciar novas instâncias e fazer a portabilidade dos seus cadernos.

Cada usuário tem um diretório inicial isolado, independente de uma instância específica. Esse diretório é montado automaticamente em todos os servidores de cadernos e kernels à medida que são inicializados, permitindo que você acesse seus cadernos e outros arquivos mesmo que mude de instância para visualizar e executar seus cadernos.

Os notebooks do SageMaker Studio são integrados ao Centro de Identidade do AWS IAM (sucessor do AWS SSO), facilitando o uso de suas credenciais organizacionais para acessá-los. O compartilhamento de notebooks é um recurso integrado nos notebooks do SageMaker Studio. Você pode compartilhar seus notebooks com seus pares com apenas uma etapa ou até mesmo editar um notebook em conjunto ao mesmo tempo.

Os cadernos do SageMaker Studio são cadernos Jupyter que podem ser iniciados rapidamente com uma etapa. Os recursos de computação subjacentes são totalmente elásticos. Portanto, você pode aumentar ou reduzir facilmente os recursos disponíveis, e as alterações ocorrem automaticamente em segundo plano sem interromper seu trabalho. O SageMaker também permite o compartilhamento de blocos de anotações com uma etapa. Você pode compartilhar facilmente cadernos com outros usuários e eles receberão exatamente o mesmo caderno, salvo no mesmo local.

Com os cadernos do SageMaker Studio, você pode fazer login com suas credenciais corporativas usando o IAM Identity Center. É fácil compartilhar notebooks dentro das equipes e entre elas, pois as dependências necessárias para a execução de um notebooks são rastreadas automaticamente em imagens de trabalho encapsuladas com o notebooks quando ele é compartilhado.

Profissionais de ML podem criar uma área de trabalho compartilhada onde os membros da equipe podem ler e editar notebooks do SageMaker Studio juntos. Ao usar os espaços compartilhados, os colegas de equipe podem coeditar o mesmo arquivo de notebook, executar o código do notebook simultaneamente e analisar os resultados juntos para eliminar idas e vindas e simplificar a colaboração. Nos espaços compartilhados, as equipes de ML terão suporte integrado para serviços como BitBucket e AWS CodeCommit para que possam gerenciar com facilidade diferentes versões do notebook e comparar alterações ao longo do tempo. Todos os recursos criados dentro dos notebooks, como experimentos e modelos de ML, são automaticamente gravados e associados ao espaço de trabalho específico no qual foram criados para facilitar a organização e agilizar o desenvolvimento de modelos de ML.

Os notebooks do SageMaker Studio oferecem acesso a todos os recursos do SageMaker, como treinamento distribuído, transformação em lote, hospedagem e gerenciamento de experimentos. Você pode acessar outros serviços, como conjuntos de dados no Amazon S3, no Amazon Redshift, no AWS Glue, no Amazon EMR ou no AWS Lake Formation a partir dos notebooks do SageMaker.

Quando você usa cadernos do SageMaker Studio, paga por computação e armazenamento. Consulte os preços do Amazon SageMaker para ver a cobrança por tipo de instância de computação. Seus blocos de anotações e artefatos associados, como arquivos de dados e scripts, são persistidos no Amazon Elastic File System (Amazon EFS). Consulte os preços do Amazon EFS para ver as taxas de armazenamento. Como parte do nível gratuito da AWS, você pode começar a usar gratuitamente os cadernos do SageMaker Studio.

Não. Você pode criar e executar vários blocos de anotações na mesma instância de computação. Você paga apenas pela computação utilizada e não por itens individuais. Leia mais sobre isso em nosso guia de medição.

Além dos notebooks, você também pode iniciar e executar terminais e shells interativos no SageMaker Studio, tudo na mesma instância de computação. Cada aplicação é executada em um contêiner ou em uma imagem. O SageMaker Studio fornece várias imagens incorporadas, criadas e pré-configuradas especificamente para ciência de dados e ML. Você pode ler mais sobre o ambiente do desenvolvedor do SageMaker Studio no nosso guia sobre o uso de cadernos do SageMaker Studio.

Você pode monitorar e desativar os recursos usados pelos cadernos do SageMaker Studio usando a interface visual do SageMaker Studio e o Console de Gerenciamento da AWS. Consulte a documentação para obter mais detalhes.

Sim, você continuará a ser cobrado pela computação. Esta situação é semelhante a iniciar instâncias do Amazon EC2 no Console de Gerenciamento da AWS e depois fechar o navegador. As instâncias do Amazon EC2 continuam em execução e a cobrança continua ativa, a menos que encerre explicitamente a instância.

Não. A criação e configuração de um domínio do SageMaker Studio não é cobrada, assim como a inclusão, alteração e exclusão de perfis de usuário.

Como administrador, você pode ver a lista de cobranças discriminadas do SageMaker, incluindo o SageMaker Studio, no Console de Faturamento da AWS. No Console de Gerenciamento da AWS para o SageMaker, selecione Serviços no menu superior, digite cobrança na caixa de pesquisa, selecione Cobrança na lista suspensa e Cobrança no painel esquerdo. Na seção Detalhes, você pode selecionar SageMaker para ampliar a lista de regiões e detalhar as cobranças por item.

O SageMaker Studio Lab é um ambiente de desenvolvimento de ML gratuito que fornece computação, armazenamento (até 15 GB) e segurança, tudo sem custo, para qualquer pessoa aprender e experimentar ML. Tudo que você precisa para começar é um ID de e-mail válido. Você não precisa configurar a infraestrutura ou gerenciar a identidade e o acesso ou até mesmo se cadastrar em uma conta da AWS. O SageMaker Studio Lab acelera a criação de modelos por meio da integração do GitHub e vem pré-configurado com as ferramentas, estruturas e bibliotecas de ML mais populares para você começar imediatamente. O SageMaker Studio Lab salva automaticamente seu trabalho para que você não precise reiniciá-lo entre as sessões. É tão fácil quanto fechar seu laptop e voltar mais tarde.

 O SageMaker Studio Lab se destina a estudantes, pesquisadores e cientistas de dados que precisam de um ambiente gratuito para desenvolvimento de notebooks sem necessidade de configuração para suas aulas e experimentos de ML. O SageMaker Studio Lab é ideal para usuários que não precisam de um ambiente de produção, mas ainda desejam um subconjunto de funcionalidades do SageMaker para aprimorar suas habilidades de ML. As sessões do SageMaker são salvas automaticamente, ajudando os usuários a continuar de onde pararam em cada sessão.

SageMaker Studio Lab é um serviço criado na AWS e usa muitos dos mesmos serviços essenciais do Amazon SageMaker Studio, como Simple Storage Service (Amazon S3) e Amazon EC2. Ao contrário de outros serviços, os clientes não precisarão de uma conta da AWS. Em vez disso, eles criarão uma conta específica do SageMaker Studio Lab com um endereço de e-mail. Isso dará ao usuário acesso a um ambiente limitado (15 GB de armazenamento e sessões de 12 horas) para executar cadernos de ML.

O SageMaker Canvas é um serviço visual de arrastar e soltar que permite que analistas de negócios criem modelos de ML e gerem previsões precisas sem escrever qualquer código ou ter experiência em ML. O SageMaker Canvas torna mais fácil acessar e combinar dados de uma variedade de fontes, limpar dados automaticamente e aplicar uma variedade de ajustes de dados e criar modelos de ML para gerar previsões precisas com uma única etapa. Você também pode publicar resultados facilmente, explicar e interpretar modelos e compartilhar modelos com outras pessoas em sua organização para revisão.

O SageMaker Canvas ajuda você a descobrir perfeitamente as fontes de dados da AWS às quais sua conta tem acesso, incluindo o Simple Storage Service (Amazon S3) e o Amazon Redshift. Você pode navegar e importar dados usando a interface visual do tipo arrastar e soltar do SageMaker Canvas. Além disso, você pode arrastar e soltar arquivos do disco local e usar conectores predefinidos para importar dados de fontes de terceiros, como o Snowflake.

Depois de conectar as origens, selecionar um conjunto de dados e preparar seus dados, você pode selecionar a coluna de destino que deseja prever para iniciar um trabalho de criação de modelo. O SageMaker Canvas identifica automaticamente o tipo de problema, gera novos atributos relevantes, testa um conjunto abrangente de modelos preditivos usando técnicas de ML como regressão linear, regressão logística, aprendizado profundo, previsão de séries temporais e boosting de gradiente, e cria o modelo que faz previsões precisas com base no seu conjunto de dados.

O tempo que leva para construir um modelo depende do tamanho do seu conjunto de dados. Conjuntos de dados pequenos podem levar menos de 30 minutos e conjuntos de dados grandes podem levar algumas horas. Conforme o trabalho de criação do modelo avança, o SageMaker Canvas fornece atualizações visuais detalhadas, incluindo a porcentagem de conclusão e a quantidade de tempo restante para a conclusão do trabalho.

Treinar modelos

O SageMaker HyperPod foi desenvolvido especificamente para acelerar o treinamento de modelos de base (FMs). Ele fornece uma infraestrutura mais resiliente, otimizada para treinamento distribuído em grande escala, permitindo que você treine em milhares de aceleradores com mais rapidez. Ele detecta, diagnostica e se recupera automaticamente das falhas, para que você possa treinar FMs por meses seguidos sem interrupções. O SageMaker HyperPod é pré-configurado com as bibliotecas de treinamento distribuídas do SageMaker para ajudar você a melhorar a performance de forma eficiente, distribuindo os dados de treinamento do modelo em partes menores, para que possam ser processados em paralelo nos aceleradores.

O SageMaker Experiments ajuda na organização e no monitoramento de iterações para modelos de ML. O SageMaker Experiments ajuda a gerenciar as iterações ao capturar automaticamente os parâmetros de entrada, as configurações e os resultados, armazenando-os como "experimentos". Você pode trabalhar na interface visual do SageMaker Studio, onde pode procurar experimentos ativos, pesquisar experimentos anteriores pelas características, revisar experimentos anteriores pelos resultados deles e comparar visualmente os experimentos.

Se você precisar de workloads de treinamento maiores e mais longas que exijam uma grande quantidade de instâncias de computação, como GPUs ou aceleradores da AWS, você pode usar o SageMaker HyperPod para uma experiência mais resiliente e reduzir o tempo de treinamento.

 O SageMaker Debugger captura automaticamente métricas em tempo real durante o treinamento, como matrizes de confusão e gradientes de aprendizado, para ajudar a melhorar a precisão do modelo. As métricas do SageMaker Debugger podem ser visualizadas no SageMaker Studio para facilitar o entendimento. O SageMaker Debugger também pode gerar avisos e conselhos de correção quando problemas comuns de treinamento são detectados. O SageMaker Debugger também monitora automaticamente e cria perfis de recursos do sistema, como CPU, GPU, rede e memória em tempo real e fornece recomendações sobre a realocação destes recursos. Isso ajuda você a usar seus recursos de modo eficiente durante o treinamento e ajuda a reduzir custos e recursos.

Sim. O SageMaker pode distribuir automaticamente modelos de aprendizado profundo e grandes conjuntos de treinamento em instâncias de GPU da AWS em uma fração do tempo necessário para construir e otimizar essas estratégias de distribuição manualmente. As duas técnicas de treinamento distribuído aplicadas pelo SageMaker são paralelismo de dados e paralelismo de modelos. O paralelismo de dados é aplicado para melhorar as velocidades de treinamento, dividindo os dados igualmente em várias instâncias de GPU, permitindo que cada instância treine simultaneamente. O paralelismo de modelos é útil para modelos muito grandes para serem armazenados em uma única GPU, o que exige que o modelo seja particionado em partes menores antes de ser distribuído em várias GPUs. Com apenas algumas linhas de código adicional em seus scripts de treinamento PyTorch e TensorFlow, o SageMaker aplicará automaticamente o paralelismo de dados ou o paralelismo de modelo para você, permitindo que você desenvolva e implante seus modelos mais rapidamente. O SageMaker determinará a melhor abordagem para dividir seu modelo usando algoritmos de particionamento gráfico para equilibrar a computação de cada GPU, ao mesmo tempo minimizando a comunicação entre instâncias de GPU. O SageMaker também otimiza seus trabalhos de treinamento distribuído por meio de algoritmos que utilizam totalmente a infraestrutura de computação e rede da AWS para obter eficiência de escalabilidade quase linear, o que permite concluir o treinamento com mais rapidez em comparação com as implementações de código aberto manuais.

O SageMaker Training Compiler é um compilador de aprendizado profundo (DL) que acelera o treinamento do modelo de DL em até 50 por cento por meio de otimizações em nível de gráfico e kernel para usar GPUs com mais eficiência. O SageMaker Training Compiler é integrado às versões do TensorFlow e PyTorch no SageMaker para que você possa agilizar o treinamento nesses frameworks populares com um mínimo de alterações no código.

O SageMaker Training Compiler acelera os trabalhos de treinamento ao converter modelos de deep learning (DL - aprendizado profundo) com base na sua representação de linguagem de alto nível em instruções otimizadas por hardware que treinam mais rápido do que trabalhos com os frameworks nativos. Mais especificamente, o SageMaker Training Compiler usa otimização em nível de gráficos (fusão de operador, planejamento de memória e simplificação algébrica), otimizações de nível de fluxo de dados (transformação de layout, eliminação de subexpressão comum) e otimizações de backend (ocultação de latência de memória, otimizações orientadas em loop) para produzir um trabalho otimizado de treinamento de modelo que usa recursos de hardware com mais eficiência e, como resultado, treina com mais rapidez.

O SageMaker Training Compiler é integrado ao SDK do SageMaker para Python e aos contêineres de aprendizado profundo da Hugging Face para SageMaker. Você não precisa alterar seus fluxos de trabalho para acessar os benefícios de aceleração. Você pode executar trabalhos de treinamento da mesma maneira que já faz, usando qualquer uma das interfaces do SageMaker: instâncias de cadernos do SageMaker, SageMaker Studio, AWS SDK para Python (Boto3) e a AWS Command Line Interface (AWS CLI). Você pode habilitar o SageMaker Training Compiler adicionando uma classe TrainingCompilerConfig como um parâmetro ao criar um objeto estimador no framework. Na prática, isso significa algumas linhas de código adicionadas a um script de job de treinamento existente para uma única instância de GPU. A documentação detalhada mais atualizada, cadernos de amostra e exemplos estão disponíveis na documentação.

O SageMaker Training Compiler é um recurso de treinamento do SageMaker e é fornecido sem custo adicional exclusivamente para clientes do SageMaker. Os clientes podem, realmente, reduzir seus custos com o SageMaker Training Compiler, pois os tempos de treinamento são reduzidos.

O treinamento gerenciado de spots com o SageMaker permite treinar modelos de ML usando instâncias spot do Amazon EC2 e reduzir o custo do treinamento de modelos em até 90%.

Você habilita a opção de Treinamento gerenciado de spots ao enviar suas tarefas de treinamento e também especifica por quanto tempo aguardará a capacidade spot. O SageMaker usará instâncias spot do Amazon EC2 para executar seu trabalho e gerenciará a capacidade spot. Você tem total visibilidade do status dos trabalhos de treinamento, seja enquanto eles estão em execução, seja enquanto eles estão aguardando capacidade.

O treinamento gerenciado de spots é ideal quando você tem flexibilidade com suas execuções de treinamento e quando quer minimizar o custo dos seus trabalhos de treinamento. Com o treinamento gerenciado de spots, você pode reduzir o custo de treinamento de modelos de ML em até 90%.

O treinamento gerenciado de spots usa instâncias spot do Amazon EC2 para treinamento, e essas instâncias poderão ser pré-esvaziadas quando a AWS precisar de capacidade. Como resultado, os trabalhos do treinamento gerenciado de spots podem ser executadas em pequenos incrementos como e quando a capacidade se tornar disponível. Os trabalhos de treinamento não precisam ser reiniciadas do zero quando há um interrupção, pois o SageMaker pode retomar trabalhos de treinamento usando o ponto de verificação mais recente do modelo. As frameworks integradas e os algoritmos integrados de visão computacional com o Amazon SageMaker habilitam pontos de verificação periódicos, sendo possível habitá-los com modelos personalizados.

Recomendamos usar pontos de verificação periódicos como prática recomendada para a execução prolongada de trabalhos de treinamento. Isso impede que seus trabalhos de treinamento gerenciado de spots sejam reinicializados se a capacidade for pré-esvaziada. Quando você habilita os pontos de verificação, o SageMaker retoma suas tarefas de Treinamento gerenciado de spots desde o ponto de verificação mais recente.

Depois de concluir um trabalho de treinamento gerenciado de spots, você pode ver a economia no Console de Gerenciamento da AWS e também calcular a economia de custo como a diferença percentual entre a duração do trabalho de treinamento e a duração que foi faturada.

Independentemente de quantas vezes seus trabalhos de treinamento gerenciado de spots foram interrompidos, você será cobrado somente uma vez com base no tempo gasto para baixar os dados.

O treinamento gerenciado de spots pode ser usado com todas as instâncias compatíveis com o SageMaker.

O treinamento gerenciado de spots é compatível com todas as regiões em que o SageMaker está atualmente disponível.

Não há limites fixos para o tamanho do conjunto de dados que pode ser usado para modelos de treinamento com o SageMaker.

O SageMaker inclui algoritmos integrados para regressão linear, regressão logística, clusters k-means, análise de componente principal, máquinas de fatoração, modelagem de tópicos neural, alocação latente de dirichlet, árvores reforçadas com gradiente, sequence2sequence, previsão de séries temporais, word2vec e classificação de imagens. O SageMaker também fornece contêineres otimizados do Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn e Deep Graph Library. Além disso, o SageMaker oferece suporte a algoritmos de treinamento personalizados fornecidos por meio de uma imagem do Docker de acordo com a especificação documentada.

A maioria dos algoritmos de ML expõe diversos parâmetros que controlam a como o algoritmo subjacente opera. Geralmente, esses parâmetros são mencionados como hiperparâmetros e seus valores afetam a qualidade dos modelos treinados. O ajuste automático de modelos é o processo de encontrar um conjunto de hiperparâmetros de um algoritmo que gera um modelo ideal.

Você pode executar o ajuste automático de modelos no SageMaker para qualquer algoritmo, desde que cientificamente viável, incluindo algoritmos incorporados do SageMaker, redes neurais profundas ou algoritmos arbitrários a serem incorporados ao SageMaker na forma de imagens do Docker.

Não neste momento. A performance e a experiência do ajuste de modelos são melhores dentro do SageMaker.

No momento, o algoritmo de ajuste de hiperparâmetros é uma implementação personalizada da otimização Bayesiana. Essa implementação se destina a otimizar uma métrica de objetivo especificada pelo cliente durante todo o processo de ajuste. Especificamente, a implementação verifica a métrica do objeto de trabalhos de treinamento concluídos e usa esse conhecimento para inferir a combinação de hiperparâmetros para o próximo trabalho de treinamento.

Não. O impacto de determinados hiperparâmetros sobre a performance do modelo depende de vários fatores. É difícil afirmar com certeza se um hiperparâmetro é mais importante do que os demais e, portanto, precisa de ajuste. Para algoritmos incorporados ao SageMaker, informamos se um hiperparâmetro é ou não ajustável.

A duração do trabalho de ajuste de um hiperparâmetro depende de vários fatores, incluindo o tamanho dos dados, o algoritmo subjacente e os valores dos hiperparâmetros. Além disso, os clientes podem escolher o número de trabalhos de treinamento simultâneos e o seu número total. Todas essas escolhas afetam a duração do trabalho de ajuste de hiperparâmetros.

Não neste momento. No momento, é necessário especificar uma única métrica de objetivo a ser otimizada ou alterar o código do algoritmo para emitir uma nova métrica, que é a média ponderada entre duas ou mais métricas úteis, e fazer o processo de ajuste otimizar considerando esta nova métrica de objetivo.

O trabalho de ajuste de hiperparâmetros não é cobrado. Os trabalhos de treinamento, iniciados pelo trabalho de ajuste de hiperparâmetros, serão cobrados de acordo com o preço de treinamento do modelo.

O SageMaker Autopilot automatiza tudo em um fluxo de trabalho típico de ML, incluindo pré-processamento de recursos, seleção de algoritmos e ajuste de hiperparâmetros, concentrando-se especificamente em casos de uso de classificação e regressão. Por outro lado, o ajuste automático de modelos se destina a ajustar qualquer modelo, não importando se ele é baseado em algoritmos integrados, frameworks de aprendizado profundo ou contêineres personalizados. Em troca da flexibilidade, você deve escolher manualmente o algoritmo específico, os hiperparâmetros a serem ajustados e os intervalos de pesquisa correspondentes.

Aprendizado por reforço é uma técnica de ML que permite que um atendente aprenda em um ambiente interativo por tentativa e erro, usando feedback recebido por suas próprias ações e experiências.

Sim, você pode treinar modelos de aprendizado por reforço no SageMaker, além dos modelos de aprendizado supervisionado e não supervisionado.

Embora ambos os aprendizados usem mapeamento entre entrada e saída, ao contrário do aprendizado supervisionado em que o feedback fornecido para o atendente é o conjunto correto de funções para execução de uma tarefa, o aprendizado por reforço usa um feedback atrasado em que sinais de recompensa são otimizados para garantir um objetivo em longo prazo por meio de uma sequência de ações.

Enquanto o objetivo das técnicas de aprendizado supervisionado é encontrar a resposta certa com base nos padrões dos dados de treinamento, o objetivo das técnicas de aprendizado não supervisionado é encontrar semelhanças e diferenças entre os pontos de dados. Em contraste, o objetivo das técnicas de aprendizado por reforço (RL) é aprender como alcançar um resultado desejado mesmo quando não estiver claro o que deve ser feito para isso. Como resultado, o RL é mais adequado para habilitar aplicações inteligentes, em que um atendente pode tomar decisões autônomas, como robótica, veículos autônomos, HVAC, controle industrial e muito mais.

O RL do Amazon SageMaker oferece suporte a diversos ambientes diferentes para treinamento de modelos de RL. Use produtos da AWS, como o AWS RoboMaker, ambientes de código aberto ou ambientes personalizados desenvolvidos usando interfaces Open AI Gym, ou ambientes de simulação comerciais, como o MATLAB e o SimuLink.

Não, o RL do SageMaker inclui toolkits de RL, como Coach and Ray RLLib, que oferecem implementações de algoritmos de atendente de RL, como DQN, PPO, A3C e muito mais.

Sim, você pode usar suas próprias bibliotecas de RL e implementações de algoritmo em contêineres Docker e executá-las no RL do SageMaker.

Sim. Também é possível selecionar um cluster heterogêneo onde o treinamento pode ser executado em uma instância da GPU e as simulações podem ser executadas em várias instâncias da CPU.

Implantar modelos

Depois de criar e treinar modelos, o SageMaker oferece três opções para implantá-los para que você possa começar a fazer previsões. A inferência em tempo real é adequada para workloads com requisitos de latência de milissegundos, tamanhos de carga útil de até 6MB e tempos de processamento de até 60 segundos. A transformação em lote é ideal para previsões offline em grandes lotes de dados que estão disponíveis antecipadamente. A inferência assíncrona se destina a workloads sem requisitos de latência de subsegundo, com tamanhos de carga útil de até 1GB e tempos de processamento de até 15 minutos. 

A inferência assíncrona do SageMaker produz filas de solicitações de entrada e as processa de forma assíncrona. Essa opção é ideal para solicitações com grandes tamanhos de carga útil e/ou longos tempos de processamento que precisam ser processados à medida que chegam. Opcionalmente, é possível definir configurações de escalabilidade automática para reduzir a escala na vertical da instância a zero quando ela não estiver processando ativamente as solicitações para economizar custos. 

É possível reduzir a escala verticalmente da contagem de instâncias de endpoint de inferência assíncrona do SageMaker a zero para economizar custos quando você não estiver processando ativamente as solicitações. Você precisa definir uma política de escalabilidade para escalar a métrica personalizada 'ApproximateBacklogPerInstance' e definir o valor 'MinCapacity' a zero. Para obter instruções detalhadas, visite a seção escalar um endpoint assíncrono automaticamente no guia do desenvolvedor. 

Inferência Sem Servidor do SageMaker é uma opção de serviço de modelo sem servidor desenvolvida para fins específicos que facilita a implantação e a escala de modelos de ML. Os pontos de extremidade de Inferência Sem Servidor do SageMaker iniciam automaticamente os recursos de computação e aumentam e diminuem a escala dependendo do tráfego, eliminando a necessidade de você escolher o tipo de instância, executar a capacidade provisionada ou gerenciar o escalonamento. Opcionalmente, você pode especificar os requisitos de memória para seu endpoint de inferência sem servidor. Você paga apenas pela duração da execução do código de inferência e pela quantidade de dados processados, não pelos períodos ociosos.

A Inferência Sem Servidor do SageMaker simplifica a experiência do desenvolvedor ao eliminar a necessidade de provisionar capacidade antecipadamente e gerenciar políticas de escalabilidade. A Inferência Sem Servidor do SageMaker pode escalar instantaneamente de dezenas a milhares de inferências em segundos com base nos padrões de uso, tornando-o ideal para aplicações de ML com tráfego intermitente ou imprevisível. Por exemplo, um serviço de chatbot usado por uma empresa de processamento de folha de pagamento vivencia um aumento nas consultas no final do mês, enquanto no restante do mês o tráfego é intermitente. O provisionamento de instâncias para o mês inteiro em tais cenários não é econômico, pois você acaba pagando por períodos ociosos. A inferência sem servidor do SageMaker ajuda a lidar com esses tipos de casos de uso ao fornecer redução da escala automática e rápida pronta para uso, sem a necessidade de prever o tráfego antecipadamente ou gerenciar políticas de escalabilidade. Além disso, você paga apenas pelo tempo de computação para executar seu código de inferência (cobrado em milissegundos) e pelo processamento de dados, tornando esta uma opção econômica para workloads com tráfego intermitente.

A simultaneidade provisionada permite que você implante modelos em endpoints de tecnologia sem servidor com desempenho previsível e alta escalabilidade, mantendo seus endpoints aquecidos para um número específico de solicitações simultâneas.

Com endpoints de tecnologia sem servidor sob demanda, se seu endpoint não receber tráfego por um tempo e, de repente, receber novas solicitações, pode levar algum tempo até que seu endpoint ative os recursos de computação para processar as solicitações. Isso é chamado de inicialização a frio. Uma inicialização a frio também pode ocorrer se suas solicitações simultâneas excederem o uso atual da solicitações simultâneas. O tempo de inicialização a frio depende do tamanho do modelo, do tempo necessário para fazer o download do modelo e do tempo de inicialização do contêiner.

Para reduzir a variabilidade em seu perfil de latência, você pode ativar a Simultaneidade Provisionada para seus endpoints de tecnologia sem servidor. Com a Simultaneidade provisionada, seus endpoints de tecnologia sem servidor estão sempre prontos e podem atender instantaneamente picos de tráfego, sem inicialização a frio.

Assim como na Inferência Sem Servidor sob demanda, quando a simultaneidade provisionada é ativada, você paga pela capacidade computacional usada para processar solicitações de inferência, cobrada por milissegundo, e pela quantidade de dados processados. Você também paga pelo uso da simultaneidade provisionada, com base na memória configurada, na duração provisionada e na quantidade de simultaneidade habilitada. Para obter mais informações, consulte Preços do Amazon SageMaker.

O SageMaker ajuda você a executar testes de sombra para avaliar um novo modelo de ML antes da liberação em produção, testando sua performance em comparação com o modelo já implantado. O SageMaker implanta o novo modelo em modo sombra junto com o modelo atual em produção e espelha uma porção definida pelo usuário do tráfego de produção para o novo modelo. Opcionalmente, ele registra as inferências do modelo em um log para comparação offline. Ele também oferece um painel em tempo real com a comparação das principais métricas de performance, como latência e taxa de erros, entre o modelo em produção e o sombra para ajudar a decidir se o novo modelo deve ser promovido para produção.

O SageMaker simplifica o processo de definição e monitoramento de variantes sombra para que você possa avaliar a performance do novo modelo de ML com o tráfego real de produção. O SageMaker elimina a necessidade de orquestrar a infraestrutura para testes de sombra. Ele permite que você controle parâmetros, como a porcentagem de tráfego espelhado para a variante sombra e a duração do teste. Como resultado, você pode começar pequeno e aumentar as solicitações de inferência para o novo modelo depois que estiver mais confiante quanto à performance dele. O SageMaker cria painéis em tempo real que mostram as diferenças de performance nas principais métricas para que você possa comparar e avaliar as diferenças de performance entre o novo modelo e o modelo em produção.

O SageMaker Inference Recommender reduz o tempo necessário para colocar os modelos de ML em produção, automatizando a comparação de performance e ajustando a performance do modelo em instâncias de ML do SageMaker. Agora você pode usar o SageMaker Inference Recommender para implantar seu modelo em um endpoint que oferece o melhor performance e minimiza os custos. Você pode começar a usar o SageMaker Inference Recommender em minutos enquanto seleciona um tipo de instância e obter recomendações para configurações de endpoint ideais em horas, eliminando semanas de teste manual e tempo de ajuste. Com o SageMaker Inference Recommender, você paga apenas pelas instâncias do SageMaker ML usadas durante os testes de carga e não há cobrança adicional.

Você deve usar o SageMaker Inference Recommendation se precisar de recomendações para a configuração correta do endpoint para melhorar a performance e reduzir custos. Anteriormente, os cientistas de dados que desejavam implantar seus modelos tinham que executar benchmarks manuais para selecionar a configuração de endpoint correta. Eles tiveram que primeiro selecionar o tipo de instância de ML correto entre os mais de 70 tipos de instância disponíveis com base nos requisitos de recursos de seus modelos e cargas úteis de amostra e, em seguida, otimizar o modelo para levar em conta diferentes hardwares. Em seguida, eles tiveram que realizar testes de carga extensos para validar se os requisitos de latência e taxa de transferência foram atendidos e se os custos são baixos. O SageMaker Inference Recommendation elimina essa complexidade tornando mais fácil para você: 1) começar em minutos com uma recomendação de instância; 2) conduzir testes de carga em todos os tipos de instância para obter recomendações sobre a configuração do seu endpoint em poucas horas; e 3) ajustar automaticamente os parâmetros do contêiner e do servidor de modelo, bem como realizar otimizações de modelo para um determinado tipo de instância.

Os cientistas de dados podem acessar o SageMaker Inference Recommendation do SageMaker Studio, AWS SDK for Python (Boto3) ou AWS CLI. Eles podem obter recomendações de implantação no SageMaker Studio no registro de modelo do SageMaker para versões de modelo registradas. Os cientistas de dados podem pesquisar e filtrar as recomendações por meio do SageMaker Studio, do AWS SDK ou da AWS CLI.

Não, atualmente só oferecemos suporte a um único modelo por endpoint.

Atualmente, oferecemos suporte apenas a endpoints em tempo real.

Oferecemos suporte a todas as regiões com suporte ao Amazon SageMaker, exceto as regiões da AWS China.

Sim, oferecemos suporte a todos os tipos de contêineres. A Inf1 do Amazon EC2, baseada no chip AWS Inferentia, requer um artefato de modelo compilado usando o compilador Neuron ou o Amazon SageMaker Neo. Depois de ter um modelo compilado para um alvo do Inferentia e o URI da imagem do contêiner associado, você pode usar o SageMaker Inference Recommender para avaliar diferentes tipos de instância do Inferentia.

O SageMaker Model Monitor permite que os desenvolvedores detectem e corrijam o desvio do conceito. O SageMaker Model Monitor detecta automaticamente desvios de conceito nos modelos implantados e fornece alertas detalhados que ajudam a identificar a origem do problema. Todos os modelos treinados no SageMaker emitem automaticamente as principais métricas que podem ser coletadas e visualizadas no SageMaker Studio. No SageMaker Studio, você pode configurar os dados a serem coletados, como visualizá-los e quando receber alertas.

Não. O SageMaker opera a infraestrutura de computação em seu nome, o que permite executar verificações de integridade, aplicar patches de segurança e realizar outras manutenções de rotina. Você também pode implantar os artefatos do modelo do treinamento com código de inferência personalizado no seu próprio ambiente de hospedagem.

A hospedagem do SageMaker escala automaticamente a performance necessária para a aplicação usando Application Auto Scaling. Além disso, você pode alterar manualmente o número e o tipo das instâncias sem que haja tempo de inatividade pela modificação da configuração do endpoint.

O SageMaker emite métricas de performance para o Amazon CloudWatch Metrics para que você possa rastrear métricas, definir alarmes e reagir automaticamente a mudanças no tráfego de produção. Além disso, o SageMaker escreve logs para o Amazon Cloudwatch Logs, o que permite monitorar e solucionar problemas do ambiente de produção.

O SageMaker pode hospedar qualquer modelo que siga a especificação documentada para imagens de Docker de inferência. Isso inclui os modelos criados de artefatos de modelo e código de inferência do SageMaker.

O SageMaker foi criado para escalar para um grande número de transações por segundo. O número preciso varia em função do modelo implantado e do número e do tipo de instâncias nas quais o modelo é implantado.

Como um serviço totalmente gerenciado, o Amazon SageMaker se encarrega de configurar e gerenciar instâncias, compatibilidades de versões de software e versões de patches. Ele também fornece métricas e logs integrados para endpoints que você pode usar para monitorar e receber alertas. Com as ferramentas e fluxos de trabalho guiados do SageMaker, todo o processo de empacotamento e implantação do modelo de ML é simplificado, facilitando a otimização dos endpoints para alcançar a performance desejada e economizar. Você pode implantar facilmente os modelos de ML, incluindo modelos de base, com apenas alguns cliques no SageMaker Studio ou usando o novo PySDK.

O Batch Transform permite que você execute previsões em dados em lotes grandes ou pequenos. Não é preciso dividir o conjunto de dados em diversas partes nem gerenciar endpoints em tempo real. Com uma API simples, você pode solicitar previsões para um grande número de registros de dados e transformar os dados de maneira rápida e fácil.

O SageMaker Edge Manager torna mais fácil otimizar, proteger, monitorar e manter modelos de ML em frotas de dispositivos de borda, como câmeras inteligentes, robôs, computadores pessoais e dispositivos móveis. O SageMaker Edge Manager ajuda os desenvolvedores de ML a operar modelos de ML em uma variedade de dispositivos de borda em escala.

O SageMaker oferece suporte às seguintes opções de endpoint: endpoints de modelo único, um modelo em um contêiner hospedado em instâncias dedicadas ou sem servidor para baixa latência e alto throughput. Endpoints multimodelo: hospede vários modelos usando uma infraestrutura compartilhada para obter economia e maximizar a utilização. Você pode controlar o volume de computação e memória que cada modelo pode usar para garantir que cada modelo tenha acesso aos recursos necessários para uma execução eficiente. Pipelines de inferência serial: vários contêineres que compartilham instâncias dedicadas e executam em uma sequência. Use um pipeline de inferência para combinar tarefas da ciência de dados que incluem pré-processamento, previsões e pós-processamento.

Para começar a usar o SageMaker Edge Manager, você precisa compilar e empacotar seus modelos de ML treinados na nuvem, registrar seus dispositivos e prepará-los com o SDK do SageMaker Edge Manager. Para preparar o seu modelo para implantação, o SageMaker Edge Manager usa o SageMaker Neo para compilar o seu modelo para o hardware de borda de destino. Depois que o modelo é compilado, o SageMaker Edge Manager assina o modelo com uma chave gerada pela AWS e, em seguida, empacota o modelo com seu tempo de execução e as credenciais necessárias para prepará-lo para a implantação. No lado do dispositivo, você registra seu dispositivo com o SageMaker Edge Manager, baixa o SDK do SageMaker Edge Manager e, em seguida, segue as instruções para instalar o agente SageMaker Edge Manager nos seus dispositivos. O caderno do tutorial fornece um exemplo detalhado de como você pode preparar os modelos e conectá-los em dispositivos de borda com o SageMaker Edge Manager.

Você pode usar políticas de escalabilidade para escalar automaticamente os recursos computacionais subjacentes, visando acomodar as flutuações nas solicitações de inferência. Controle as políticas de escalabilidade para cada modelo de ML separadamente para lidar com as mudanças no uso do modelo com facilidade e, ao mesmo tempo, otimizar os custos de infraestrutura.

O SageMaker Edge Manager é compatível com dispositivos baseados em CPU (ARM, x86), GPU (ARM, Nvidia) comuns, com sistemas operacionais Linux e Windows. Com o passar tempo, o SageMaker Edge Manager se expandirá para ser compatível com mais processadores integrados e plataformas móveis que também são compatíveis com o SageMaker Neo.

Não, você não precisa. Você pode treinar seus modelos em outro lugar ou usar um modelo pré-treinado de código aberto ou de seu fornecedor de modelos.

Sim, você precisa. O SageMaker Neo converte e compila seus modelos em um executável que você pode empacotar e implantar em seus dispositivos de borda. Assim que o pacote do modelo for implantado, o agente SageMaker Edge Manager desempacotará o pacote do modelo e executará o modelo no dispositivo.

O SageMaker Edge Manager armazena o pacote do modelo no bucket do Simple Storage Service (Amazon S3) especificado. Você pode usar o recurso de implantação sem fios fornecido pelo AWS IoT Greengrass ou qualquer outro mecanismo de implantação da sua escolha para implantar o pacote de modelo do seu bucket do S3 nos dispositivos.

Neo dlr é um tempo de execução de código aberto que executa apenas modelos compilados pelo serviço SageMaker Neo. Em comparação com a dlr de código aberto, o SDK do SageMaker Edge Manager inclui um atendente de nível corporativo no dispositivo com segurança adicional, gerenciamento de modelo e recursos de serviço de modelos. O SDK do SageMaker Edge Manager é adequado para implantação de produção em escala.

Você pode usar o SageMaker Edge Manager em seis regiões: Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Europa (Irlanda), Europa (Frankfurt) e Ásia-Pacífico (Tóquio). Acesse a Lista de serviços regionais da AWS para obter detalhes.

O SageMaker Neo permite que modelos de ML sejam treinados uma vez e executados em qualquer lugar na nuvem e na borda. O SageMaker Neo otimiza automaticamente os modelos criados com frameworks populares de DL que podem ser usados para implantação em várias plataformas de hardware. Os modelos otimizados são executados até 25 vezes mais rápido e consomem menos de um décimo dos recursos dos modelos de ML típicos.

Para começar a usar o SageMaker Neo, faça login no console do SageMaker, escolha um modelo treinado, siga o exemplo para compilar modelos e implante o modelo resultante na plataforma de hardware de destino.

O SageMaker Neo contém dois componentes principais: um compilador e um tempo de execução. Primeiro, o compilador SageMaker Neo lê os modelos exportados por frameworks diferentes. Em seguida, ele converte as funções e operações específicas para cada estrutura em uma representação intermediária indiferente à estrutura. Depois, realiza uma série de otimizações. Em seguida, o compilador gera código binário para as operações otimizadas e grava em uma biblioteca de objetos compartilhados. O compilador também salva a definição do modelo e os parâmetros em arquivos separados. Durante a execução, o tempo de execução do SageMaker Neo carrega os artefatos gerados pelo compilador: definição do modelo, parâmetros e a biblioteca de objetos compartilhados para executar o modelo.

Não. Você pode treinar os modelos em outros lugares e usar o SageMaker Neo para otimizá-los para instâncias de ML do SageMaker ou dispositivos compatíveis do AWS IoT Greengrass.

Atualmente, o SageMaker Neo oferece suporte à maioria dos modelos de DL que alimentam os aplicativos de visão computacional e os modelos de árvore de decisões mais populares usados no SageMaker atualmente. O SageMaker Neo otimiza o desempenho dos modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet e DenseNet treinados em MXNet e TensorFlow e modelos de floresta de corte de classificação e aleatórios treinados em XGBoost.

Você encontra as listas de instâncias de nuvem, dispositivos de borda e versões de framework com suporte na documentação do SageMaker Neo.

Para ver uma lista das regiões com suporte, consulte a lista de serviços regionais da AWS.

Amazon SageMaker Savings Plans

Os SageMaker Savings Plans oferecem um modelo de definição de preço flexível baseado em uso para o SageMaker, em troca de um compromisso com uma quantidade consistente de uso (medida em USD/hora) por um período de um ou três anos. Os SageMaker Savings Plans fornecem a maior flexibilidade e ajudam a reduzir seus custos em até 64%. Esses planos são aplicados automaticamente a usos de instâncias de ML qualificadas do SageMaker, incluindo cadernos do SageMaker Studio, cadernos sob demanda do SageMaker, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference e SageMaker Batch Transform, independentemente da família, tamanho ou região das instâncias. Por exemplo, você pode alterar o uso de uma instância de CPU ml.c5.xlarge em execução no Leste dos EUA (Ohio) para uma instância ml.Inf1 no Oeste dos EUA (Oregon) para workloads de inferência a qualquer momento e continuar automaticamente a pagar o preço dos Savings Plans.

Se você tem uma quantidade consistente de uso de instâncias do SageMaker (medidas em USD/hora) e usa vários componentes do SageMaker, ou espera que sua configuração de tecnologia (por exemplo, família de instâncias ou, região) mude ao longo do tempo, o SageMaker Savings Plans simplifica a maximização das suas economias e, ao mesmo tempo, proporciona flexibilidade para alterar a configuração de tecnologia subjacente com base nas necessidades da aplicação ou em inovações. A taxa do Savings Plans é aplicada automaticamente a todo o uso de instâncias de ML qualificadas sem modificações manuais necessárias.

Você pode começar a usar os Savings Plans no Explorador de Custos da AWS no Console de Gerenciamento da AWS ou usando a API/CLI. Você pode facilmente assumir um compromisso no Savings Plans usando as recomendações fornecidas no AWS Cost Explorer para obter as maiores economias. O compromisso por hora recomendado é baseado no uso histórico sob demanda e na escolha do tipo de plano, período de vigência e opção de pagamento. Depois de se cadastrar em um Savings Plan, seu uso de computação será cobrado automaticamente pelos preços com desconto para Savings Plans, e qualquer uso além do seu compromisso será cobrado a taxas regulares sob demanda.

A diferença entre o Savings Plans para o SageMaker e o Savings Plans para o Amazon EC2 está nos serviços que eles incluem. Os SageMaker Savings Plans só se aplicam ao uso de instâncias de ML do SageMaker.

Os Savings Plans podem ser adquiridos em qualquer conta dentro de uma família do AWS Organization/Faturamento consolidado. Por padrão, o benefício fornecido pelos Savings Plans é aplicável ao uso em todas as contas de uma família do AWS Organization/faturamento consolidado. No entanto, você também pode optar por restringir o benefício dos Savings Plans apenas à conta que os comprou.