Infraestrutura do AWS Machine Learning
Benefícios

Alta performance
A AWS oferece a infraestrutura de computação de ML de mais alta performance na nuvem. Para treinamento, as instâncias do Amazon EC2 P4 oferecem performance 2,5 vezes melhor em comparação com as instâncias da geração anterior e redes mais rápidas, de até 400 Gbps. Para inferência, as instâncias do Amazon EC2 Inf1 entregam taxa de transferência até 2,3 vezes maior em comparação com a atual geração de instâncias do baseadas em GPU.

Otimizado para machine learning
As instâncias de computação da AWS são compatíveis com os principais frameworks de machine learning, como TensorFlow e PyTorch. Elas também oferecem suporte a modelos e toolkits, como o Hugging Face, para uma ampla variedade de casos de uso de machine learning. As AMIs do AWS Deep Learning e os Deep Learning Containers são pré-instalados com otimizações para frameworks e toolkits de ML para acelerar o aprendizado profundo na nuvem.

Fácil de usar
O Amazon SageMaker, um serviço de ML totalmente gerenciado, é a maneira mais rápida e fácil de começar a usar a infraestrutura da AWS e também oferece ferramentas específicas, incluindo rotulagem de dados, preparação de dados, engenharia de recursos, detecção de tendências estatísticas, AutoML, treinamento, ajuste, hospedagem, explicabilidade, monitoramento e fluxos de trabalho. O SageMaker foi construído com base em décadas de experiência do Amazon ML.

Escalar
Os clientes da AWS têm acesso a computação, rede e armazenamento virtualmente ilimitados para que possam escalar. É possível aumentar a escala na vertical de uma GPU a milhares, e aumentar ou diminuir, conforme necessário, de terabytes a petabytes de armazenamento. Usando a nuvem, não é necessário investir em todas as infraestruturas possíveis. Em vez disso, aproveite as vantagens de redes, armazenamento e computação elásticas.

Econômico
Com uma ampla variedade de serviços de infraestrutura, é possível escolher a infraestrutura certa para o seu orçamento. Escolha qualquer CPU, GPU ou instância baseada em acelerador e pague apenas pelo que usar, para nunca pagar por capacidade ociosa. As instâncias Inf1 do Amazon EC2 desenvolvidas pelo AWS Inferentia entregam um custo até 70% menor por inferência em comparação com a atual geração de instâncias do baseadas em GPU.
O que oferecemos

Clientes

A inteligência baseada em IA e ML do Amazon Alexa está atualmente disponível em mais de 100 milhões de dispositivos. A Alexa está se tornando cada vez mais inteligente, mais comunicativa, mais proativa e ainda mais agradável. A Alexa usa o Amazon EC2 Inf1 para diminuir a latência de inferência e o custo por inferência em conversão de texto em fala.

O Autodesk está aprimorando a tecnologia cognitiva com um assistente virtual com IA, o Autodesk Virtual Agent (AVA). O AVA responde a mais de 100.000 perguntas de clientes por mês empregando técnicas de Natural Language Understanding (NLU – Compreensão da linguagem natural) e de aprendizado profundo para extrair o contexto, a finalidade e o significado das consultas. Ao pilotar o AWS Inferentia, eles conseguiram obter uma taxa de transferência 4,9 vezes maior do que as instâncias baseadas em GPU.

O Rad AI usa IA para automatizar fluxos de trabalho de radiologia e ajudar a agilizar os relatórios de radiologia. Com as novas instâncias do Amazon EC2 P4d, o Rad AI oferece inferência mais rápida e tem a capacidade de treinar modelos 2,4x de forma mais rápida e com maior precisão.