Infraestrutura do AWS Machine Learning

Alta performance, econômico e otimizado para machine learning
Empresas de todos os tamanhos e setores estão adotando cada vez mais o machine learning (ML) para uma ampla variedade de casos de uso, incluindo mecanismos de recomendação, detecção de objetos, assistentes de voz e detecção de fraudes. Esse crescimento acarreta em aumento no uso, gerenciamento e custo de recursos de computação, armazenamento e redes. A aquisição da quantidade certa de infraestrutura de computação para atender aos requisitos de workloads de machine learning pode ser um desafio, mas sem ela, treinar e implantar modelos de ML pode ser caro e demorado. Para ajudar a acelerar a inovação em ML, a AWS oferece a combinação ideal de instâncias do Amazon EC2 de alta performance e baixo custo e ferramentas específicas otimizadas para machine learning.

Benefícios

Alta performance

Alta performance 

A AWS oferece a infraestrutura de computação de ML de mais alta performance na nuvem. Para treinamento, as instâncias do Amazon EC2 P4 oferecem performance 2,5 vezes melhor em comparação com as instâncias da geração anterior e redes mais rápidas, de até 400 Gbps. Para inferência, as instâncias do Amazon EC2 Inf1 entregam taxa de transferência até 2,3 vezes maior em comparação com a atual geração de instâncias do baseadas em GPU.

Saiba mais >>
Otimizado para ML

Otimizado para machine learning

As instâncias de computação da AWS são compatíveis com os principais frameworks de machine learning, como TensorFlow e PyTorch. Elas também oferecem suporte a modelos e toolkits, como o Hugging Face, para uma ampla variedade de casos de uso de machine learning. As AMIs do AWS Deep Learning e os Deep Learning Containers são pré-instalados com otimizações para frameworks e toolkits de ML para acelerar o aprendizado profundo na nuvem.

Saiba mais >>
Fácil de usar

Fácil de usar

O Amazon SageMaker, um serviço de ML totalmente gerenciado, é a maneira mais rápida e fácil de começar a usar a infraestrutura da AWS e também oferece ferramentas específicas, incluindo rotulagem de dados, preparação de dados, engenharia de recursos, detecção de tendências estatísticas, AutoML, treinamento, ajuste, hospedagem, explicabilidade, monitoramento e fluxos de trabalho. O SageMaker foi construído com base em décadas de experiência do Amazon ML.

Saiba mais >>
Escalar

Escalar

Os clientes da AWS têm acesso a computação, rede e armazenamento virtualmente ilimitados para que possam escalar. É possível aumentar a escala na vertical de uma GPU a milhares, e aumentar ou diminuir, conforme necessário, de terabytes a petabytes de armazenamento. Usando a nuvem, não é necessário investir em todas as infraestruturas possíveis. Em vez disso, aproveite as vantagens de redes, armazenamento e computação elásticas.

Saiba mais >>
Econômico

Econômico

Com uma ampla variedade de serviços de infraestrutura, é possível escolher a infraestrutura certa para o seu orçamento. Escolha qualquer CPU, GPU ou instância baseada em acelerador e pague apenas pelo que usar, para nunca pagar por capacidade ociosa. As instâncias Inf1 do Amazon EC2 desenvolvidas pelo AWS Inferentia entregam um custo até 70% menor por inferência em comparação com a atual geração de instâncias do baseadas em GPU.

Saiba mais >>

O que oferecemos

Infraestrutura de ML

Clientes

Amazon Alexa

A inteligência baseada em IA e ML do Amazon Alexa está atualmente disponível em mais de 100 milhões de dispositivos. A Alexa está se tornando cada vez mais inteligente, mais comunicativa, mais proativa e ainda mais agradável. A Alexa usa o Amazon EC2 Inf1 para diminuir a latência de inferência e o custo por inferência em conversão de texto em fala.

Anthem

O Autodesk está aprimorando a tecnologia cognitiva com um assistente virtual com IA, o Autodesk Virtual Agent (AVA). O AVA responde a mais de 100.000 perguntas de clientes por mês empregando técnicas de Natural Language Understanding (NLU – Compreensão da linguagem natural) e de aprendizado profundo para extrair o contexto, a finalidade e o significado das consultas. Ao pilotar o AWS Inferentia, eles conseguiram obter uma taxa de transferência 4,9 vezes maior do que as instâncias baseadas em GPU.

RadAI

O Rad AI usa IA para automatizar fluxos de trabalho de radiologia e ajudar a agilizar os relatórios de radiologia. Com as novas instâncias do Amazon EC2 P4d, o Rad AI oferece inferência mais rápida e tem a capacidade de treinar modelos 2,4x de forma mais rápida e com maior precisão.

Dê os próximos passos com a AWS