Publicado: Apr 4, 2019
Os clientes da AWS já podem acelerar tarefas em lote de computação de alto desempenho (HPC), Machine Learning e outras por meio do AWS Batch simplesmente especificando o número de GPUs que cada tarefa exige. A partir de hoje, você pode usar o AWS Batch para especificar o número e o tipo de aceleradores necessários para as tarefas, como variáveis de entrada de definição de tarefa, juntamente com as opções atuais de vCPU e memória. O AWS Batch aumentará a escala das instâncias para o nível adequado para as tarefas com base no número necessário de GPUs e isolará os aceleradores de acordo com as necessidades de cada tarefa para que somente os contêineres adequados possam acessá-los.
Aceleradores de computação baseados em hardware, como Graphics Processing Units (GPUs), permitem que os usuários aumentem o throughput dos aplicativos e reduzam a latência com hardware de uso específico. Até agora, para usar aceleradores, os usuários do AWS Batch precisavam criar uma AMI personalizada e instalar os drivers adequados, além de fazer com que o AWS Batch escalasse instâncias do EC2 do tipo P aceleradas por GPUs com base nas características de vCPU e memória. Agora, os clientes podem simplesmente especificar o número e o tipo de GPUs desejados, da mesma forma que podem especificar vCPU e memória, e o Batch lançará as instâncias do EC2 do tipo P necessárias para executar as tarefas. Além disso, o Batch isola a GPU para o contêiner. Assim, cada contêiner recebe a quantidade adequada de recursos necessários.
Saiba mais sobre o suporte a GPUs no AWS Batch aqui.