Pular para o conteúdo principal

Amazon SageMaker HyperPod

Clientes do Amazon SageMaker HyperPod

As principais startups e organizações de IA de todos os tamanhos estão treinando e implantando modelos básicos em grande escala no SageMaker HyperPod

WRITER

Com a infraestrutura da AWS, a WRITER transformou sua abordagem para treinar LLMs. Ela usou o SageMaker HyperPod para oferecer suporte ao treinamento distribuído contínuo em vários nós. Com isso, a equipe de pesquisa da WRITER pode se concentrar no desenvolvimento de modelos e, ao mesmo tempo, melhorar o desempenho em todos os benchmarks do setor.

Salesforce

As equipes de pesquisa de IA da Salesforce conseguiram uma implantação rápida e em grande escala da infraestrutura de treinamento, transformando nós isolados em uma estrutura de GPU de alto desempenho no SageMaker HyperPod. Ao eliminar a sobrecarga de DevOps e oferecer receitas de pilha avançadas prontas para uso, o HyperPod acelera drasticamente os ciclos de treinamento de modelos, ajudando o Salesforce a inovar mais rapidamente para seus clientes. O treinamento sem necessidade de pontos de verificação no Amazon SageMaker HyperPod transformará nossa infraestrutura de treinamento em LLM. Essa tecnologia permite a recuperação de falhas em minutos sem perder o andamento do treinamento ou precisar voltar aos pontos de verificação, permitindo que as equipes de pesquisa de IA da Salesforce acelerem nossas workloads e nosso roteiro. O treinamento flexível permitirá que nossas workloads sejam escaladas automaticamente para absorver GPUs ociosas à medida que elas se tornarem disponíveis e gerarem recursos sem interrupções, tudo isso sem interromper os ciclos de desenvolvimento. Mais importante ainda, economizaremos horas gastas reconfigurando manualmente os trabalhos para que correspondam à computação disponível, tempo que podemos reinvestir em inovação.

Luma AI

O treinamento de modelos de IA visual de ponta exige grande poder computacional e infraestrutura perfeita. A Luma AI treina 1.000 vezes mais dados do que os maiores LLMs, exigindo uma solução avançada e escalável. O SageMaker HyperPod oferece a confiabilidade, o desempenho e a eficiência necessários para manter as GPUs, a rede e o armazenamento funcionando em perfeita harmonia. Com o HyperPod, os desenvolvedores de IA podem treinar modelos complexos com mais rapidez, otimizar recursos e trazer IA de ponta ao mercado com confiança.

Amazon Nova

A equipe de AGI da Amazon treinou modelos de base do Amazon Nova no SageMaker HyperPod com infraestrutura otimizada, armazenamento de alta velocidade e ferramentas integradas de monitoramento e observabilidade. O SageMaker HyperPod permite o desenvolvimento de modelos resilientes, eficientes e escaláveis em clusters grandes e distribuídos.

Hugging Face

A Hugging Face usou o SageMaker HyperPod para criar novos modelos de base aberta, como StarCoder, IDEFICS e Zephyr. Os recursos específicos de resiliência e performance do SageMaker HyperPod permitiram que nossa equipe de ciência aberta se concentrasse em inovar e publicar melhorias importantes na maneira como os modelos de base são criados, em vez de gerenciar a infraestrutura.

Perplexity AI

A Perplexity construiu e ajustou os LLMs que alimentam seu mecanismo de respostas conversacionais, que é capaz de responder a perguntas junto com referências fornecidas na forma de citações. Com o SageMaker HyperPod, ela realiza o treinamento de modelos 40% mais rápido e executa experimentos duas vezes mais rápido.

Articul8 AI

Com o HyperPod, a Articul8 aumentou a produtividade em 35% e ampliou as operações de IA generativa. Com a priorização automatizada de tarefas e a alocação de recursos no SageMaker HyperPod, a empresa observou uma melhora drástica na utilização da GPU, reduzindo assim o tempo de inatividade e acelerando o processo de desenvolvimento de modelos, otimizando tarefas que vão desde treinamento e ajuste fino até inferência. Com a observabilidade do SageMaker HyperPod, ela implanta sistemas de coleta e visualização de métricas com um único clique, poupando às equipes dias de configuração manual e aprimorando os fluxos de trabalho e insights da observabilidade do cluster.

Coastal Carbon

A Coastal Carbon está revolucionando a conservação ambiental por meio da inteligência artificial e da nuvem. Com o SageMaker HyperPod, a empresa processa milhares de petabytes de dados históricos de satélites para criar um gêmeo digital e um modelo base do mundo natural.

EvolutionaryScale

A EvolutionaryScale é uma startup pioneira em IA que permite aos cientistas entender, imaginar e criar proteínas. Com o SageMaker HyperPod, ela realizou treinamentos em mais de 2 bilhões de sequências de proteínas, ultrapassando os limites da engenharia de proteínas e da descoberta de medicamentos.

Noetik

A Noetik é uma empresa de biotecnologia nativa de IA que utiliza o SageMaker HyperPod para descobrir e desenvolver terapias contra o câncer.

Latent Labs

A Latent Labs recorreu ao SageMaker HyperPod para escalar rapidamente as tarefas de desenvolvimento de modelos, como treinamento, ajuste fino ou inferência (usando um modelo para fazer previsões com base em novos dados), em um cluster de centenas ou milhares de aceleradores de IA. A capacidade de gerar e testar novas sequências biológicas (como DNA) com mais precisão e facilidade por meio de modelos de IA acelerará a fabricação e implantação no mundo real.

TwelveLabs

A TwelveLabs está transformando a forma como as empresas interagem e usam a inteligência de vídeo baseada em IA. Ela usa o SageMaker HyperPod para treinar e escalar seus modelos com mais eficiência. Com a resiliência e a infraestrutura de treinamento distribuída, a empresa pode rapidamente ativar GPUs e treinar modelos o mais rápido possível.

Arcee AI

A Arcee AI desenvolve pequenos modelos de linguagem (SLMs) adaptados ao domínio para ajudar as empresas a realizar tarefas especializadas, como analisar documentos legais. Ela usa o SageMaker HyperPod para distribuir eficientemente as workloads de treinamento entre as GPUs, reduzindo o tempo de treinamento de modelo em 40%.

Intercom

Na Intercom, estamos constantemente treinando novos modelos para melhorar o Fin e estamos muito animados em integrar o treinamento sem pontos de verificação em nossos pipelines. Isso eliminará completamente a necessidade de recuperação manual do ponto de verificação. Combinado com o treinamento elástico, isso nos permitirá oferecer melhorias ao Fin mais rapidamente e com custos de infraestrutura mais baixos.

Missing alt text value

Bayer

Com o SageMaker HyperPod, a Bayer treinou e utilizou novos FMs em apenas alguns meses. Sua equipe científica agora pode processar grandes quantidades de dados de imagens biomédicas, treinar modelos sofisticados de machine learning (ML) e identificar candidatos promissores a medicamentos com base em assinaturas fenotípicas. À medida que a Bayer continua inovando, seu trabalho com a AWS ajuda a preparar o caminho para uma P&D farmacêutica mais rápida e eficiente.  

Bayer logo with a blue and green circular design and the word 'BAYER' arranged vertically and horizontally in the center.

Sony Honda Mobility

A Sony Honda Mobility está usando o SageMaker HyperPod para treinamento de modelos em seu pipeline de MLOps para aprimorar o AFEELA Intelligent Drive. “Os recursos de observabilidade prontos para uso do HyperPod nos fornecem um conjunto abrangente de métricas em várias dimensões (cluster, nó, tarefa etc.). Esperamos obter informações mais profundas e pré-configuradas de integridade e desempenho, com agregação em nível de tarefa.”

Motoi Kataoka, engenheiro de MLOps na Divisão de Desenvolvimento de Serviços de Rede da Sony Honda Mobility

Missing alt text value

Thomson Reuters

A Thomson Reuters está na vanguarda do desenvolvimento da IA há mais de 30 anos e estamos comprometidos em fornecer soluções significativas que ajudem nossos clientes a obter resultados mais rapidamente, com melhor acesso a informações confiáveis. Para acelerar nossa inovação em IA generativa, além de fazer parcerias com fornecedores de LLM, também estamos explorando modelos personalizados de treinamento de maneira mais eficiente com nosso conteúdo exclusivo e proprietário e nossa experiência humana. As bibliotecas de treinamento distribuídas do SageMaker HyperPod nos ajudam a melhorar a performance do treinamento de modelos em grande escala. E seu atributo de resiliência economiza tempo à medida que monitoramos e gerenciamos a infraestrutura. Treinar nossos modelos de base no SageMaker HyperPod aumentará nossa velocidade de comercialização e nos ajudará a fornecer soluções de qualidade para nossos clientes em ritmo acelerado.

Joel Hron, chefe de IA e laboratórios da Thomson Reuters, e John Duprey, engenheiro ilustre, Thomson Reuters Labs

Missing alt text value

Stability AI

Como empresa líder em IA generativa de código aberto, nosso objetivo é maximizar a acessibilidade da IA moderna. Estamos construindo modelos básicos com dezenas de bilhões de parâmetros, que exigem uma infraestrutura capaz de escalar a performance otimizada dos treinamentos. Com a infraestrutura gerenciada e as bibliotecas de otimização do SageMaker HyperPod, somos capazes de reduzir o tempo e os custos de treinamento em mais de 50%. Isso torna nosso treinamento de modelos mais resiliente e eficiente para criar modelos de última geração com mais rapidez.

Emad Mostaque, fundador e CEO da Stability AI

Missing alt text value

Recursal AI

Todo o processo foi simplificado. Usando o SageMaker HyperPod, podemos aproveitar os recursos de resiliência de cluster que identificam e recuperam automaticamente as tarefas de treinamento do último ponto de verificação salvo no caso de uma falha de hardware. Executamos workloads muito diversas, desde aplicações, inferência e treinamento, com o Kubernetes como fio condutor. Para nós, o Amazon EKS com o SageMaker HyperPod simplesmente funciona: os nós simplesmente entram em nosso cluster.

Nathan Wilce, líder de infraestrutura/dados, Recursal

Missing alt text value

Hippocratic AI

Hippocratic AI, empresa de IA que desenvolve o primeiro grande modelo de linguagem (LLM) focado em segurança para a área da saúde. Para treinar seu LLM primário e os modelos de supervisor, a Hippocratic AI exigia recursos computacionais poderosos, que eram muito procurados e difíceis de obter. Os planos de treinamento flexíveis do Amazon SageMaker HyperPod facilitaram o acesso às instâncias P5 do Amazon Elastic Compute Cloud (Amazon EC2). A Hippocratic AI também está aproveitando os serviços da AWS, como o Grafana, para rastrear métricas importantes de utilização da GPU. Com o uso de instâncias P5 do Amazon EC2, a Hippocratic AI aumentou a velocidade do treinamento de modelo em quatro vezes e escala sua solução para acomodar centenas de casos de uso. Isso a ajudou a proteger os recursos computacionais necessários e a treinar modelos rapidamente.

Missing alt text value

NinjaTech

A NinjaTech AI, uma empresa de IA generativa que fornece um SuperAgent multifuncional para produtividade ilimitada, usou os planos de treinamento flexíveis do Amazon SageMaker HyperPod para acelerar o ajuste fino de vários modelos internos, incluindo o modelo Llama 3.1 405B, para reduzir os custos de treinamento de modelo e automatizar o processo. A empresa tem como objetivo fornecer uma experiência perfeita aos usuários que desejam acessar vários agentes de IA que potencializam sua tecnologia SuperAgent. Para conseguir isso, ela precisava de um modelo que pudesse prever automaticamente a intenção do usuário e determinar qual agente de IA seria adequado para ele. Esse mecanismo exigiu atualizações frequentes no modelo, incorporando feedback de clientes e novos atributos de forma iterativa, envolvendo de 10 milhões a 100 milhões de tokens em cada rodada de ajuste fino do LoRA. Como startup, adquirir e operar recursos de computação de alto desempenho é um desafio devido aos altos problemas de custo e largura de banda, especificamente em clusters de vários nós que envolvem rede e armazenamento rápidos, além de computação acelerada. Além disso, o processo de treinamento é demorado, envolvendo etapas como download de modelos, treinamento distribuído, ponto de verificação, monitoramento, remediação automática, fusão e quantização. Os planos de treinamento flexíveis da HyperPod forneceram à empresa uma computação confiável e acessível antes da execução do treinamento, atendendo aos requisitos específicos de computação e cronograma, ao mesmo tempo em que garantiam o treinamento de modelo eficiente.

Missing alt text value

OpenBabylon

Desenvolvedores e cientistas de dados da OpenBabylon, uma empresa de IA que personaliza grandes modelos de linguagem para idiomas sub-representados, usam os planos de treinamento flexíveis do SageMaker HyperPod há alguns meses para otimizar seu acesso aos recursos da GPU para realizar experimentos em grande escala. Usando os recursos de treinamento distribuído de vários nós do SageMaker HyperPod, eles conduziram 100 experimentos de treinamento de modelos em grande escala, obtendo resultados de última geração na tradução do inglês para o ucraniano. Essa inovação foi alcançada dentro do prazo e de forma econômica, demonstrando a capacidade do SageMaker HyperPod de entregar com sucesso projetos complexos dentro do prazo e do orçamento.

Missing alt text value

H.AI

“Com o Amazon SageMaker HyperPod, criamos e implantamos os modelos básicos por trás de nossa plataforma de IA agêntica usando a mesma computação de alta performance. Essa transição perfeita do treinamento para a inferência simplificou nosso fluxo de trabalho, reduziu o tempo de produção e garantiu performance consistente em ambientes ao vivo. O HyperPod nos ajudou a passar da experimentação ao impacto no mundo real com maior velocidade e eficiência.”

Laurent Sifre, cofundador e CTO, H.AI

Missing alt text value

Datology AI

“Estamos entusiasmados para usar a solução de observabilidade com um clique do Amazon SageMaker HyperPod. Nossos funcionários seniores precisavam de informações sobre como estamos utilizando recursos caros de GPU. Os painéis pré-criados do Grafana nos darão exatamente o que precisávamos, com visibilidade imediata das métricas críticas, desde a utilização da GPU específica de uma tarefa até a performance do sistema de arquivos (FSx para Lustre), sem exigir a manutenção de nenhuma infraestrutura de monitoramento. Como alguém que aprecia a capacidade da Prometheus Query Language, gosto do fato de poder escrever minhas próprias consultas e analisar métricas personalizadas sem me preocupar com problemas de infraestrutura.”

Josh Wills, membro da equipe técnica, Datology AI

Missing alt text value

Splash Music

“Com o SageMaker HyperPod e o Trainium, nossos pesquisadores experimentam na mesma velocidade que nossa comunidade cria. Não estamos apenas acompanhando as tendências musicais, estamos definindo-as.”

Randeep Bhatia, diretor de tecnologia da Splash Music

Missing alt text value

Parceiros do Amazon SageMaker HyperPod

Promova a inovação e desbloqueie um valor comercial superior com parceiros da AWS que têm um profundo conhecimento técnico e um histórico comprovado de sucesso junto aos clientes

Accenture

“Estamos ampliando nossa parceria com a AWS ao atuar como parceiro de lançamento para a governança de tarefas do Amazon SageMaker HyperPod. Nossa colaboração com a AWS nos permitirá orientar os clientes em direção às últimas inovações tecnológicas, ao mesmo tempo em que contribuímos para a redução dos custos das aplicações de IA generativa. Ao reunir as funcionalidades de governança centralizada no SageMaker HyperPod e nossa experiência em projetos de IA generativa, podemos ajudar as empresas a perceber o valor da IA generativa ainda mais rapidamente, melhorando a experiência do cliente e aumentando o retorno sobre o investimento.”

Jennifer Jackson, líder global do Accenture AWS Business Group e diretora executiva sênior

Missing alt text value

Slalom

“Estamos entusiasmados em colaborar com a AWS ao atuar como parceiro de lançamento para a governança de tarefas do Amazon SageMaker HyperPod. Ao colaborar com a AWS, podemos apoiar nossos clientes na adoção rápida dos avanços tecnológicos mais recentes e na redução dos custos das aplicações de IA generativa. Ao combinar as funcionalidades de governança centralizada do SageMaker HyperPod com o amplo conhecimento técnico da Slalom em IA e em nuvem, podemos oferecer experiências excepcionais aos clientes, além de aumentar o retorno sobre o investimento.”

Jeff Kempiners, diretor executivo do Centro de Excelência (CoE) da Amazon para a Slalom

Missing alt text value

Rackspace Technology

“Estamos empolgados em colaborar com a AWS ao atuar como parceiro de lançamento para a governança de tarefas do SageMaker HyperPod. Em parceria, podemos auxiliar nossos clientes a reduzir os custos das aplicações de IA generativa e, ao mesmo tempo, mantê-los atualizados com os avanços tecnológicos mais recentes. Ao combinar as funcionalidades de governança centralizada do SageMaker HyperPod com o amplo conhecimento técnico da Rackspace em IA e em nuvem, podemos transformar as experiências dos clientes e melhorar o retorno sobre investimento simultaneamente.”

Srini Koushik, presidente do departamento de IA, tecnologia e sustentabilidade, Rackspace Technology

Missing alt text value

Você encontrou o que estava procurando hoje?

Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas