Publicado: Apr 18, 2024

A partir de hoje, a próxima geração dos modelos Meta Llama, o Llama 3, está disponível por meio do Amazon SageMaker JumpStart, um hub de machine learning (ML) que oferece modelos pré-treinados, algoritmos integrados e soluções pré-criadas para ajudar você a começar a usar o ML rapidamente. Você pode implantar e usar os modelos de base Llama 3 com alguns cliques no SageMaker Studio ou de forma programática com o SageMaker Python SDK.

O Llama 3 vem em uma variedade de tamanhos de parâmetros – 8B e 70B – e pode ser usado para oferecer suporte a uma ampla variedade de casos de uso, com melhorias no raciocínio, geração de código e acompanhamento de instruções. O Llama 3 usa uma arquitetura de transformador somente para decodificador e um novo tokenizador que fornece performance aprimorada do modelo. Além disso, os procedimentos pós-treinamento aprimorados da Meta reduziram substancialmente as taxas de falsas recusas, melhoraram o alinhamento e aumentaram a diversidade nas respostas do modelo. Agora, você pode derivar as vantagens combinadas da performance e controles de MLOps do Llama 3 com os atributos do Amazon SageMaker, como SageMaker Pipelines, SageMaker Debugger ou logs de contêineres. O modelo será implantado em um ambiente seguro da AWS sob seus controles de VPC, ajudando a garantir a segurança dos dados.

Os modelos de base Llama 3 estão disponíveis hoje no SageMaker JumpStart inicialmente nas regiões da AWS Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Leste dos EUA (N. da Virgínia), Ásia-Pacífico (Tóquio) e Europa (Irlanda). Para começar a usar os modelos de base Llama 3 usando o SageMaker JumpStart, consulte a documentação e o blog.