Publicado: Jul 18, 2023

A partir de hoje, os modelos básicos Llama 2 da Meta estão disponíveis no Amazon SageMaker JumpStart, um hub de machine learning (ML) que oferece modelos pré-treinados, algoritmos integrados e soluções predefinidas para ajudar você a começar a usar ML em pouco tempo. Você pode implantar e usar os modelos básicos Llama 2 com alguns cliques no SageMaker Studio ou de forma programática com SageMaker Python SDK.

O Llama 2 é um modelo de linguagem autorregressivo que usa uma arquitetura de transformador otimizada. Ele é oferecido em diversos tamanhos: 7, 13 e 70 bilhões de parâmetros, bem como variações pré-treinadas e ajustadas. As versões ajustadas usam Supervised Fine-Tuning (SFT – Ajuste fino supervisionado) e Reinforcement Learning with Human Feedback (RLHF – Aprendizado por reforço com feedback humano) para gerar respostas mais relevantes. Os desenvolvedores podem usar o Guia de uso responsável da Meta, que descreve as práticas recomendadas para criar de forma responsável cada camada da pilha de um produto de GenAI e entender a importância de abordar os riscos associados ao uso comercial de LLMs.

Agora, você pode obter as vantagens combinadas da performance e controles de MLOps do Llama 2 com os recursos do SageMaker, como SageMaker Pipelines, SageMaker Debugger ou logs de contêineres. O modelo é implantado em um ambiente seguro da AWS sob os controles da sua VPC, ajudando a garantir a segurança dos dados. O Llama 2 é destinado ao uso comercial e de pesquisa em inglês. Os modelos ajustados são destinados a chats semelhantes aos de um assistente, enquanto os modelos pré-treinados podem ser adaptados para uma variedade de tarefas de geração de linguagem natural.

Os modelos básicos Llama 2 estão disponíveis hoje no SageMaker JumpStart, inicialmente nas regiões us-east 1 e us-west 2. Atualize o ambiente do SageMaker Studio para a versão mais recente para descobrir esses modelos. Para começar a usar os modelos básicos do Llama 2 usando o SageMaker JumpStart, consulte a documentação e o blog.