Llama do Meta no Amazon Bedrock

Desenvolva o futuro da inteligência artificial com o Llama

Introdução ao Llama 3.3

O Llama 3.3 é um modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.

O treinamento abrangente do Llama 3.3 70B resulta em uma compreensão robusta e capacidades de geração em diversas tarefas. Esse modelo oferece suporte à IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisas, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código.

O Llama 3.2 90B é o modelo mais avançado da Meta e é ideal para aplicações de nível corporativo. O Llama 3.2 é o primeiro modelo Llama a ter suporte a tarefas de visão, com uma nova arquitetura de modelo que integra representações do codificador de imagens ao modelo de linguagem. Esse modelo se destaca em conhecimentos gerais, geração de textos longos, tradução multilíngue, codificação, matemática e raciocínio avançado. Ele também apresenta recursos de raciocínio de imagem, permitindo uma compreensão sofisticada da imagem e raciocínio visual. Esse modelo é ideal para os seguintes casos de uso: legenda de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e raciocínio visual e resposta visual a perguntas de documentos.

O Llama 3.2 11B é adequado para criação de conteúdo, IA conversacional, compreensão de idiomas e aplicações corporativas que exigem raciocínio visual. O modelo demonstra um forte desempenho em resumo de texto, análise de sentimentos, geração de código e acompanhamento de instruções, com a capacidade adicional de raciocinar sobre imagens. Esse modelo é ideal para os seguintes casos de uso: legenda de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e raciocínio visual e resposta visual a perguntas de documentos.

O Llama 3.2 3B oferece uma experiência de IA mais personalizada, com processamento no dispositivo. O Llama 3.2 3B foi projetado para aplicativos que exigem inferência de baixa latência e recursos computacionais limitados. Ele se destaca em tarefas de resumo de textos, classificação e tradução de idiomas. Esse modelo é ideal para os seguintes casos de uso: assistentes de escrita móveis com inteligência artificial e aplicações de atendimento ao cliente.

O Llama 3.2 1B é o modelo mais leve da coleção de modelos Llama 3.2 e é perfeito para recuperação e resumo de dispositivos de ponta e aplicações móveis. Ele permite recursos de IA no dispositivo, preservando a privacidade do usuário e minimizando a latência. Esse modelo é ideal para os seguintes casos de uso: gerenciamento de informações pessoais e recuperação de conhecimento multilíngue.

Benefícios

O Llama 3.2 oferece uma experiência de IA mais personalizada, com processamento no dispositivo. Os modelos Llama 3.2 foram projetados para serem mais eficientes, com latência reduzida e desempenho aprimorado, tornando-os adequados para uma ampla variedade de aplicações.
O comprimento de contexto de 128K permite que o Llama capture relacionamentos ainda mais sutis nos dados.
Os modelos Llama são treinados em 15 trilhões de tokens de fontes de dados públicas online para compreender melhor as complexidades da linguagem.
O Llama 3.2 é multilíngue e oferece suporte para oito idiomas, incluindo inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
A API gerenciada do Amazon Bedrock torna o uso dos modelos do Llama mais fácil do que nunca. Organizações de todos os portes podem acessar todo o potencial dos modelos do Llama sem se preocupar com a infraestrutura subjacente. Como o Amazon Bedrock é uma tecnologia sem servidor, não é necessário gerenciar nenhuma infraestrutura, e é possível integrar e implantar com segurança as funcionalidades de IA generativa do Llama em suas aplicações ao usar os serviços da AWS com os quais você já tem familiaridade. Isso significa que você pode se concentrar no que faz de melhor: criar suas aplicações de IA.

Conheça o Llama

Durante a última década, a Meta se concentrou em disponibilizar ferramentas para os desenvolvedores e em promover a colaboração e os avanços entre desenvolvedores, pesquisadores e organizações. Os modelos do Llama estão disponíveis em uma variedade de tamanhos de parâmetros, possibilitando que os desenvolvedores selecionem o modelo que melhor se adapta às suas necessidades e ao orçamento de inferência. Os modelos do Llama no Amazon Bedrock oferecem inúmeras possibilidades, pois os desenvolvedores não precisam se preocupar com a escalabilidade ou com o gerenciamento da infraestrutura. O Amazon Bedrock proporciona uma maneira muito fácil e direta para os desenvolvedores começarem a usar o Llama.

Casos de uso

Os modelos Lhama se destacam na compreensão de imagens e raciocínio visual, nuances de linguagem, compreensão contextual e tarefas complexas, como análise visual de dados, legendas de imagens, geração de diálogos, tradução e geração de diálogos, podendo lidar com tarefas de várias etapas sem esforço. Casos de uso adicionais para os quais os modelos Llama são ideais incluem raciocínio e compreensão visuais sofisticados, recuperação de imagem e texto, embasamento visual, resposta visual a perguntas, resumo e precisão do texto, classificação de texto, análise de sentimentos e raciocínio de nuances, modelagem de linguagem, sistemas de diálogo, geração de código e instruções a seguir.

Versões de modelos

Llama 3.3 70B

O modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, espanhol e tailandês.

Suporte para ajuste fino: não

Casos de uso compatíveis: IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisas, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código. O modelo também tem a capacidade de aproveitar as saídas de modelos para melhorar outros modelos, incluindo geração e destilação de dados sintéticos.

Llama 3.2 90B

Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos, chatbots multimodais e sistemas autônomos.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Ajuste fino compatível: não

Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos, com uma capacidade única de raciocinar e tirar conclusões a partir de entradas visuais e textuais.

Leia o blog

Llama 3.2 11B

Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos e chatbots multimodais.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Ajuste fino compatível: não

Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas, como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos.

Leia o blog

Llama 3.2 3B

Modelo leve somente texto, criado para oferecer resultados altamente precisos e relevantes. Desenvolvido para aplicações que exigem inferência de baixa latência e recursos computacionais limitados. Ideal para consultas e reescrita imediata, assistentes móveis de redação com inteligência artificial e aplicações de atendimento ao cliente, especialmente em dispositivos de borda, onde sua eficiência e baixa latência permitem uma integração perfeita em vários cenários, incluindo assistentes de redação móveis com inteligência artificial e chatbots de atendimento ao cliente.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Ajuste fino compatível: não

Casos de uso compatíveis: geração avançada de texto, resumo, análise de sentimentos, inteligência emocional, compreensão contextual e raciocínio de bom senso.

Leia o blog

Llama 3.2 1B

Modelo leve somente texto, criado para oferecer respostas rápidas e precisas. Ideal para dispositivos de borda e aplicativos móveis. O modelo permite recursos de IA no dispositivo, preservando a privacidade do usuário e minimizando a latência.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Ajuste fino compatível: não

Casos de uso compatíveis: casos de uso de diálogos multilíngues, como gerenciamento de informações pessoais, recuperação de conhecimento multilíngue e tarefas de reescrita.

Leia o blog

Llama 3.1 405B

Adequado para aplicações em nível corporativo, pesquisa e desenvolvimento, geração de dados sintéticos e destilação de modelos. Com recursos de inferência otimizados para latência disponíveis em versão prévia pública, esse modelo oferece performance e escalabilidade excepcionais, permitindo que as organizações acelerem suas iniciativas de IA enquanto mantêm resultados de alta qualidade em diversos casos de uso.

Número máximo de tokens
: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Suporte para otimização: em breve

Casos de uso com suporte: conhecimento geral, geração de textos longos, tradução automática, compreensão contextual aprimorada, raciocínio e tomada de decisões avançados, tratamento aprimorado para ambiguidade e incerteza, criatividade e diversidade aumentadas, capacidade de direcionamento, matemática, uso de ferramentas, tradução em múltiplos idiomas e programação.

Leia o blog

Llama 3.1 70B

Adequado para criação de conteúdo, inteligência artificial conversacional, compreensão de idiomas, desenvolvimento de pesquisa e aplicações corporativas. Com novos recursos de inferência otimizados para latência disponíveis em versão prévia pública, esse modelo define uma nova referência de performance para soluções de IA que processam entradas de texto extensas, permitindo que as aplicações respondam mais rapidamente e lidem com consultas mais longas com mais eficiência.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Ajuste fino: sim

Casos de uso com suporte: sumarização de textos, classificação de textos, análise de sentimentos e tradução de idiomas.

Leia o blog

Llama 3.1 8B

Adequado para ambientes com capacidade computacional e recursos limitados, tempos de treinamento reduzidos e dispositivos de borda.

Número máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Ajuste fino: sim

Casos de uso com suporte: sumarização de textos, classificação de textos, análise de sentimentos e tradução de idiomas.

Leia o blog

Llama 3 70B

Ideal para criação de conteúdo, IA conversacional, compreensão de idiomas, desenvolvimento de pesquisas e aplicativos corporativos. 

Máximo de tokens: 8 mil

Idiomas: inglês

Compatível com ajuste fino: não

Casos de uso com suporte: sumarização de textos e precisão, classificação de texto e de nuances, análise de sentimentos e raciocínio sobre nuances, modelagem de linguagem, sistemas de diálogo, geração de código e cumprimento de instruções.

Leia o blog

Llama 3 8B

Ideal para situações em que a capacidade e os recursos computacionais são limitados, tempos de treinamento mais rápidos e dispositivos de borda.

Máximo de tokens: 8 mil

Idiomas: inglês

Compatível com ajuste fino: não

Casos de uso com suporte: sumarização de textos, classificação de textos, análise de sentimentos e tradução de idiomas

Leia o blog

Llama 2 70B

Modelo ajustado no tamanho de parâmetro 70B. Adequado para tarefas de maior escala, como modelagem de linguagem, geração de texto e sistemas de diálogo.

Máximo de tokens: 4 mil

Idiomas: inglês

Ajuste fino: sim

Casos de uso com suporte: interação semelhante à de um assistente

Leia o blog

Llama 2 13B

Modelo ajustado no tamanho de parâmetro 13B. Adequado para tarefas de menor escala, como classificação de texto, análise de sentimentos e tradução de idiomas.

Máximo de tokens: 4 mil

Idiomas: inglês

Ajuste fino: sim

Casos de uso com suporte: interação semelhante à de um assistente

Leia a publicação do blog

Nomura usa os modelos do Llama da Meta no Amazon Bedrock para democratizar o acesso à IA generativa

 

Aniruddh Singh, diretor executivo e arquiteto empresarial da Nomura, descreve a jornada da instituição financeira para democratizar o acesso à IA generativa em toda a empresa, empregando o Amazon Bedrock e os modelos do Llama da Meta. O Amazon Bedrock oferece acesso crítico aos principais modelos de base, como o Llama, possibilitando uma integração sem complicações. O Llama oferece benefícios significativos para a Nomura, incluindo inovação com maior rapidez, transparência, barreiras de proteção de viés e desempenho robusto em sumarização de texto, geração de código, análise de logs e processamento de documentos. 

TaskUs revoluciona a experiência dos clientes ao usar os modelos do Llama da Meta no Amazon Bedrock

A TaskUs, uma das principais provedoras de serviços digitais terceirizados e experiência do cliente de próxima geração para as empresas mais inovadoras do mundo, ajuda seus clientes a representar, proteger e expandir suas marcas. Sua plataforma inovadora, a TaskGPT, com tecnologia do Amazon Bedrock e dos modelos do Llama da Meta, capacita a equipe a fornecer um serviço excepcional. A TaskUs desenvolve ferramentas na TaskGPT que aproveitam o Amazon Bedrock e o Llama para realizar paráfrase, geração de conteúdo, compreensão e manejo de tarefas complexas de forma econômica.