Pular para o conteúdo principal

Meta Llama no Amazon Bedrock

Desenvolva o futuro da inteligência artificial com o Llama

Introdução ao Llama 3.3

O Llama 3.3 é um modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.

O treinamento abrangente do Llama 3.3 70B resulta em uma compreensão robusta e capacidades de geração em diversas tarefas. Esse modelo oferece é compatível com IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisas, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código.

O Llama 3.2 90B é o modelo mais avançado da Meta e é ideal para aplicações de nível corporativo. O Llama 3.2 é o primeiro modelo Llama a ter suporte a tarefas de visão, com uma nova arquitetura de modelo que integra representações do codificador de imagens ao modelo de linguagem. Esse modelo se destaca em conhecimentos gerais, geração de textos longos, tradução multilíngue, codificação, matemática e raciocínio avançado. Ele também apresenta recursos de raciocínio de imagem, permitindo uma compreensão sofisticada da imagem e raciocínio visual. Esse modelo é ideal para os seguintes casos de uso: legenda de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e raciocínio visual e resposta visual a perguntas de documentos.

O Llama 3.2 11B se destaca em criação de conteúdo, IA conversacional, compreensão de idiomas e aplicações corporativas que exigem raciocínio visual. O modelo demonstra um forte desempenho em resumo de texto, análise de sentimentos, geração de código e acompanhamento de instruções, com a capacidade adicional de raciocinar sobre imagens. Esse modelo é ideal para os seguintes casos de uso: legenda de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e raciocínio visual e resposta visual a perguntas de documentos.

O Llama 3.2 3B oferece uma experiência de IA mais personalizada, com processamento no dispositivo. O Llama 3.2 3B foi projetado para aplicativos que exigem inferência de baixa latência e recursos computacionais limitados. Ele se destaca em tarefas de resumo de textos, classificação e tradução de idiomas. Esse modelo é ideal para os seguintes casos de uso: assistentes de escrita móveis com inteligência artificial e aplicações de atendimento ao cliente.

O Llama 3.2 1B é o modelo mais leve da coleção de modelos Llama 3.2 e é perfeito para recuperação e resumo de dispositivos de borda e aplicações móveis. Ele permite recursos de IA no dispositivo, preservando a privacidade do usuário e minimizando a latência. Esse modelo é ideal para os seguintes casos de uso: gerenciamento de informações pessoais e recuperação de conhecimento multilíngue.

Benefícios

LOREM IPSUM

O Llama 3.2 oferece uma experiência de IA mais personalizada, com processamento no dispositivo. Os modelos Llama 3.2 foram projetados para serem mais eficientes, com latência reduzida e performance aprimorada, tornando-os adequados para uma ampla variedade de aplicações.

O comprimento de contexto de 128 mil tokens permite que o Llama capture relacionamentos ainda mais sutis nos dados.

Os modelos Llama são treinados em mais de 15 trilhões de tokens de fontes de dados públicos online para compreender melhor as complexidades da linguagem.

O Llama 3.2 é multilíngue e oferece suporte para oito idiomas, incluindo inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

A API gerenciada do Amazon Bedrock torna o uso de modelos Llama mais fácil do que nunca. Organizações de todos os portes podem acessar todo o potencial dos modelos do Llama sem se preocupar com a infraestrutura subjacente. Como o Amazon Bedrock é uma tecnologia sem servidor, não é necessário gerenciar nenhuma infraestrutura, e é possível integrar e implantar com segurança as funcionalidades de IA generativa do Llama em suas aplicações ao usar os serviços da AWS com os quais você já tem familiaridade. Isso significa que você pode se concentrar no que faz de melhor: criar suas aplicações de IA.

Conheça o Llama

Durante a última década, a Meta se concentrou em disponibilizar ferramentas para os desenvolvedores e em promover a colaboração e os avanços entre desenvolvedores, pesquisadores e organizações. Os modelos Llama estão disponíveis em uma variedade de tamanhos de parâmetros, permitindo que os desenvolvedores selecionem o modelo que melhor se adapta às suas necessidades e ao orçamento de inferência. Os modelos Llama no Amazon Bedrock oferecem inúmeras possibilidades, pois os desenvolvedores não precisam se preocupar com a escalabilidade ou com o gerenciamento da infraestrutura. O Amazon Bedrock proporciona uma maneira muito fácil e direta para os desenvolvedores começarem a usar o Llama.

Casos de uso

Os modelos Llama são excelentes em compreensão de imagens e raciocínio visual, nuances de linguagem, compreensão contextual e tarefas complexas, como análise de dados visuais, legendas de imagens, geração de diálogos e tradução, e podem lidar perfeitamente com tarefas de várias etapas. Casos de uso adicionais para os quais os modelos Llama são ideais incluem raciocínio e compreensão visuais sofisticados, recuperação de imagem e texto, embasamento visual, resposta visual a perguntas, resumo e precisão do texto, classificação de texto, análise de sentimentos e de nuances, modelagem de linguagem, sistemas de diálogo, geração de código e instruções a seguir.

Versões do modelo

Llama 3.3 70B

Modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.

Máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, espanhol e tailandês

Compatível com ajuste fino: não

Casos de uso compatíveis: IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisa, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código. O modelo também tem a capacidade de aproveitar as saídas de modelos para melhorar outros modelos, incluindo geração e destilação de dados sintéticos

Llama 3.2 90B

Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos, chatbots multimodais e sistemas autônomos.

Máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês

Compatível com ajuste fino: sim

Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos, com uma capacidade única de raciocinar e tirar conclusões a partir de entradas visuais e textuais

Llama 3.2 11B

Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos e chatbots multimodais.

Máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.

Compatível com ajuste fino: sim

Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas, como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos

Llama 3.2 3B

Modelo leve somente texto, criado para oferecer resultados altamente precisos e relevantes. Desenvolvido para aplicações que exigem inferência de baixa latência e recursos computacionais limitados. Ideal para consultas e reescrita imediata, assistentes móveis de redação com inteligência artificial e aplicações de atendimento ao cliente, especialmente em dispositivos de borda, onde sua eficiência e baixa latência permitem uma integração perfeita em vários cenários, incluindo assistentes de redação móveis com inteligência artificial e chatbots de atendimento ao cliente.

Máximo de tokens: 128 mil

Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês

Compatível com ajuste fino: sim

Casos de uso compatíveis: geração avançada de texto, resumo, análise de sentimentos, inteligência emocional, compreensão contextual e raciocínio de bom senso

Nomura usa modelos Llama da Meta no Amazon Bedrock para democratizar a IA generativa

Aniruddh Singh, diretor executivo e arquiteto empresarial da Nomura, descreve a jornada da instituição financeira para democratizar o acesso à IA generativa em toda a empresa, empregando o Amazon Bedrock e os modelos Llama da Meta. O Amazon Bedrock oferece acesso crítico aos principais modelos de base, como o Llama, possibilitando uma integração sem complicações. O Llama oferece benefícios significativos para a Nomura, incluindo inovação com maior rapidez, transparência, barreiras de proteção de viés e desempenho robusto em sumarização de texto, geração de código, análise de logs e processamento de documentos. 

TaskUs revoluciona a experiência dos clientes ao usar os modelos Llama da Meta no Amazon Bedrock

A TaskUs, uma das principais provedoras de serviços digitais terceirizados e experiência do cliente de próxima geração para as empresas mais inovadoras do mundo, ajuda seus clientes a representar, proteger e expandir suas marcas. Sua plataforma inovadora, a TaskGPT, com tecnologia do Amazon Bedrock e dos modelos Llama da Meta, capacita a equipe a fornecer um serviço excepcional. A TaskUs desenvolve ferramentas na TaskGPT que aproveitam o Amazon Bedrock e o Llama para realizar paráfrase, geração de conteúdo, compreensão e manejo de tarefas complexas de forma econômica.