- IA generativa›
- Amazon Bedrock›
- Llama
Meta Llama no Amazon Bedrock
Desenvolva o futuro da inteligência artificial com o Llama
Introdução ao Llama 3.3
O Llama 3.3 é um modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.
O treinamento abrangente do Llama 3.3 70B resulta em uma compreensão robusta e capacidades de geração em diversas tarefas. Esse modelo oferece é compatível com IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisas, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código.
O Llama 3.2 90B é o modelo mais avançado da Meta e é ideal para aplicações de nível corporativo. O Llama 3.2 é o primeiro modelo Llama a ter suporte a tarefas de visão, com uma nova arquitetura de modelo que integra representações do codificador de imagens ao modelo de linguagem. Esse modelo se destaca em conhecimentos gerais, geração de textos longos, tradução multilíngue, codificação, matemática e raciocínio avançado. Ele também apresenta recursos de raciocínio de imagem, permitindo uma compreensão sofisticada da imagem e raciocínio visual. Esse modelo é ideal para os seguintes casos de uso: legenda de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e raciocínio visual e resposta visual a perguntas de documentos.
O Llama 3.2 11B se destaca em criação de conteúdo, IA conversacional, compreensão de idiomas e aplicações corporativas que exigem raciocínio visual. O modelo demonstra um forte desempenho em resumo de texto, análise de sentimentos, geração de código e acompanhamento de instruções, com a capacidade adicional de raciocinar sobre imagens. Esse modelo é ideal para os seguintes casos de uso: legenda de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e raciocínio visual e resposta visual a perguntas de documentos.
O Llama 3.2 3B oferece uma experiência de IA mais personalizada, com processamento no dispositivo. O Llama 3.2 3B foi projetado para aplicativos que exigem inferência de baixa latência e recursos computacionais limitados. Ele se destaca em tarefas de resumo de textos, classificação e tradução de idiomas. Esse modelo é ideal para os seguintes casos de uso: assistentes de escrita móveis com inteligência artificial e aplicações de atendimento ao cliente.
O Llama 3.2 1B é o modelo mais leve da coleção de modelos Llama 3.2 e é perfeito para recuperação e resumo de dispositivos de borda e aplicações móveis. Ele permite recursos de IA no dispositivo, preservando a privacidade do usuário e minimizando a latência. Esse modelo é ideal para os seguintes casos de uso: gerenciamento de informações pessoais e recuperação de conhecimento multilíngue.
Benefícios
LOREM IPSUM
Conheça o Llama
Casos de uso
Os modelos Llama são excelentes em compreensão de imagens e raciocínio visual, nuances de linguagem, compreensão contextual e tarefas complexas, como análise de dados visuais, legendas de imagens, geração de diálogos e tradução, e podem lidar perfeitamente com tarefas de várias etapas. Casos de uso adicionais para os quais os modelos Llama são ideais incluem raciocínio e compreensão visuais sofisticados, recuperação de imagem e texto, embasamento visual, resposta visual a perguntas, resumo e precisão do texto, classificação de texto, análise de sentimentos e de nuances, modelagem de linguagem, sistemas de diálogo, geração de código e instruções a seguir.
Versões do modelo
Llama 3.3 70B
Modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.
Máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, espanhol e tailandês
Compatível com ajuste fino: não
Casos de uso compatíveis: IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisa, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código. O modelo também tem a capacidade de aproveitar as saídas de modelos para melhorar outros modelos, incluindo geração e destilação de dados sintéticos
Llama 3.2 90B
Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos, chatbots multimodais e sistemas autônomos.
Máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês
Compatível com ajuste fino: sim
Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos, com uma capacidade única de raciocinar e tirar conclusões a partir de entradas visuais e textuais
Llama 3.2 11B
Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos e chatbots multimodais.
Máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Compatível com ajuste fino: sim
Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas, como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos
Llama 3.2 3B
Modelo leve somente texto, criado para oferecer resultados altamente precisos e relevantes. Desenvolvido para aplicações que exigem inferência de baixa latência e recursos computacionais limitados. Ideal para consultas e reescrita imediata, assistentes móveis de redação com inteligência artificial e aplicações de atendimento ao cliente, especialmente em dispositivos de borda, onde sua eficiência e baixa latência permitem uma integração perfeita em vários cenários, incluindo assistentes de redação móveis com inteligência artificial e chatbots de atendimento ao cliente.
Máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês
Compatível com ajuste fino: sim
Casos de uso compatíveis: geração avançada de texto, resumo, análise de sentimentos, inteligência emocional, compreensão contextual e raciocínio de bom senso
Nomura usa modelos Llama da Meta no Amazon Bedrock para democratizar a IA generativa
Aniruddh Singh, diretor executivo e arquiteto empresarial da Nomura, descreve a jornada da instituição financeira para democratizar o acesso à IA generativa em toda a empresa, empregando o Amazon Bedrock e os modelos Llama da Meta. O Amazon Bedrock oferece acesso crítico aos principais modelos de base, como o Llama, possibilitando uma integração sem complicações. O Llama oferece benefícios significativos para a Nomura, incluindo inovação com maior rapidez, transparência, barreiras de proteção de viés e desempenho robusto em sumarização de texto, geração de código, análise de logs e processamento de documentos.
TaskUs revoluciona a experiência dos clientes ao usar os modelos Llama da Meta no Amazon Bedrock
A TaskUs, uma das principais provedoras de serviços digitais terceirizados e experiência do cliente de próxima geração para as empresas mais inovadoras do mundo, ajuda seus clientes a representar, proteger e expandir suas marcas. Sua plataforma inovadora, a TaskGPT, com tecnologia do Amazon Bedrock e dos modelos Llama da Meta, capacita a equipe a fornecer um serviço excepcional. A TaskUs desenvolve ferramentas na TaskGPT que aproveitam o Amazon Bedrock e o Llama para realizar paráfrase, geração de conteúdo, compreensão e manejo de tarefas complexas de forma econômica.