Introdução ao Llama 3.3
O Llama 3.3 é um modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.
Benefícios
Conheça o Llama
Durante a última década, a Meta se concentrou em disponibilizar ferramentas para os desenvolvedores e em promover a colaboração e os avanços entre desenvolvedores, pesquisadores e organizações. Os modelos do Llama estão disponíveis em uma variedade de tamanhos de parâmetros, possibilitando que os desenvolvedores selecionem o modelo que melhor se adapta às suas necessidades e ao orçamento de inferência. Os modelos do Llama no Amazon Bedrock oferecem inúmeras possibilidades, pois os desenvolvedores não precisam se preocupar com a escalabilidade ou com o gerenciamento da infraestrutura. O Amazon Bedrock proporciona uma maneira muito fácil e direta para os desenvolvedores começarem a usar o Llama.
Casos de uso
Os modelos Lhama se destacam na compreensão de imagens e raciocínio visual, nuances de linguagem, compreensão contextual e tarefas complexas, como análise visual de dados, legendas de imagens, geração de diálogos, tradução e geração de diálogos, podendo lidar com tarefas de várias etapas sem esforço. Casos de uso adicionais para os quais os modelos Llama são ideais incluem raciocínio e compreensão visuais sofisticados, recuperação de imagem e texto, embasamento visual, resposta visual a perguntas, resumo e precisão do texto, classificação de texto, análise de sentimentos e raciocínio de nuances, modelagem de linguagem, sistemas de diálogo, geração de código e instruções a seguir.
Versões de modelos
Llama 3.3 70B
O modelo 70B ajustado para instruções somente de texto que fornece performance aprimorada em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado para aplicações somente de texto. O Llama 3.3 70B oferece performance semelhante ao Llama 3.1 405B, embora exija apenas uma fração dos recursos computacionais.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, espanhol e tailandês.
Suporte para ajuste fino: não
Casos de uso compatíveis: IA conversacional de alta performance projetada para criação de conteúdo, aplicações corporativas e pesquisas, oferecendo recursos avançados de compreensão da linguagem, incluindo resumo de texto, classificação, análise de sentimentos e geração de código. O modelo também tem a capacidade de aproveitar as saídas de modelos para melhorar outros modelos, incluindo geração e destilação de dados sintéticos.
Llama 3.2 90B
Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos, chatbots multimodais e sistemas autônomos.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Ajuste fino compatível: não
Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos, com uma capacidade única de raciocinar e tirar conclusões a partir de entradas visuais e textuais.
Llama 3.2 11B
Modelo multimodal que aceita entradas e saídas de texto e imagem. Ideal para aplicações que exigem inteligência visual sofisticada, como análise de imagens, processamento de documentos e chatbots multimodais.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Ajuste fino compatível: não
Casos de uso compatíveis: compreensão de imagens, raciocínio visual e interação multimodal, possibilitando o uso de aplicações avançadas, como legendas de imagens, recuperação de texto de imagem, fundamentação visual, resposta visual a perguntas e resposta visual a perguntas de documentos.
Llama 3.2 3B
Modelo leve somente texto, criado para oferecer resultados altamente precisos e relevantes. Desenvolvido para aplicações que exigem inferência de baixa latência e recursos computacionais limitados. Ideal para consultas e reescrita imediata, assistentes móveis de redação com inteligência artificial e aplicações de atendimento ao cliente, especialmente em dispositivos de borda, onde sua eficiência e baixa latência permitem uma integração perfeita em vários cenários, incluindo assistentes de redação móveis com inteligência artificial e chatbots de atendimento ao cliente.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Ajuste fino compatível: não
Casos de uso compatíveis: geração avançada de texto, resumo, análise de sentimentos, inteligência emocional, compreensão contextual e raciocínio de bom senso.
Llama 3.2 1B
Modelo leve somente texto, criado para oferecer respostas rápidas e precisas. Ideal para dispositivos de borda e aplicativos móveis. O modelo permite recursos de IA no dispositivo, preservando a privacidade do usuário e minimizando a latência.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Ajuste fino compatível: não
Casos de uso compatíveis: casos de uso de diálogos multilíngues, como gerenciamento de informações pessoais, recuperação de conhecimento multilíngue e tarefas de reescrita.
Llama 3.1 405B
Adequado para aplicações em nível corporativo, pesquisa e desenvolvimento, geração de dados sintéticos e destilação de modelos. Com recursos de inferência otimizados para latência disponíveis em versão prévia pública, esse modelo oferece performance e escalabilidade excepcionais, permitindo que as organizações acelerem suas iniciativas de IA enquanto mantêm resultados de alta qualidade em diversos casos de uso.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Suporte para otimização: em breve
Casos de uso com suporte: conhecimento geral, geração de textos longos, tradução automática, compreensão contextual aprimorada, raciocínio e tomada de decisões avançados, tratamento aprimorado para ambiguidade e incerteza, criatividade e diversidade aumentadas, capacidade de direcionamento, matemática, uso de ferramentas, tradução em múltiplos idiomas e programação.
Llama 3.1 70B
Adequado para criação de conteúdo, inteligência artificial conversacional, compreensão de idiomas, desenvolvimento de pesquisa e aplicações corporativas. Com novos recursos de inferência otimizados para latência disponíveis em versão prévia pública, esse modelo define uma nova referência de performance para soluções de IA que processam entradas de texto extensas, permitindo que as aplicações respondam mais rapidamente e lidem com consultas mais longas com mais eficiência.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Ajuste fino: sim
Casos de uso com suporte: sumarização de textos, classificação de textos, análise de sentimentos e tradução de idiomas.
Llama 3.1 8B
Adequado para ambientes com capacidade computacional e recursos limitados, tempos de treinamento reduzidos e dispositivos de borda.
Número máximo de tokens: 128 mil
Idiomas: inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
Ajuste fino: sim
Casos de uso com suporte: sumarização de textos, classificação de textos, análise de sentimentos e tradução de idiomas.
Llama 3 70B
Ideal para criação de conteúdo, IA conversacional, compreensão de idiomas, desenvolvimento de pesquisas e aplicativos corporativos.
Máximo de tokens: 8 mil
Idiomas: inglês
Compatível com ajuste fino: não
Casos de uso com suporte: sumarização de textos e precisão, classificação de texto e de nuances, análise de sentimentos e raciocínio sobre nuances, modelagem de linguagem, sistemas de diálogo, geração de código e cumprimento de instruções.
Llama 3 8B
Ideal para situações em que a capacidade e os recursos computacionais são limitados, tempos de treinamento mais rápidos e dispositivos de borda.
Máximo de tokens: 8 mil
Idiomas: inglês
Compatível com ajuste fino: não
Casos de uso com suporte: sumarização de textos, classificação de textos, análise de sentimentos e tradução de idiomas
Llama 2 70B
Modelo ajustado no tamanho de parâmetro 70B. Adequado para tarefas de maior escala, como modelagem de linguagem, geração de texto e sistemas de diálogo.
Máximo de tokens: 4 mil
Idiomas: inglês
Ajuste fino: sim
Casos de uso com suporte: interação semelhante à de um assistente
Llama 2 13B
Modelo ajustado no tamanho de parâmetro 13B. Adequado para tarefas de menor escala, como classificação de texto, análise de sentimentos e tradução de idiomas.
Máximo de tokens: 4 mil
Idiomas: inglês
Ajuste fino: sim
Casos de uso com suporte: interação semelhante à de um assistente
Nomura usa os modelos do Llama da Meta no Amazon Bedrock para democratizar o acesso à IA generativa
Aniruddh Singh, diretor executivo e arquiteto empresarial da Nomura, descreve a jornada da instituição financeira para democratizar o acesso à IA generativa em toda a empresa, empregando o Amazon Bedrock e os modelos do Llama da Meta. O Amazon Bedrock oferece acesso crítico aos principais modelos de base, como o Llama, possibilitando uma integração sem complicações. O Llama oferece benefícios significativos para a Nomura, incluindo inovação com maior rapidez, transparência, barreiras de proteção de viés e desempenho robusto em sumarização de texto, geração de código, análise de logs e processamento de documentos.
TaskUs revoluciona a experiência dos clientes ao usar os modelos do Llama da Meta no Amazon Bedrock
A TaskUs, uma das principais provedoras de serviços digitais terceirizados e experiência do cliente de próxima geração para as empresas mais inovadoras do mundo, ajuda seus clientes a representar, proteger e expandir suas marcas. Sua plataforma inovadora, a TaskGPT, com tecnologia do Amazon Bedrock e dos modelos do Llama da Meta, capacita a equipe a fornecer um serviço excepcional. A TaskUs desenvolve ferramentas na TaskGPT que aproveitam o Amazon Bedrock e o Llama para realizar paráfrase, geração de conteúdo, compreensão e manejo de tarefas complexas de forma econômica.