Condor desenvolve protótipo generativo de IA para suporte de TI em semanas usando o Amazon Bedrock
O protótipo criado com o parceiro da AWS MadeinWeb teve como objetivo fornecer suporte de TI e helpdesk com o Amazon Bedrock, o serviço gerenciado da AWS para IA generativa.
Benefícios
Serviço de TI integrado
Maior eficiência
Versatilidade
Visão geral
A Condor, empresa brasileira do setor de acessórios para cuidados pessoais e domésticos, desenvolveu um protótipo generativo de IA para atender sua área de tecnologia da informação. O projeto usou os serviços da AWS, com o apoio do parceiro da AWS MadeinWeb, criador da solução de IA generativa Charla.
A Charla, a plataforma generativa da MadeinWeb, é construída inteiramente na AWS e ajuda as empresas a usar facilmente o Amazon Bedrock em casos como atendimento ao cliente, automação de processos e assistentes virtuais.
Com duas fábricas e mais de 1.600 funcionários, a Condor inicialmente considerou adotar o Charla para agilizar a resolução das atividades do helpdesk, reduzindo a carga sobre a equipe de TI. O gerente de TI da empresa, Fabio Fernando Pereira, lembra que construir na AWS foi importante para desbloquear essa iniciativa. “Temos projetos de infraestrutura com a AWS há algum tempo e vimos muito potencial em soluções de IA.”
O desenvolvimento na AWS resultou em uma oportunidade para a empresa testar e validar o desenvolvimento de soluções baseadas em IA generativa. “A AWS tem muitas soluções para explorar e abri-las nos ajuda a experimentar novas possibilidades”, explica Pereira.
Pereira lembra que o projeto resultou no protótipo de um modelo de serviço de TI integrado à base de conhecimento da área e ao histórico de chamadas da empresa. “Usando esse chatbot, tivemos a ideia de complementar as atividades da central de serviços com a adoção da IA generativa”, diz ele. É basicamente a criação de uma interface na qual os funcionários podem encontrar respostas para suas perguntas com base no histórico de tíquetes de TI da empresa. O Charla também ajuda na integração direta às ferramentas da empresa, como a ferramenta de chamadas, pois é um serviço construído com APIs.
O protótipo construído no Amazon Bedrock com a plataforma Charla forneceu mais uma forma de complementar o serviço prestado pelos funcionários da Condor, com foco em melhorar os SLAs e otimizar as tarefas da equipe.
Sobre a Condor
Fundada em 1929, a Condor é uma empresa brasileira que atua no setor de produtos de higiene bucal, beleza, limpeza e pintura, e é referência no segmento de utensílios e acessórios para cuidados pessoais e domésticos. Com mais de 1.500 produtos em seu portfólio, a Condor opera em mais de 100.000 pontos de venda no Brasil e exporta para mais de trinta países.
Construindo uma solução para desenvolver casos de uso complexos
A solução proposta pela MadeinWeb, em parceria com a AWS, foi construída com base em uma arquitetura robusta, começando com a criação de um repositório seguro no Amazon Simple Storage Service (Amazon S3 ). Esse repositório forneceu acesso rápido, seguro e econômico a milhares de documentos relacionados a chamadas, bases de conhecimento e padrões técnicos da Condor.
A integração nativa com objetos do Amazon S3 facilitou a implementação do Amazon OpenSearch Service para criar um banco de dados totalmente vetorizado, permitindo uma pesquisa mais eficiente e uma análise avançada de chamadas internas, além de manter a versatilidade necessária para lidar com vários formatos de documentos.
“Depois de extrair esses dados, usamos a capacidade semântica de um modelo fundamental para entender as chamadas e estruturar a solução às demandas do usuário, o que permitiu uma assertividade muito forte em problemas complexos”, explica o diretor de Nuvem, Dados e IA da MadeinWeb, Vinicius Machado. Inicialmente, modelos personalizados foram implementados usando o Amazon SageMaker , fornecendo um poder computacional substancial. Posteriormente, a transição para o Amazon Bedrock trouxe versatilidade à plataforma Charla na escolha de modelos fundamentais, facilitando o desenvolvimento e a experimentação por meio de APIs.
Do ponto de vista de Machado, a escolha do modelo fundamental Claude-2 da Anthropic foi crucial. “O Claude-2 tem uma grande vantagem porque traz conceitos legais e responsabilidade em seu treinamento, facilitando o controle sobre alucinações e atendendo aos conceitos de justiça da IA”, explica ele. “Centenas de chamadas foram analisadas e os documentos técnicos processados para garantir a precisão das respostas de Charla.”
Em seguida, a arquitetura foi criada usando os principais serviços da AWS, incluindo o Amazon API Gateway e a função AWS Lambda . Pereira explica que o protótipo da solução foi concluído e que em 2024 o foco deve ser expandido para mais ferramentas de IA da AWS, como previsão de demanda. “Com uma solução que gera respostas assertivas, vimos de perto o real potencial das ferramentas de IA da AWS”, revela.
A outra frente de IA, em sua fase final pela Condor e pela MadeinWeb, é o uso da previsão de demanda na AWS para facilitar o processo de S&OP da Condor. Ele foi alimentado com dados históricos de vendas dos últimos dois anos. Os resultados já indicam uma precisão de mais de 90% entre o que é esperado com o aprendizado de máquina e o que é alcançado em vários SKUs.
“Acreditamos que o uso do aprendizado de máquina complementa muito as análises de demanda realizadas internamente, com base no conhecimento humano da equipe. Em 2024, esperamos expandir o uso da IA pensando em todos os dois mil itens que vendemos hoje”, explica Pereira.
Com uma solução que gera respostas assertivas, vimos de perto o real potencial das ferramentas de Inteligência Artificial (IA) da AWS.
Fábio Fernando Pereira
Gerente de TI, CondorServiços da AWS usados
Comece a usar
Você encontrou o que estava procurando hoje?
Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas