Histórias de Sucesso / Manufacturing

2024
Condor logo

Com Amazon Bedrock, Condor desenvolve protótipo de IA generativa em semanas para suporte de TI

O protótipo construído junto ao parceiro AWS MadeinWeb teve como objetivo o atendimento de TI e Helpdesk com Amazon Bedrock, o serviço gerenciado da AWS para IA generativa.

Atendimento de TI integrado

com a base de conhecimento da área e o histórico de chamados da empresa

Maior eficiência

na busca e análise avançada dos chamados internos

Versatilidade

para a plataforma Charla na escolha de modelos fundacionais, facilitando o desenvolvimento e experimentação por meio de APIs

Visão geral

Referência brasileira no setor de utensílios e acessórios para cuidados pessoais e com o lar, a Condor desenvolveu um protótipo de inteligência artificial generativa para atendimento de sua área de tecnologia da informação. O projeto utilizou a infraestrutura em nuvem e os serviços de inteligência artificial da AWS, com apoio da MadeinWeb, criadora da solução de IA generativa Charla.

A Charla, plataforma generativa da MadeinWeb, é construída totalmente em AWS e permite a utilização facilitada do Amazon Bedrock nas empresas para casos de uso como atendimento ao cliente, automação de processos e assistentes virtuais.

Com duas fábricas e mais de 1,6 mil funcionários, a Condor pensou inicialmente em adotar a Charla para a resolução agilizada das atividades de helpdesk, reduzindo a carga sobre o time de TI. O gerente de TI da companhia, Fabio Fernando Pereira, lembra que a proximidade com a AWS foi importante para desbloquear essa iniciativa. “Temos projetos de infraestrutura com a AWS há algum tempo e vimos um potencial muito grande nas soluções de inteligência artificial”.

Arte Institucional

Esta proximidade resultou em um investimento para que a empresa testasse e validasse o desenvolvimento de soluções baseadas em IA generativa. “A AWS tem muitas soluções para serem exploradas e a abertura deles nos ajuda muito a experimentar novas possibilidades”, diz.

Pereira lembra que o projeto resultou no protótipo de um modelo de atendimento de TI integrado com a base de conhecimento da área e o histórico de chamados da empresa. “Com o uso desse chatbot, tivemos a ideia de complementar as atividades de service desk com adoção da inteligência artificial generativa”, diz. Trata-se basicamente da criação de uma interface onde os colaboradores podem encontrar respostas às suas dúvidas com base no histórico dos tickets de TI da companhia. A Charla também permite a integração direta em ferramentas das empresas, como a ferramenta de chamados, por ser um serviço construído com APIs.

Desta forma, o protótipo construído em Amazon Bedrock com a plataforma Charla trouxe mais uma maneira de complementar o atendimento de colaboradores da Condor, focado em melhorias de SLAs e otimização das tarefas da equipe.

Evoluindo para usos complexos

A solução proposta pela MadeinWeb, em parceria com a AWS, foi construída com base em uma arquitetura robusta, começando pela criação de um repositório seguro no Amazon Simple Storage Service (Amazon S3). Esse repositório permitiu um acesso rápido, seguro e econômico a milhares de documentos relacionados a chamados, bases de conhecimento e normas técnicas da Condor.

A integração nativa com objetos do Amazon S3 facilitou a implementação do Amazon OpenSearch Service para criar uma base de dados completamente vetorizada, permitindo uma busca mais eficiente e análise avançada dos chamados internos e garantindo a versatilidade necessária para lidar com diversos formatos de documentos.

"Após extrair esses dados, utilizamos a capacidade semântica de um modelo fundacional para entendimento dos chamados e estruturação da solução das demandas do usuário, o que permitiu uma assertividade muito grande em problemas complexos.", explica o diretor de Cloud, Data & AI da MadeinWeb, Vinicius Machado. Inicialmente, foram implementados modelos customizados com o Amazon SageMaker, proporcionando poder computacional substancial. Posteriormente, a transição para o Amazon Bedrock trouxe versatilidade para a plataforma Charla na escolha de modelos fundacionais, facilitando o desenvolvimento e experimentação por meio de APIs.

Na visão de Machado, a escolha do modelo fundacional Claude-2 da Anthropic foi crucial. "O Claude-2 tem uma vantagem muito grande por trazer conceitos legais e responsabilidade durante seu treinamento, facilitando o controle de alucinações e atendendo conceitos de fairness AI", explica. "Foram centenas de chamados analisados e documentos técnicos processados para garantir exatidão nas respostas da Charla".

Em seguida, a arquitetura foi construída utilizando serviços-chave da AWS, incluindo o Amazon API Gateway, o AWS Lambda Function.

Fabio Pereira explica que o protótipo da solução foi concluído e que em 2024 o foco ele deve ser expandido para mais ferramentas de inteligência artificial da AWS, como previsão de demanda. “Com uma solução que gera respostas assertivas, vimos de perto o potencial real das ferramentas de inteligência artificial da AWS.”, revela.

A outra frente de Inteligência Artificial em fase final pela Condor e a MadeinWeb, é a utilização de forecast de demanda na AWS para facilitar o processo de S&OP da Condor. Ela foi alimentada com dados históricos das vendas dos últimos dois anos. Os resultados já apontam uma precisão acima de 90% entre o previsto com machine learning e o realizado em diversos SKUs.

“Acreditamos que o uso de machine learning complementa muito as análises de demanda realizadas internamente, com base em conhecimento humano da equipe. Em 2024, esperamos expandir a utilização de inteligência artificial pensando em todos os dois mil itens que comercializamos hoje”, revela Fabio Pereira.  

kr_quotemark

Com uma solução que gera respostas assertivas, vimos de perto o potencial real das ferramentas de inteligência artificial da AWS.”

Fabio Fernando Pereira
Gerente de TI da Condor

Sobre a Condor

Fundada em 1929, a Condor é uma empresa brasileira que atua no setor de produtos de higiene bucal, beleza, limpeza e pintura, sendo referência no segmento de utensílios e acessórios para cuidados pessoais e com o lar. Com mais de 1.500 produtos em seu portfólio, a Condor atua em mais de 100 mil pontos de venda no Brasil e exporta para mais de trinta países.

Serviços AWS

Amazon Bedrock

O Amazon Bedrock é um serviço totalmente gerenciado que oferece várias opções de modelos de base (FMs) de alta performance das principais empresas de IA por meio de uma única API, além de um amplo conjunto de recursos necessários para criar aplicações de IA generativa com segurança, privacidade e IA responsável.

Saiba mais »

Amazon SageMaker

O Amazon SageMaker é um serviço totalmente gerenciado que reúne um amplo conjunto de ferramentas para proporcionar machine learning (ML) de alta performance e baixo custo para qualquer caso de uso.

Saiba mais »

AWS Lambda

O AWS Lambda é um serviço de computação que executa seu código em resposta a eventos e gerencia automaticamente os recursos de computação, tornando-se a maneira mais rápida de transformar uma ideia em aplicações de produção modernas e com tecnologia sem servidor.

Saiba mais »

Amazon API Gateway

O Amazon API Gateway é um serviço gerenciado que permite que desenvolvedores criem, publiquem, mantenham, monitorem e protejam APIs em qualquer escala com facilidade. APIs agem como a “porta de entrada” para aplicativos acessarem dados, lógica de negócios ou funcionalidade de seus serviços de back-end.

Saiba mais »

Comece a usar

Organizações de todos os portes, em todos os setores, estão transformando seus negócios e cumprindo suas missões todos os dias usando a AWS. Entre em contato com nossos especialistas e comece sua própria jornada para a AWS hoje mesmo.