O blog da AWS

Como os líderes de tecnologia podem se preparar para a IA generativa

Por Phil Le-Brun
Gen AI“Nós tendemos a superestimar o efeito de uma tecnologia no curto prazo e subestimar o efeito no longo prazo.”—Roy Amara, a lei de AmaraSou fascinado pelos pontos de inflexão tecnológicos da história que despertaram a imaginação do público — a primeira transmissão de TV, voo espacial tripulado ou videoconferência. Cada um desses eventos tornou tangível uma tecnologia ou conceito anteriormente esotérico. Como Amara sugere em sua “lei”, esses eventos são precedidos por falsos começos e expectativas infladas. Quando (se) um ponto de inflexão é alcançado, ele geralmente é acompanhado por décadas de trabalho ainda não visto descrito pela curva S da inovação. Pense nas promessas passadas de mundos virtuais se tornando comuns. Embora as expectativas tenham superado a realidade, organizações e líderes que curiosamente se dedicaram a aprender, baseando-se em problemas de negócio do mundo real, como a demanda dos clientes por experiências mais imersivas, estão mais bem preparados para quando os mundos virtuais se tornarem populares.O exemplo atual mais evidente dessa tecnologia emergente é a IA generativa. Para o público, a IA generativa aparentemente apareceu do nada. Mas se você se aprofundar, notará que as ideias subjacentes às soluções generativas de IA remontam a invenções como o Mark I Perceptron em 1958 e as redes neurais no final do século XX.Os avanços nas técnicas estatísticas, o grande crescimento dos dados disponíveis publicamente e o poder da nuvem foram fundamentais para tornar possível a IA generativa. Você provavelmente já se deparou com dois termos associados à IA generativa. Os Modelos Funcionais (FMs) são modelos de aprendizado de máquina (ML) treinados em grandes quantidades de dados estruturados e não estruturados, que podem ser ajustados ou adaptados para tarefas mais específicas. Os Large Language Models (LLMs) são um subconjunto de FMs focados em compreender e gerar texto semelhante ao humano. Esses modelos são ideais para necessidades como tradução, resposta a perguntas, resumo de informações e criação ou identificação de imagens.

AWS e IA generativa

A AWS investe e usa FMs há vários anos em áreas como pesquisa na Amazon.com e entrega de experiências de conversação com a Alexa. Você provavelmente já viu os anúncios da AWS sobre IA generativa, então não vou repeti-los aqui. Com todo o entusiasmo e o marketing que podem envolver as novas tecnologias, ter uma compreensão executiva clara do “o quê” e do “porquê” é fundamental.

Desde o lançamento do Amazon SageMaker em 2017, tem havido um fluxo contínuo de serviços de ML e IA ampliando o alcance dessas ferramentas para tecnólogos e não tecnólogos. A missão da AWS tem sido expandir o acesso, dadas as profundas implicações dessas tecnologias. Os anúncios recentes dão continuidade a essa missão com uma abordagem mais aberta para fornecer os recursos de que as organizações precisam. Por exemplo, a abordagem com o Amazon Bedrock fornecerá amplo acesso a modelos pré-treinados que podem ser personalizados com seus próprios dados, permitir que os dados sejam mantidos em sigilo e aproveitará o poder da nuvem para fornecer recursos de forma segura e em grande escala. As empresas não precisam pensar em hospedagem, treinamento ou monitoramento de modelos e, em vez disso, podem se concentrar nos resultados que estão buscando.

O Amazon Bedrock aborda o simples fato de que é improvável que uma solução — ou um modelo — resolva todos os problemas comerciais que você enfrenta. Nem a contribuição dispendiosa de dados confidenciais para modelos públicos, como algumas organizações já aprenderam.

Embora a IA generativa não seja uma solução mágica nem “apenas um mecanismo de busca melhor”, ela está claramente no radar de todos. O potencial é enorme. Imagine empresas farmacêuticas acelerando o desenvolvimento de terapias genéticas, mutuários tendo experiências de conversação ricas com provedores de hipotecas que aprovam rapidamente seus empréstimos ou todos em todos os lugares ganhando oportunidades por meio da ampliação do acesso ao conhecimento contínuo e aos caminhos educacionais. Sou um programador amador quase competente e espero melhorar minhas habilidades com sugestões assertivas baseadas em IA generativa em tempo real.

Então, como CIO, CTO ou CDO, em que você deve pensar e como se preparar? Aqui estão alguns tópicos que acreditamos serem importantes.

Concentre-se em sua jornada na nuvem

Você se lembra daqueles programas de TV que você assistia quando criança, aqueles que avisavam: “Não tente isso em casa”? Eu daria uma variante desse aviso com IA generativa: “Não tente fazer isso sem a nuvem”. Você quer que suas equipes se concentrem na solução de problemas e na inovação, não no gerenciamento da complexidade e do custo subjacentes de habilitar a infraestrutura e as licenças. A nuvem é o habilitador da IA generativa, disponibilizando lagos de dados econômicos, GPUs e computação provisionados de forma sustentável, redes de alta velocidade e custos baseados no consumo. Juntamente com instâncias computacionais baseadas nos chipsets AWS Trainium e AWS Inferentia para otimizar o treinamento e as inferências de modelos, a nuvem pode fornecer custos mais baixos, melhor desempenho e uma pegada de carbono aprimorada em comparação com as soluções locais, se a última for mesmo uma alternativa realista.

Obtenha suas bases de dados agora mesmo

A casa mais ousada construída sobre fundações duvidosas não durará. O mesmo acontece no mundo do ML. Com a IA generativa, a qualidade supera a quantidade de dados de negócio disponíveis.

Embora seja comum falar sobre dívidas tecnológicas, precisamos reconhecer que muitas organizações acumularam inadvertidamente dívidas análogas com dados. Isso geralmente decorre da falta de qualidade dos dados, de fontes de dados fragmentadas ou isoladas, da falta de alfabetização em dados, de considerações iniciais inadequadas sobre como os dados devem ser integrados aos produtos e de uma cultura que fala sobre dados, mas não os usa no dia a dia. Agora é a hora de implementar esses fundamentos (muitos dos quais eu discuti em minha postagem anterior no blog, incluindo a importância dos líderes de dados em uma organização). Afinal, a maior parte do tempo gasto dando vida ao ML ainda está associada a atividades como organização e rotulagem de dados.

Pense além da tecnologia

O mundo da IA generativa é incrivelmente empolgante, mas a tecnologia raramente opera no vácuo. Enfrente a lei das consequências não intencionais. Comece considerando sua posição sobre ética, transparência, atribuição de dados, segurança e privacidade com a IA. Como você pode garantir que a tecnologia seja usada de forma precisa, justa e adequada? Existem recursos, assim como ótimas leituras, como o livro The Ethical Algorithm, de Michael Kearns, mas só elas são insuficientes. É uma ótima oportunidade de realmente fazer alguma coisa! Por exemplo, priorize a diversidade de habilidades e visões do mundo e garanta que aqueles envolvidos na criação e no uso de modelos representem a diversidade de seus clientes; isso ajuda a garantir a relevância e a identificação precoce de possíveis viéses.

Baseado nessas considerações; integre-as em suas estruturas de governança e conformidade e até mesmo em seus processos de seleção de fornecedores para selecionar parceiros que compartilhem os mesmos valores que você.

Melhore as habilidades de você e de seu pessoal

A IA evoca simultaneamente entusiasmo e preocupação. Ela abre um mundo de conhecimento, inovação e eficiência, mas deixa muitos se perguntando sobre as implicações para a segurança de seu emprego. O surgimento contínuo da IA como uma ferramenta profundamente impactante exige considerar quais habilidades podem ser menos necessárias no futuro e quais serão exigidas. Considere as habilidades técnicas necessárias e como inseri-las em sua organização. Programas como o Machine Learning University podem ajudar, mas é importante pensar maior. Habilidades como pensamento crítico e resolução de problemas se tornarão ainda mais vitais. Em última análise, queremos que as pessoas, auxiliadas pela IA, resolvam desafios reais de negócios e avaliem e questionem criticamente as inferências dos modelos de ML. Isso é particularmente importante com modelos generativos de IA que destilam dados em vez de fornecer respostas ponderadas. Abra espaço para praticar essas habilidades eliminando de forma incremental e consistente o trabalho de baixo valor, talvez até mesmo usando o ML!

O aprimoramento de habilidades vai além do desenvolvimento de habilidades individuais. De acordo com a pesquisa de Tom Davenport, 35% dos CDOs descobriram que a execução de dados e iniciativas baseadas em IA são poderosas ferramentas de mudança. A concentração em silos de dados na tentativa de agregar valor por si só deu lugar à execução de iniciativas interorganizacionais. Essa abordagem funcional ajuda a ampliar a defesa dos dados e o entusiasmo sobre o que pode ser possível.

Comece a considerar casos de uso

Adoro o ditado: “Apaixone-se pelo problema, não pela solução”. Isso nos lembra que, embora a tecnologia seja um facilitador brilhante, é apenas mais um conjunto de ferramentas que podemos aplicar aos problemas do mundo real.

Quais problemas que consomem tempo, difíceis ou impossíveis a IA generativa poderia ajudar a resolver? Onde você tem dados para ajudar nesse processo? Pense grande nas oportunidades, mas comece aos poucos, com problemas que causam irritações no dia a dia, o que chamamos de “cortes de papel”. Esses aborrecimentos podem ser automatizados, liberando tempo organizacional e melhorando a compreensão da IA?

Por exemplo, os desenvolvedores podem usar o Amazon Code Whisperer para entender o poder da IA generativa em auxiliar nas melhorias de produtividade e, ao mesmo tempo, fazer sugestões para usar APIs desconhecidas, programar com mais segurança e muito mais. Os benchmarks internos mostram uma notável melhoria de 57% na produtividade, ao mesmo tempo em que aumentam a taxa de sucesso na conclusão de tarefas. Que oportunidade fantástica e imediata de ser um herói da produtividade em sua organização!

Por último, fique animado, mas permaneça com os pés no chão. Estamos em um ponto de inflexão com LLMs. Às vezes parece que quanto mais aprendemos sobre IA, menos sabemos. Aborde a IA generativa com uma mente aberta e curiosa, mas evite exageros. Avalie criticamente o que você lê e não acredite que haverá um único melhor modelo a ser adotado. A melhor abordagem, e fico feliz em ver que a AWS a adotou com o Amazon Bedrock, é reconhecer que diferentes FMs atenderão a necessidades diferentes. Ele democratiza o acesso de todos os construtores, permitindo que FMs comerciais e de código aberto sejam adotadas. Aqueles que já têm experiência em IA saberão disso e reconhecerão que a nuvem da AWS, que fornece vários modelos, oferece uma abordagem melhor do que apostar em um único modelo.

Phil

 

Leitura adicional

Announcing New Tools for Building with Generative AI on AWS, Swami Sivasubramanian
A guide to making your AI vision a reality, Tom Godden
Activating ML in the Enterprise: An Interview with Michelle Lee, VP of Amazon Machine Learning Solutions Labs, Phil Le-Brun
Machine Learning University
Prioritising Business Value Creation from Data, Phil Le-Brun

 
Este artigo foi traduzido do Blog da AWS em Inglês.

Sobre o autor

Phil Le-Brun é estrategista empresarial e evangelista da Amazon Web Services (AWS). Nessa função, Phil trabalha com executivos corporativos para compartilhar experiências e estratégias sobre como a nuvem pode ajudá-los a aumentar a velocidade e a agilidade enquanto dedicam mais recursos aos clientes. Antes de ingressar na AWS, Phil ocupou vários cargos de liderança sênior em tecnologia na McDonald’s Corporation. Phil tem bacharelado em engenharia elétrica e eletrônica, mestrado em administração de empresas e mestrado em pensamento sistêmico na prática.
 

 

 

 

Tradutores

Pedro Rodrigues Senior Customer Solutions Manager na AWS focado no segmento de Serviços Financeiros Brasil.

 

 

 

 

Caio Monteiro Principal Customer Solutions Manager na AWS focado no segmento de Enterprise no Brasil.