Blog de Amazon Web Services (AWS)

Cómo pueden prepararse los líderes tecnológicos para la IA generativa

Por Phil Le-Brun
Gen AITendemos a sobrestimar el efecto de una tecnología a corto plazo y a subestimar el efecto a largo plazo.—Roy Amara, Amara’s law

Estoy fascinado por los puntos de inflexión tecnológicos en la historia que han encendido la imaginación del público: la primera transmisión de televisión, el vuelo espacial tripulado o la videoconferencia. Cada uno de estos eventos hizo tangible una tecnología o concepto previamente esotérico. Como implica Amara en su “ley”, estos eventos están precedidos por falsos comienzos y expectativas infladas. Cuando (si es que) se alcanza un punto de inflexión, suele ir acompañado de décadas de trabajo invisible descrito por la curva S de la innovación. Piense en las promesas pasadas de que los mundos virtuales se volverían comunes. Si bien las expectativas han superado la realidad, las organizaciones y los líderes que curiosamente se han inclinado para aprender, apoyándose en problemas de negocio del mundo real, como la demanda de los clientes de experiencias más inmersivas, están mejor preparados para cuando los mundos virtuales se generalicen.

El ejemplo actual más evidente de una tecnología emergente de este tipo es la IA generativa. Para el público, la IA generativa parece haber aparecido de la nada. Pero si profundiza, notará que las ideas que subyacen a las soluciones de IA generativa se remontan a inventos como el perceptrón Mark I en 1958 y las redes neuronales a fines del siglo XX.

Los avances en las técnicas estadísticas, el gran crecimiento de los datos disponibles públicamente y el poder de la nube han sido fundamentales para hacer posible la IA generativa. Es probable que te hayas encontrado con dos términos asociados con la IA generativa. Los modelos básicos (FM) son modelos de aprendizaje automático (ML) entrenados en cantidades masivas de datos estructurados y no estructurados, que se pueden ajustar o adaptar para tareas más específicas. Los modelos de lenguaje grande (LLM) son un subconjunto de FM enfocados en comprender y generar texto similar al humano. Estos modelos son ideales para necesidades como la traducción, responder preguntas, resumir información y crear o identificar imágenes.

AWS and Generative AI

AWS ha estado invirtiendo y utilizando FM durante varios años en áreas como la búsqueda en Amazon.com y la entrega de experiencias conversacionales con Alexa. Probablemente haya visto los anuncios de AWS sobre IA generativa, por lo que no los repetiré aquí. Con todo el bombo y el marketing que pueden rodear a las nuevas tecnologías, tener una clara comprensión ejecutiva del «qué» y el «por qué» es fundamental.

Desde el lanzamiento de Amazon SageMaker en 2017, ha habido un flujo continuo de servicios de ML e IA que amplían el alcance de estas herramientas a tecnólogos y no tecnólogos por igual. La misión de AWS ha sido expandir el acceso, dadas las profundas implicaciones de estas tecnologías. Los anuncios recientes continúan con esta misión con un enfoque más abierto para brindar las capacidades que necesitan las organizaciones. Por ejemplo, el enfoque con Amazon Bedrock brindará un amplio acceso a modelos previamente entrenados que se pueden personalizar con sus propios datos, permitirá que los datos se mantengan privados y aprovechará el poder de la nube para brindar capacidades de forma segura y a escala. Las empresas no tienen que pensar en alojamiento de modelos, capacitación o monitoreo y, en su lugar, pueden enfocarse en los resultados que buscan.

Amazon Bedrock aborda el simple hecho de que es poco probable que una solución, o un modelo, resuelva todos los problemas comerciales que enfrenta. Tampoco lo hará la costosa contribución de datos confidenciales a modelos públicos, como ya han aprendido algunas organizaciones.

Si bien la IA generativa no es una panacea ni «simplemente un mejor motor de búsqueda», claramente ahora está en el radar de todos. El potencial es enorme. Imagine a las compañías farmacéuticas acelerando el diseño de terapias génicas, prestatarios teniendo experiencias enriquesedoras de conversación con proveedores de hipotecas que aprueban rápidamente sus préstamos, o todos en todas partes obteniendo oportunidades a través de la ampliación del acceso al conocimiento continuo y las vías educativas. Soy un desarrollador aficionado casi competente y espero mejorar mis habilidades con sugerencias activas de sugerencias generativas en tiempo real impulsadas por IA.

Entonces, como director de información, director de tecnología o director de datos, ¿en qué debería estar pensando y cómo puede prepararse? Aquí hay algunos temas que creemos que son importantes.

Concéntrese en su viaje a la nube

¿Recuerdas esos programas de televisión que veías de niño, esos que advertían: “No intentes esto en casa”? Daría una variante de esta advertencia con IA generativa: «No intentes esto sin la nube». Usted desea que sus equipos se centren en la resolución de problemas y la innovación, no en la gestión de la complejidad y el costo subyacentes de habilitar la infraestructura y las licencias. La nube es el habilitador de la IA generativa, ya que pone a disposición lagos de datos rentables, GPU y cómputo aprovisionados de manera sostenible, redes de alta velocidad y costos basados en el consumo. Junto con instancias de cómputo con tecnología de conjuntos de chips AWS Trainium y AWS Inferentia para optimizar el entrenamiento y las inferencias de modelos, la nube puede proporcionar costos más bajos, mejor rendimiento y una huella de carbono mejorada en comparación con las soluciones locales, si esta última es incluso una alternativa realista.

Obtenga sus bases de datos correctas, ahora

La casa más audaz construida sobre cimientos dudosos no durará. Lo mismo es cierto en el mundo de ML. Con la IA generativa, la calidad supera la cantidad de datos comerciales disponibles. Si bien es común hablar sobre la deuda tecnológica, debemos reconocer que muchas organizaciones han acumulado deudas análogas sin darse cuenta con los datos. Esto generalmente se debe a la falta de calidad de los datos, fuentes de datos fragmentadas o en silos, falta de alfabetización de datos, consideraciones iniciales inadecuadas sobre cómo se deben integrar los datos en los productos y una cultura que habla sobre los datos pero no los usa día a día. Ahora es el momento de implementar estos fundamentos (muchos de los cuales he discutido en mi publicación de blog anterior, incluida la importancia de los líderes de datos en una organización). Después de todo, la mayor parte del tiempo dedicado a dar vida a ML todavía está asociado con actividades como la manipulación y el etiquetado de los datos.

Piense más allá de la tecnología

El mundo de la IA generativa es increíblemente emocionante, pero la tecnología rara vez opera en el vacío. Enfréntate a la ley de las consecuencias no deseadas. Comience por considerar su postura sobre ética, transparencia, atribución de datos, seguridad y privacidad con IA. ¿Cómo puede asegurarse de que la tecnología se utilice de manera precisa, justa y apropiada? Existen recursos, al igual que grandes lecturas como el libro de Michael Kearns The Ethical Algorithm, pero estos solos son insuficientes. ¡Es una gran oportunidad para hacer algo! Por ejemplo, priorice la diversidad de habilidades y visiones del mundo y asegúrese de que quienes se dedican a crear y utilizar modelos representen la diversidad de sus clientes; esto ayuda a garantizar la relevancia y la identificación temprana de posibles sesgos. Capacítese sobre estas consideraciones; inclúyalos en sus marcos de gobierno y cumplimiento e incluso en sus procesos de selección de proveedores para seleccionar socios que compartan los mismos valores que usted.

Mejore sus habilidades y las de su gente

AI evoca simultáneamente entusiasmo y preocupación. Abre un mundo de conocimiento, innovación y eficiencia, pero deja a muchos preguntándose acerca de las implicaciones para su seguridad laboral. El surgimiento continuo de la IA como una herramienta profundamente impactante requiere considerar qué habilidades podrían ser menos necesarias en el futuro y cuáles tendrán demanda. Considere las habilidades técnicas requeridas y cómo infundirlas en su organización. Los programas como Machine Learning University pueden ayudar, pero es importante pensar en grande. Habilidades como el pensamiento crítico y la resolución de problemas serán aún más vitales. En última instancia, queremos que las personas, asistidas por IA, resuelvan desafíos comerciales reales y evalúen y cuestionen de manera crítica las inferencias de los modelos de ML. Esto es particularmente importante con los modelos de IA generativos que destilan datos en lugar de proporcionar respuestas consideradas. Genere el espacio para practicar estas habilidades eliminando de manera gradual y constante el trabajo de bajo valor, ¡quizás incluso usando ML!

La mejora de sus habilidades va más allá del desarrollo de las competencias de los individuos. Según la investigación de Tom Davenport, el 35 por ciento de los directores de datos han descubierto que la ejecución de datos y las iniciativas habilitadas para IA son herramientas de cambio poderosas. Refugiarse en silos de datos en un intento de ofrecer valor por sí solo ha dado paso a la ejecución de iniciativas entre organizaciones. Este enfoque funcional ayuda a ampliar la defensa de los datos y el entusiasmo por lo que podría ser posible.

Comience a considerar casos de uso

Me encanta el dicho: “Enamórate del problema, no de la solución”. Nos recuerda que, si bien la tecnología es un habilitador brillante, es solo un conjunto más de herramientas que podemos aplicar a problemas del mundo real.

¿Qué problemas difíciles, imposibles o que consumen mucho tiempo podría ayudar a resolver la IA generativa? ¿Dónde tienes datos para ayudar en este proceso? Piense en grande acerca de las oportunidades, pero comience de a poco con los problemas que causan irritaciones diarias, lo que llamamos «cortes de papel». ¿Se pueden automatizar estas molestias, liberando tiempo organizacional y mejorando la comprensión de la IA?

Por ejemplo, los desarrolladores pueden usar Amazon Code Whisperer para comprender el poder de la IA generativa para ayudar a mejorar la productividad mientras hacen sugerencias para usar API desconocidas, codificar de manera más segura y más. Los puntos de referencia internos muestran una notable mejora del 57 por ciento en la productividad al tiempo que aumentan la tasa de éxito de completar tareas. ¡Qué fantástica oportunidad inmediata de ser un héroe de la productividad en su organización!

Por último, esté emocionado pero manténgase conectado a tierra. Estamos en un punto de inflexión con los LLMs. A veces parece que cuanto más aprendemos sobre la IA, menos sabemos. Acérquese a la IA generativa con una mente abierta y curiosa, pero evite las exageraciones. Evalúe críticamente lo que lee y no crea que habrá un mejor modelo singular para adoptar. El mejor enfoque, y me alegra ver que AWS lo ha adoptado con Amazon Bedrock, es reconocer que diferentes FM atenderán diferentes necesidades. Democratiza el acceso para todos los creadores (builders), lo que permite adoptar FMs comerciales y de código abierto. Los que ya tienen experiencia en IA lo sabrán y reconocerán que la nube de AWS, que proporciona múltiples modelos, ofrece un mejor enfoque que apostar por un solo modelo.

Phil

 

Otras lecturas

Announcing New Tools for Building with Generative AI on AWS, Swami Sivasubramanian
A guide to making your AI vision a reality, Tom Godden
Activating ML in the Enterprise: An Interview with Michelle Lee, VP of Amazon Machine Learning Solutions Labs, Phil Le-Brun
Machine Learning University
Prioritising Business Value Creation from Data, Phil Le-Brun

 

Este artículo fue traducido del Blog de AWS en Inglés.

 


Acerca de lo autor

Phil Le-Brun es Enterprise Strategist y Evangelist en Amazon Web Services (AWS). En este rol, Phil trabaja con ejecutivos empresariales para compartir experiencias y estrategias sobre cómo la nube puede ayudarlos a aumentar la velocidad y la agilidad mientras dedican más recursos a sus clientes. Antes de unirse a AWS, Phil ocupó varios puestos de liderazgo senior en tecnología en McDonald’s Corporation. Phil tiene una licenciatura en ingeniería electrónica y eléctrica, una maestría en administración de empresas y una maestría en pensamiento sistémico en la práctica.
 

 

 

 

Traductores

Georgette Martínez es FSI Customer Solutions Manager en AWS de clientes globales de la industria de servicios financieros en México. Tiene más de 8 años de experiencia en el sector Tecnológico liderando programas de adopción de la nube. Adicionalmente, experiencia en el sector de Telecomunicaciones e investigación.

 

 

 

 

Guillermo Fernandez es Senior Customer Solutions Manager, con más de 18 años de experiencia enfocado en el desarrollo y modernización de empresas de telecomunicaciones en LATAM