AMI de Deep Learning de AWS

Cree rápidamente aplicaciones de aprendizaje profundo seguras y escalables en entornos preconfigurados

Escale la formación distribuida de machine learning (ML) a miles de instancias aceleradas y despliegue modelos para la inferencia en producción sin complicaciones.

Desarrolle en aceleradores, como AWS Trainium, AWS Inferentia y las GPU de NVIDIA, con los controladores, marcos, bibliotecas y herramientas más recientes.

Reduzca riesgos con imágenes de máquina personalizadas y estables revisadas de manera regular para abordar vulnerabilidades de seguridad.

Funcionamiento

Las AMI de aprendizaje profundo de AWS (DLAMI) brindan a los profesionales e investigadores de ML un conjunto curado y seguro de marcos, dependencias y herramientas para acelerar el aprendizaje profundo en Amazon EC2. Las imágenes de máquina de Amazon (AMI), creadas para Amazon Linux y Ubuntu, vienen preconfiguradas con TensorFlow, PyTorch, controladores y bibliotecas NVIDIA CUDA, Intel MKL, Elastic Fabric Adapter (EFA) y el complemento AWS OFI NCCL, lo que le permite desplegar y ejecutar rápidamente estos marcos de trabajo y herramientas a escala.

Diagrama que ilustra cómo se puede lanzar DLAMI mediante la consola de administración de AWS, la interfaz de la línea de comandos de AWS (CLI), AWS SDK, AWS API, o sus secuencias de comandos de aplicaciones o terminales locales

Casos de uso

Desarrollo de vehículos autónomos

Desarrolle modelos de ML avanzados en escala para desarrollar tecnología de vehículos autónomos (VA) de forma segura a través de la validación de modelos con millones de pruebas virtuales compatibles.

Procesamiento del lenguaje natural

Acelere la instalación y la configuración de las instancias de AWS, y acelere la experimentación y la evaluación con marcos y bibliotecas actualizados, incluyendo Hugging Face Transformers.

Análisis de datos sanitarios

Utilice las capacidades de estadísticas avanzadas, ML, y aprendizaje profundo para identificar tendencias y hacer predicciones a partir de datos sanitarios brutos y dispares.

Entrenamiento de modelos acelerado

DLAMI incluye la última aceleración de la GPU NVIDIA a través de controladores preconfigurados, la librería Intel Math Kernel Library (MKL), paquetes Python y la Anaconda Platform.

Historias de éxito de los clientes

Bazaarvoice

Cimpress crea negocios empresariales de personalización masiva de impresión centrados en el cliente a largo plazo e invierte en ellos. Con Cimpress, los clientes pueden causar de manera fácil y asequible una buena impresión, ya sea para sus clientes, su organización o sus seres queridos. Ya se trate de material promocional para amplificar la marca de una empresa o de un anuncio para celebrar un nacimiento, Cimpress combina la personalización individual que los clientes desean con el impacto tangible de los productos físicos.

“Cimpress utiliza las AMI de aprendizaje profundo de AWS para configurar e implementar rápidamente nuestros entornos de machine learning. Las DLAMI reducen nuestros gastos operativos y podemos lanzar nuestros productos al mercado más rápido si nos centramos en el trabajo principal del entrenamiento y la implementación de nuestros modelos de aprendizaje profundo para la visión artificial y la IA generativa”.

Ajay Joshi, Principal Software Engineer en Cimpress

Bazaarvoice

Flip AI es la primera plataforma de observabilidad nativa de GenAI que no depende de los datos ni de la plataforma, comprende todas las modalidades de observabilidad, incluidas las métricas, los eventos, los registros y los rastreos, y genera análisis predictivos y de causa raíz de incidentes en segundos.

“En Flip AI, hemos formado a nuestros propios LLM para DevOps a fin de depurar los incidentes de producción y ayudar a las empresas a alcanzar el nivel más alto de experiencia del cliente. Esta formación requiere una configuración de alto rendimiento que se pueda personalizar fácilmente. Con DLAMI, no necesitamos librar batallas con controladores CUDA u optimizaciones relacionadas con Pytorch. Simplemente funciona. La mejora de los porcentajes de uso de la GPU significa que podemos entrenar nuestros modelos de manera más eficiente y reducir decenas de milisegundos en la inferencia”.

Sunil Mallya, CTO en Flip AI

Cómo comenzar

Conozca cómo puede acelerar el entrenamiento de modelos

Obtenga más información sobre cómo DLAMI puede agilizar su desarrollo y entrenamiento de modelos.

Explore las AMI

Seleccione el tipo de instancia y la AMI correctos para su proyecto.

Realice la capacitación práctica

Comience a crear con tutoriales de 10 minutos.


Descubra más acerca de AWS