AMI de aprendizaje profundo de AWS

Cree rápidamente aplicaciones de aprendizaje profundo seguras y escalables en entornos preconfigurados

Escale el entrenamiento de machine learning (ML) distribuido para miles de instancias aceleradas y despliegue modelos de manera sencilla para producción.

Desarrolle en aceleradores, incluido el silicio personalizado de AWS e Intel Habana, con los controladores, los marcos, las bibliotecas y las herramientas más recientes.

Reduzca riesgos con imágenes de máquina personalizadas y estables revisadas de manera regular para abordar vulnerabilidades de seguridad.

Funcionamiento

Las AMI de aprendizaje profundo de AWS (DLAMI) brindan a los profesionales e investigadores de ML un conjunto curado y seguro de marcos, dependencias y herramientas para acelerar el aprendizaje profundo en la nube. Dado que fueron creadas para Amazon Linux y Ubuntu, las imágenes de máquina de Amazon (AMI) vienen preconfiguradas con TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod y Keras, lo que permite desplegar y ejecutar rápidamente cualquiera de estos marcos y herramientas a escala.

Diagrama que ilustra cómo se puede lanzar DLAMI mediante la consola de administración de AWS, la interfaz de la línea de comandos de AWS (CLI), AWS SDK, AWS API, o sus secuencias de comandos de aplicaciones o terminales locales

Casos de uso

Desarrollo de vehículos autónomos

Desarrolle modelos de ML avanzados en escala para desarrollar tecnología de vehículos autónomos (VA) de forma segura a través de la validación de modelos con millones de pruebas virtuales compatibles.

Procesamiento del lenguaje natural

Acelere la instalación y la configuración de las instancias de AWS, y acelere la experimentación y la evaluación con marcos y bibliotecas actualizados, incluyendo Hugging Face Transformers.

Análisis de datos sanitarios

Utilice las capacidades de estadísticas avanzadas, ML, y aprendizaje profundo para identificar tendencias y hacer predicciones a partir de datos sanitarios brutos y dispares.

Entrenamiento de modelos acelerado

DLAMI incluye la última aceleración de la GPU NVIDIA a través de controladores preconfigurados, la librería Intel Math Kernel Library (MKL), paquetes Python y la Anaconda Platform.

Historias de éxito de los clientes

Bazaarvoice

Cimpress crea negocios empresariales de personalización masiva de impresión centrados en el cliente a largo plazo e invierte en ellos. Con Cimpress, los clientes pueden causar de manera fácil y asequible una buena impresión, ya sea para sus clientes, su organización o sus seres queridos. Ya se trate de material promocional para amplificar la marca de una empresa o de un anuncio para celebrar un nacimiento, Cimpress combina la personalización individual que los clientes desean con el impacto tangible de los productos físicos.

“Cimpress utiliza las AMI de aprendizaje profundo de AWS para configurar e implementar rápidamente nuestros entornos de machine learning. Las DLAMI reducen nuestros gastos operativos y podemos lanzar nuestros productos al mercado más rápido si nos centramos en el trabajo principal del entrenamiento y la implementación de nuestros modelos de aprendizaje profundo para la visión artificial y la IA generativa”.

Ajay Joshi, Principal Software Engineer en Cimpress

Cómo comenzar

Conozca cómo puede acelerar el entrenamiento de modelos

Obtenga más información sobre cómo DLAMI puede agilizar su desarrollo y entrenamiento de modelos.

Explore las AMI

Seleccione el tipo de instancia y la AMI correctos para su proyecto.

Realice la capacitación práctica

Comience a crear con tutoriales de 10 minutos.


Descubra más acerca de AWS