AMI de aprendizaje profundo de AWS

Cree rápidamente aplicaciones de aprendizaje profundo seguras y escalables en entornos preconfigurados

Escale el entrenamiento del machine learning (ML) distribuido para miles de instancias aceleradas, e implemente modelos de manera sencilla para producción.

Desarrolle en aceleradores, incluido el silicio personalizado de AWS e Intel Habana, con los controladores, marcos, bibliotecas y herramientas más recientes.

Reduzca riesgos con imágenes de máquina personalizadas y estables revisadas de manera regular para abordar vulnerabilidades de seguridad.

Funcionamiento

Las AMI de aprendizaje profundo de AWS (DLAMI) brindan a los profesionales e investigadores de ML un conjunto curado y seguro de marcos, dependencias y herramientas para acelerar el aprendizaje profundo en la nube. Dado que fueron creadas para Amazon Linux y Ubuntu, las imágenes de máquina de Amazon (AMI) vienen preconfiguradas con TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod y Keras, lo que permite desplegar y ejecutar rápidamente cualquiera de estos marcos y herramientas a escala.

Diagrama que ilustra cómo se puede lanzar DLAMI mediante la consola de administración de AWS, la interfaz de la línea de comandos de AWS (CLI), AWS SDK, AWS API, o sus secuencias de comandos de aplicaciones o terminales locales

Casos de uso

Desarrollo de vehículos autónomos

Desarrolle modelos de ML avanzados en escala para desarrollar tecnología de vehículos autónomos (VA) de forma segura a través de la validación de modelos con millones de pruebas virtuales compatibles.

Procesamiento del lenguaje natural

Acelere la instalación y la configuración de las instancias de AWS, y acelere la experimentación y la evaluación con marcos y bibliotecas actualizados, incluyendo Hugging Face Transformers.

Análisis de datos sanitarios

Utilice las capacidades de estadísticas avanzadas, ML, y aprendizaje profundo para identificar tendencias y hacer predicciones a partir de datos sanitarios brutos y dispares.

Entrenamiento de modelos acelerado

DLAMI incluye la última aceleración de la GPU NVIDIA a través de controladores preconfigurados, la librería Intel Math Kernel Library (MKL), paquetes Python y la Anaconda Platform.

Cómo comenzar

Conozca cómo puede acelerar el entrenamiento de modelos

Obtenga más información sobre cómo DLAMI puede agilizar su desarrollo y entrenamiento de modelos.

Explore las AMI

Seleccione el tipo de instancia y la AMI correctos para su proyecto.

Realice la capacitación práctica

Comience a crear con tutoriales de 10 minutos.


Descubra más acerca de AWS