Publicado en: Sep 17, 2019

Amazon ECS ahora admite la conexión de Amazon Elastic Inference a sus contenedores para que la ejecución de cargas de trabajo de inferencia de aprendizaje profundo sean más rentable. Amazon Elastic Inference le permite asociar solo la cantidad correcta de aceleración impulsada por GPU a cualquier instancia de Amazon EC2 y Amazon SageMaker para reducir el costo de ejecución de inferencias de aprendizaje automático en hasta un 75 %.

Con el soporte de Amazon Elastic Inference en ECS, ahora puede elegir el tipo de instancia que mejor se adapte a las necesidades generales de su CPU y memoria de su aplicación y, luego, configurar por separado la cantidad de aceleración de inferencia que necesita sin cambios de código. Esto le permite utilizar los recursos de manera eficiente y reducir el costo de ejecutar inferencias. Esta característica es compatible cuando se usan contenedores y tareas de Linux que usan el tipo de lanzamiento EC2. Amazon Elastic Inference admite modelos TensorFlow, Apache MXNet y ONNX con más marcos de trabajo próximamente.

El soporte de Amazon Elastic Inference en ECS está disponible en todas las regiones donde ECS y Elastic Inference están disponibles. Para comenzar, consulte la documentación