Publicado en: Nov 28, 2018
Amazon Elastic Inference le permite asociar solo la cantidad correcta de aceleración impulsada por GPU a cualquier instancia de Amazon EC2 y Amazon SageMaker para reducir el costo de ejecución de inferencias de aprendizaje automático en hasta un 75 %. Amazon Elastic Inference admite modelos TensorFlow, Apache MXNet y ONNX con más marcos de trabajo próximamente.
Con Amazon Elastic Inference, ahora puede elegir el tipo de instancia que mejor se adapte a las necesidades generales de su CPU y memoria de su aplicación y, luego, configurar por separado la cantidad de aceleración de inferencia que necesita sin cambios de código. Esto le permite utilizar los recursos de manera eficiente y reducir el costo de ejecutar inferencias. Para obtener más información sobre Amazon Elastic Inference, consulte la página de detalles del servicio.