Publicado en: Oct 25, 2019

Amazon Elastic Inference presenta los nuevos aceleradores de Elastic Inference llamados EIA2, con hasta 8 GB de memoria de GPU. Ahora, los clientes pueden usar Amazon Elastic Inference en modelos más grandes o modelos que tienen tamaños de entrada más grandes para el procesamiento de imágenes, la detección de objetos, la clasificación de imágenes, el procesamiento de voz automatizado y el procesamiento del lenguaje natural, y otros casos de uso de aprendizaje profundo.

Amazon Elastic Inference le permite adjuntar la cantidad justa de aceleración impulsada por GPU a cualquier instancia de Amazon EC2, instancia de Amazon SageMaker o tareas de Amazon ECS para reducir el costo de ejecución de la inferencia de aprendizaje profundo hasta un 75 %. Con Amazon Elastic Inference, puede elegir el tipo de instancia que mejor se adapte a las necesidades generales del CPU y la memoria de su aplicación, y configurar por separado la cantidad de aceleración de inferencia que necesita sin cambios de código. Hasta ahora, podía aprovisionar un máximo de 4 GB de memoria de GPU en Elastic Inference. Ahora, puede elegir entre 3 nuevos tipos de acelerador, que tienen 2 GB, 4 GB y 8 GB de memoria GPU respectivamente. Próximamente, Amazon Elastic Inference admitirá modelos TensorFlow, Apache MXNet y ONNX con más marcos de trabajo.

Los nuevos aceleradores de Elastic Inference están disponibles en EE. UU. Este (Virginia), EE. UU. Oeste (Oregón), EE. UU. Este (Ohio), Asia Pacífico (Seúl) y UE (Irlanda). Próximamente se incorporarán otras regiones.

Para obtener más información, consulte la página del producto y la documentación de Amazon Elastic Inference.