Aspectos generales

P: ¿Qué es Amazon Elastic Inference?

R: Amazon Elastic Inference (Amazon EI) es un servicio de computación acelerado que le permite asociar la cantidad correcta de aceleración de inferencia basada en GPU a cualquier tipo de instancia de Amazon EC2 o Amazon SageMaker. Esto significa que ahora puede elegir el tipo de instancia que mejor se adapte a las necesidades generales de informática, memoria y almacenamiento de su aplicación, y luego configurar por separado la cantidad de aceleración de inferencia que necesita.

P: ¿Qué son los aceleradores de inferencia de Amazon Elastic Inference?

R: Los aceleradores de inferencia de Amazon Elastic Inference son dispositivos de hardware basados en GPU que están diseñados para funcionar con cualquier tipo de instancia EC2 a fin de acelerar las cargas de trabajo de inferencia de aprendizaje profundo a un bajo costo. Cuando lanza una instancia con Amazon Elastic Inference, se proporciona y asocia un acelerador a la instancia a través de la red. Las herramientas y los marcos de aprendizaje profundo, como TensorFlow Serving y Apache MXNet, que están habilitados para Amazon Elastic Inference, pueden detectar y descargar automáticamente procesamiento informático modelo al acelerador asociado.

Configuración

P: ¿Cómo aprovisiono aceleradores de Amazon Elastic Inference?

R: Puede configurar puntos de enlace de Amazon SageMaker o instancias de Amazon EC2 con los aceleradores de Amazon Elastic Inference utilizando la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o AWS SDK. Hay dos requisitos para el lanzamiento de instancias EC2 con los aceleradores. Primero, deberá aprovisionar un punto de enlace de la VPC a AWS PrivateLink para las subredes cuando planea lanzar aceleradores. En segundo lugar, cuando lanza una instancia, debe proporcionar un rol de instancia con una política que permita a los usuarios acceder a la instancia para conectarse con los aceleradores. Cuando configura una instancia para lanzarla con Amazon EI, se proporciona un acelerador en la misma zona de disponibilidad detrás del punto de enlace de la VPC.

P: ¿Qué formatos modelo admite Amazon Elastic Inference?

R: Amazon Elastic Inference admite modelos entrenados usando modelos TensorFlow, Apache MXNet y ONNX.

P: ¿Puedo implementar modelos en Amazon Elastic Inference usando marcos TensorFlow o Apache MXNet?

R: Sí, puede usar bibliotecas de TensorFlow Serving y Apache MXNet mejoradas con AWS para implementar modelos y hacer llamadas de inferencia.

P: ¿Cómo obtengo acceso a los marcos optimizados de AWS?

R: Las AMI de aprendizaje profundo de AWS incluyen las últimas versiones de TensorFlow Serving y Apache MXNet que están optimizadas para el uso con los aceleradores de Amazon Elastic Inference. También puede obtener las bibliotecas por medio de Amazon S3 para crear sus propias AMI o imágenes de contenedores. Consulte nuestra documentación para obtener más información.

P: ¿Puedo usar CUDA con los aceleradores de Amazon Elastic Inference?

R: No. Solo puede usar las bibliotecas de TensorFlow Serving o Apache MXNet mejoradas con AWS como una interfaz para los aceleradores de Amazon Elastic Inference.

Precios y facturación

P: ¿Cómo se cobra el uso de Amazon Elastic Inference?

R: Con Amazon Elastic Inference, paga solo por las horas de acelerador que usa. Consulte la página de precios para obtener más detalles.

P: ¿Incurriré en cargos por los puntos de enlace de la VPC a AWS PrivateLink para el servicio de Amazon Elastic Inference?

No. No se aplican cargos adicionales por los puntos de enlace de la VPC al servicio de Amazon Elastic Inference, siempre que tenga, al menos, una instancia configurada con un acelerador que se esté ejecutando en una zona de disponibilidad donde se aprovisiona un punto de enlace de la VPC.

Product-Page_Standard-Icons_01_Product-Features_SqInk
Más información acerca de los precios

Consulte la página de precios de Amazon Elastic Inference para obtener información detallada.

Más información 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Inscríbase para obtener una cuenta gratuita

Obtenga acceso automáticamente a la capa gratuita de AWS. 

Inscribirse 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Comience a crear en la consola

Comience a usar Amazon Elastic Inference en Amazon SageMaker o Amazon EC2.

Iniciar sesión