Instancias G5 de Amazon EC2

Instancias basadas en GPU de alto rendimiento para aplicaciones con uso intensivo de gráficos e inferencia de machine learning

Las instancias de G5 de Amazon EC2 son la última generación de instancias basadas en la GPU de NVIDIA que se pueden usar en una amplia gama de casos de uso de machine learning y de uso intensivo de gráficos. Ofrecen un rendimiento hasta tres veces mayor para aplicaciones con uso intensivo de gráficos e inferencia de machine learning y un rendimiento hasta 3,3 veces mayor para la formación de machine learning, en comparación con las instancias G4dn de Amazon EC2.

Además, los clientes pueden utilizar las instancias G5 en aplicaciones con uso intensivo de gráficos, como las estaciones de trabajo remotas, la renderización de vídeos y los videojuegos, ya que generan gráficos de alta fidelidad en tiempo real. Gracias a las instancias G5, los clientes de machine learning obtienen una infraestructura rentable y de alto rendimiento para entrenar e implementar modelos más grandes y sofisticados para el procesamiento de lenguaje natural, la visión artificial y los casos de uso del motor de recomendación.

Las instancias G5 cuentan con hasta ocho GPU de NVIDIA A10G Tensor Core y procesadores AMD EPYC de segunda generación. También admiten hasta 192 CPU virtuales, 100 Gbps de ancho de banda de red y 7,6 TB de almacenamiento local SSD NVMe.

Nuevas instancias G5 de Amazon EC2 (1:20)

Beneficios

Alto rendimiento para aplicaciones con uso intensivo de gráficos

Las instancias G5 ofrecen hasta el triple de rendimiento en los gráficos y hasta un 40 % de ahorro que las instancias G4dn. Tienen más núcleos de trazado de rayos que cualquier otra instancia de EC2 basada en GPU, cuentan con 24 GB de memoria por GPU y son compatibles con la tecnología NVIDIA RTX. Esto hace que sean ideales para realizar renderizaciones de escenas realistas con mayor rapidez, para ejecutar potentes estaciones de trabajo virtuales y para admitir con mayor fidelidad aplicaciones con gran cantidad de gráficos.

Alto rendimiento y rentabilidad para la inferencia de ML

En comparación con las instancias G4dn, las instancias G5 ofrecen hasta el triple de rendimiento y hasta un 40 % más de ahorro en la inferencia de machine learning. Son una solución rentable y de alto rendimiento para aquellos clientes que quieren usar bibliotecas de NVIDIA como TensorRT, CUDA y cuDNN para ejecutar sus aplicaciones de ML.

Formación rentable para modelos de ML moderadamente complejos

Las instancias G5 suponen hasta un 15 % menos en costos de formación que las instancias de P3 de Amazon EC2. Asimismo, también ofrecen un rendimiento hasta 3,3 veces mayor en la formación de ML, en comparación con las instancias G4dn. Esto las convierte en una rentable solución para entrenar modelos de machine learning moderadamente complejos y de un solo nodo para realizar el procesamiento del lenguaje natural, la visión artificial y los casos de uso del motor de recomendación.

Eficiencia de los recursos maximizada

Las instancias G5 se basan en sistema Nitro de AWS, una combinación de hardware dedicado e hipervisor ligero que ofrece prácticamente todos los recursos informáticos y de memoria de hardware del host a sus instancias para ofrecer mejores rendimiento y seguridad generales. Con las instancias G5, el sistema Nitro aprovisiona las GPU en un modo de transferencia, lo que proporciona un rendimiento comparable al de un equipo sin sistema operativo.

Características

GPU de AWS NVIDIA A10G Tensor Core

Las instancias G5 son las primeras en la nube que cuentan con GPU de NVIDIA A10G Tensor Core, ya que proporciona un alto rendimiento para aplicaciones de machine learning con un uso intensivo de gráficos. Cada instancia cuenta con hasta 8 GPU de A10G Tensor Core y, a su vez, tienen 80 núcleos de trazado de rayos y 24 GB de memoria por GPU. También ofrecen 320 núcleos de NVIDIA Tensor Core de tercera generación con hasta 250 TOPS, lo que proporciona un alto rendimiento para las cargas de trabajo de ML.

Controladores NVIDIA

Las instancias G5 ofrecen controladores de NVIDIA RTX Enterprise y de juegos a los clientes sin costo adicional. Los controladores NVIDIA RTX Enterprise se pueden usar para proporcionar estaciones de trabajo virtuales de alta calidad a una amplia variedad de cargas de trabajo con uso intensivo de gráficos. El controlador de juegos NVIDIA proporciona gráficos incomparables y soporte informático para el desarrollo de juegos. Las instancias G5 también son compatibles con las bibliotecas CUDA, cuDNN, NVENC, TensorRT, cuBLAS, OpenCL, DirectX 11/12, Vulkan 1.1 y OpenGL 4.5.

Redes y almacenamiento de alto rendimiento

Las instancias G5 ofrecen hasta 100 Gbps de rendimiento de red, lo que les permite gestionar las necesidades de baja latencia de la inferencia de machine learning y las aplicaciones con un uso intensivo de gráficos. Con los 24 GB de memoria por GPU y la compatibilidad para hasta 7,6 TB de almacenamiento NVMe SSD local, puede almacenar de forma local grandes modelos y conjuntos de datos para la inferencia y el entrenamiento de machine learning de alto rendimiento. Las instancias G5 también pueden almacenar localmente archivos de vídeo grandes, lo que mejora el rendimiento de los gráficos y la capacidad de generar archivos de vídeo más grandes y complejos.

Creación en el sistema Nitro de AWS

Las instancias G5 se incorporan al sistema Nitro de AWS, que es una amplia colección de bloques funcionales que descargan muchas de las funciones de virtualización tradicionales a los hardware y software dedicados para ofrecer opciones de alto rendimiento, alta disponibilidad y alta seguridad, al tiempo que reduce la sobrecarga de la virtualización.

Detalles del producto

  Tamaño de la instancia GPU Memoria GPU (GiB) vCPUs Memoria (GiB) Almacenamiento (GB) Banda ancha de red (Gbps) Ancho de banda de EBS (Gbps) Precio de la instancia bajo demanda por hora* ISP de 1 año efectivo por hora (Linux) ISP de 3 años efectivo por hora (Linux)
MV con una sola GPU g5.xlarge 1 24 4 16 1x250 Hasta 10 Hasta 3,5 1,006 USD 0,604 USD 0,402 USD
g5.2xlarge 1 24 8 32 1x450 Hasta 10 Hasta 3,5 1,212 USD 0,727 USD 0,485 USD
g5.4xlarge 1 24 16 64 1x600 Hasta 25 8 1,624 USD 0,974 USD 0,650 USD
g5.8xlarge 1 24 32 128 1x900 25 16 2,448 USD 1,469 USD 0,979 USD
g5.16xlarge 1 24 64 256 1x1900 25 16 4,096 USD 2,458 USD 1,638 USD
                       
MV con varias GPU g5.12xlarge 4 96 48 192 1x3800 40 16 5,672 USD 3,403 USD 2,269 USD
g5.24xlarge 4 96 96 384 1x3800 50 19 8,144 USD 4,886 USD 3,258 USD
g5.48xlarge 8 192 192 768 2x3800 100 19 16,288 USD 9,773 USD 6,515 USD

* Los precios que se muestran son para la región del Este de EE. UU. (Norte de Virginia) de AWS. Los precios de las instancias reservadas para 1 y 3 años son para las opciones de pago “parcial por adelantado”, y “sin pago por adelantado” para instancias sin la opción de pago parcial.

Testimonios de clientes

Logotipo de Athenascope

Athenascope usa métodos de desarrollo vanguardistas en la visión e inteligencia artificiales para analizar el juego y mostrar automáticamente los momentos más atractivos de este para crear vídeos destacados para jugadores y creadores de contenido.

"Para crear una experiencia de vídeo fluida, el análisis de vídeo de baja latencia que usa nuestros modelos de CV es un objetivo fundamental para nosotros. En comparación con las implementaciones que se realizaban antes con instancias G4dn, las instancias G5 de Amazon EC2 ofrecen una mejora del 30 % en cuanto al precio y el rendimiento".

Chris Kirmse, CEO y fundador de Athenascope

Netflix

Netflix es uno de los servicios de streaming líder en el mundo, ya que cuenta con más de 214 millones de miembros en más de 190 países que disfrutan de series, documentales y películas en una amplia variedad de géneros e idiomas. 

"Construir un estudio en la nube para crear animaciones, efectos visuales y contenido de acción en vivo para nuestros espectadores es una prioridad para nosotros. Queremos que nuestros artistas tengan la opción de acceder a sus estaciones de trabajo cuando y donde quieran. Por ello, buscamos constantemente formas de ayudarles a innovar ofreciéndoles acceso a estaciones de trabajo más potentes".

Stephen Kowalski, Director de ingeniería de infraestructura de producción digital de Netflix

"Gracias a las nuevas instancias G5 de Amazon EC2, podemos aprovisionar estaciones de trabajo con gráficos de gama alta que ofrecen hasta tres veces más rendimiento en comparación con las estaciones de trabajo con instancias G4dn de EC2. Gracias a las instancias G5, los creadores de contenido tienen la libertad de crear contenidos más complejos y realistas para nuestros espectadores”.

Ben Tucker, Director técnico de ingeniería de sistemas de producción de animación en Netflix

Varjo
"Para las aplicaciones VR/XR de alta gama, las instancias G5 de Amazon EC2 suponen un cambio realmente importante. En comparación con las instancias G4dn que usábamos antes, ahora podemos ejecutar aplicaciones profesionales para la resolución de la firma mediante el iris de Varjo que usen el triple de la velocidad de fotogramas; gracias a ello, podemos ofrecer a nuestros clientes una experiencia de calidad inmejorable cuando realizan operaciones de streaming desde el servidor”. 

Urho Konttori, fundador y director de tecnología, Varjo

Lea el caso práctico »

Introducción

Las AWS Deep Learning AMIs (DLAMI) y los AWS Deep Learning Containers (DLC)

Las AWS Deep Learning AMIs (DLAMI) y los AWS Deep Learning Containers (DLC) brindan a científicos de datos, profesionales de ML e investigadores imágenes de máquina y contenedores preinstaladas con marcos de aprendizaje profundo que hacen que comenzar sea fácil, puesto que omiten el complicado proceso que supone crear y optimizar sus entornos de software desde cero. El SDK de SynapseAI para los aceleradores de Gaudi está integrado en las AWS DL AMI y los DLC, lo cual le permite comenzar a utilizar las instancias DL1 rápidamente.

Amazon Elastic Kubernetes Service (EKS) o Elastic Container Service (ECS)

Los clientes que prefieren administrar sus propias cargas de trabajo en contenedores mediante servicios de orquestación de contenedores pueden implementar instancias DL1 con Amazon EKS o ECS.

Recursos adicionales

Demostración: Formación de modelos de aprendizaje profundo con instancias de DL1 de Amazon EC2 (2:03)
Presentamos las instancias DL1 de Amazon EC2 (3:41)
Comparación del costo de formación de DL1 de Amazon EC2 (0:50)
Comience a utilizar de manera sencilla las instancias DL1 de Amazon EC2 (0:49)

Documentación de Habana® Gaudi® v. 0.15

Visite la documentación »

Foro de desarrolladores de Habana®

Visite el foro »

Repositorio de GitHub de Habana®

Visite GitHub »

Recursos

Hoja de datos

GPU de núcleo tensor NVIDIA A10G: Computación y gráficos acelerados para la nube de AWS

Introducción a AWS

Regístrese para obtener una cuenta de AWS

Regístrese para obtener una cuenta de AWS

Obtenga acceso instantáneo a la capa gratuita de AWS.

Aprenda con tutoriales sencillos

Aprenda con tutoriales de 10 minutos

Explore y aprenda con tutoriales sencillos.

Comience a crear con EC2 en la consola

Comience a crear en la consola

Comience a crear soluciones con las guías paso a paso, que lo ayudarán a lanzar un proyecto en AWS.