Saltar al contenido principal

Instancias G5 de Amazon EC2

Instancias basadas en GPU de alto rendimiento para aplicaciones que requieren gran capacidad gráfica e inferencia de machine learning

¿Por qué usar las instancias G5 de Amazon EC2?

Las instancias G5 de Amazon EC2 son la última generación de instancias basadas en la GPU de NVIDIA y se pueden usar en una amplia gama de casos de uso de machine learning y de uso intensivo de gráficos. Ofrecen un rendimiento hasta tres veces mayor para aplicaciones con uso intensivo de gráficos e inferencia de machine learning y un rendimiento hasta 3,3 veces mayor para la formación de machine learning, en comparación con las instancias G4dn de Amazon EC2.

Además, los clientes pueden utilizar las instancias G5 en aplicaciones con uso intensivo de gráficos, como las estaciones de trabajo remotas, la renderización de vídeos y los videojuegos, ya que generan gráficos de alta fidelidad en tiempo real. Gracias a las instancias G5, los clientes de machine learning obtienen una infraestructura rentable y de alto rendimiento para entrenar e implementar modelos más grandes y sofisticados para el procesamiento de lenguaje natural, la visión artificial y los casos de uso del motor de recomendación.

Las instancias G5 incluyen hasta 8 procesadores NVIDIA y AMD EPYC de segunda generación. También admiten hasta 192 CPU virtuales, 100 Gbps de ancho de banda de la red y 7,6 TB de almacenamiento local SSD NVMe.

Beneficios

Las instancias G5 ofrecen hasta el triple de rendimiento en los gráficos y hasta un 40 % de ahorro que las instancias G4dn. Tienen más núcleos de trazado de rayos que cualquier otra instancia de EC2 basada en GPU, cuentan con 24 GB de memoria por GPU y son compatibles con la tecnología NVIDIA RTX. Esto hace que sean ideales para realizar renderizaciones de escenas realistas con mayor rapidez, para ejecutar potentes estaciones de trabajo virtuales y para admitir con mayor fidelidad aplicaciones con gran cantidad de gráficos.

En comparación con las instancias G4dn, las instancias G5 ofrecen hasta el triple de rendimiento y hasta un 40 % más de ahorro en la inferencia de machine learning. Son una solución rentable y de alto rendimiento para aquellos clientes que quieren usar bibliotecas de NVIDIA como TensorRT, CUDA y cuDNN para ejecutar sus aplicaciones de ML.

Las instancias G5 suponen hasta un 15 % menos en costos de formación que las instancias de P3 de Amazon EC2. Asimismo, también ofrecen un rendimiento hasta 3,3 veces mayor en la formación de ML, en comparación con las instancias G4dn. Esto las convierte en una rentable solución para entrenar modelos de machine learning moderadamente complejos y de un solo nodo para realizar el procesamiento del lenguaje natural, la visión artificial y los casos de uso del motor de recomendación.

Las instancias G5 se basan en sistema Nitro de AWS, una combinación de hardware dedicado e hipervisor ligero que ofrece prácticamente todos los recursos informáticos y de memoria de hardware del host a sus instancias para ofrecer mejores rendimiento y seguridad generales. Con las instancias G5, el sistema Nitro aprovisiona las GPU en un modo de transferencia, lo que proporciona un rendimiento comparable al de un equipo sin sistema operativo.

Características

Las instancias G5 son las primeras en la nube que cuentan con GPU de NVIDIA A10G Tensor Core, ya que proporciona un alto rendimiento para aplicaciones de machine learning con un uso intensivo de gráficos. Cada instancia cuenta con hasta 8 GPU de A10G Tensor Core y, a su vez, tienen 80 núcleos de trazado de rayos y 24 GB de memoria por GPU. También ofrecen 320 núcleos de NVIDIA Tensor Core de tercera generación con hasta 250 TOPS, lo que proporciona un alto rendimiento para las cargas de trabajo de ML.

Las instancias G5 ofrecen controladores de NVIDIA RTX Enterprise y de juegos a los clientes sin costo adicional. Los controladores NVIDIA RTX Enterprise se pueden usar para proporcionar estaciones de trabajo virtuales de alta calidad a una amplia variedad de cargas de trabajo con uso intensivo de gráficos. El controlador de juegos NVIDIA proporciona gráficos incomparables y soporte informático para el desarrollo de juegos. Las instancias G5 también son compatibles con las bibliotecas CUDA, cuDNN, NVENC, TensorRT, cuBLAS, OpenCL, DirectX 11/12, Vulkan 1.1 y OpenGL 4.5.

Las instancias G5 ofrecen hasta 100 Gbps de rendimiento de red, lo que les permite gestionar las necesidades de baja latencia de la inferencia de machine learning y las aplicaciones con un uso intensivo de gráficos. Con los 24 GB de memoria por GPU y la compatibilidad para hasta 7,6 TB de almacenamiento NVMe SSD local, puede almacenar de forma local grandes modelos y conjuntos de datos para la inferencia y el entrenamiento de machine learning de alto rendimiento. Las instancias G5 también pueden almacenar localmente archivos de vídeo grandes, lo que mejora el rendimiento de los gráficos y la capacidad de generar archivos de vídeo más grandes y complejos.

Las instancias G5 se incorporan al sistema Nitro de AWS, que es una amplia colección de bloques funcionales que descargan muchas de las funciones de virtualización tradicionales a los hardware y software dedicados para ofrecer opciones de alto rendimiento, alta disponibilidad y alta seguridad, al tiempo que reduce la sobrecarga de la virtualización.

Detalles del producto

Instance Size
GPU
GPU Memory (GiB)
vCPUs
Memory (GiB)
Storage (GB)
Network Bandwidth (Gbps)
EBS Bandwidth (Gbps)
MV con una sola GPU

g5.xlarge

g5.2xlarge

g5.4xlarge

g5.8xlarge

g5.16xlarge

1

1

1

1

1

24

24

24

24

24

4

8

16

32

64

16

32

64

128

256

1x250

1x450

1x600

1x900

1x1900

Hasta 10

Hasta 10

Hasta 25

25

25

Hasta 3,5

Hasta 3,5

8

16

16

MV con varias GPU

g5.12xlarge

g5.24xlarge

g5.48xlarge

4

4

8

96

96

192

48

96

192

192

384

768

1x3800

1x3800

2x3800

40

50

100

16

19

19

Atenascopio

Athenascope usa métodos de desarrollo vanguardistas en la visión e inteligencia artificiales para analizar el juego y mostrar automáticamente los momentos más atractivos de este para crear vídeos destacados para jugadores y creadores de contenido. 

«Para crear una experiencia de vídeo perfecta, el análisis de vídeo de baja latencia con nuestros modelos de CV es un objetivo fundamental para nosotros. Las instancias G5 de Amazon EC2 ofrecen una mejora del 30% en relación con la relación precio/rendimiento con respecto a las implementaciones anteriores con instancias G4dn. «

Chris Kirmse, CEO y fundador de Athenascope

Missing alt text value

Netflix

Netflix es uno de los servicios de streaming líder en el mundo, ya que cuenta con más de 214 millones de miembros en más de 190 países que disfrutan de series, documentales y películas en una amplia variedad de géneros e idiomas.  

«Con las nuevas instancias G5 de Amazon EC2, podemos aprovisionar estaciones de trabajo gráficas de gama alta que ofrecen un rendimiento hasta 3 veces superior en comparación con las estaciones de trabajo con instancias G4dn de EC2. Con las instancias G5, los creadores de contenido tienen la libertad de crear contenido más complejo y realista para nuestros espectadores. «

Ben Tucker, Technical Lead, Animation Production Systems Engineering en Netflix

Missing alt text value

Varjo

«Para las aplicaciones VR/XR de gama alta, las instancias G5 de Amazon EC2 suponen un punto de inflexión. Podemos ejecutar aplicaciones profesionales con la resolución de ojo humano característica de Varjo con una velocidad de fotogramas tres veces superior a la de las instancias G4dn utilizadas anteriormente, lo que brinda a nuestros clientes una calidad de experiencia nunca antes vista al transmitir desde un servidor. «

Urho Konttori, fundador y director de tecnología de Varjo

Missing alt text value

Introducción a las instancias G5

Con las DLAMI, los investigadores y profesionales de ML acceden a la infraestructura y las herramientas necesarias para agilizar las tareas de DL en la nube, a cualquier escala. Los contenedores de aprendizaje profundo son imágenes de Docker preinstaladas con marcos de DL, que facilitan el despliegue de entornos personalizados de ML con la eliminación de los complicados procesos de creación y optimización de entornos desde cero.

Si prefiere administrar sus propias cargas de trabajo en contenedores con servicios de orquestación de contenedores, puede implementar instancias G5 con Amazon EKS o Amazon ECS.

Puede usar varias imágenes de máquina de Amazon (AMI) que AWS y NVIDIA ofrecen en conjunto, las cuales están incluidas en los controladores NVIDIA instalados.

Puede implementar modelos de aprendizaje automático en instancias G5 mediante Amazon SageMaker, un servicio totalmente administrado para crear, entrenar e implementar modelos de aprendizaje automático.