Las instancias P5e de Amazon EC2 generalmente están disponibles a través de bloques de capacidad de EC2

Publicado en: 9 de sep de 2024

Hoy, AWS anuncia la disponibilidad general de las instancias P5e de Amazon Elastic Compute Cloud (Amazon EC2), que funcionan con las últimas GPU NVIDIA H200 con núcleo Tensor. Disponibles mediante bloques de capacidad de EC2, estas instancias ofrecen el mayor rendimiento de Amazon EC2 para el aprendizaje profundo y la inferencia de IA generativa.

Puede usar las instancias P5e de Amazon EC2 para entrenar e implementar modelos de lenguaje de gran tamaño (LLM) y modelos de difusión cada vez más complejos que impulsan las aplicaciones de IA generativa más exigentes. También puede usar las instancias P5e para implementar aplicaciones exigentes de HPC a escala en el descubrimiento farmacéutico, el análisis sísmico, la previsión meteorológica y la modelización financiera.

Las instancias P5e cuentan con 8 GPU H200 que tienen un tamaño de memoria GPU 1,7 veces mayor y un ancho de banda de memoria GPU 1,5 veces mayor que las GPU H100 incluidas en las instancias P5. Ofrecen capacidades de escalabilidad horizontal líderes en el mercado para el entrenamiento distribuido y combinan estrechamente las cargas de trabajo de HPC con hasta 3200 Gbps de redes mediante la tecnología Elastic Fabric Adapter (EFA) de segunda generación. Para satisfacer las necesidades de los clientes de gran escala con baja latencia, las instancias P5e se implementan en Amazon EC2 UltraClusters.

Las instancias P5e ya están disponibles en la región de AWS del este de EE. UU. (Ohio) en tamaños p5e.48xlarge mediante bloques de capacidad EC2 para ML.

Para obtener más información, consulte el documento Instancias P5e de Amazon EC2.