Les instances Amazon EC2 P5e sont généralement disponibles via des blocs de capacité EC2
AWS annonce aujourd'hui la disponibilité générale des instances Amazon Elastic Compute Cloud (Amazon EC2) P5e, alimentées par les derniers GPU NVIDIA H200 Tensor Core. Disponibles via des blocs de capacité EC2, ces instances offrent les meilleures performances d'Amazon EC2 en matière de deep learning et d'inférence d’IA générative.
Vous pouvez utiliser les instances Amazon EC2 P5e pour la formation et le déploiement de grands modèles de langage (LLM) et de modèles de diffusion de plus en plus complexes qui alimentent les applications d'IA générative les plus exigeantes. Les instances P5e vous permettent également de déployer à grande échelle des applications HPC complexes dans les domaines de la découverte pharmaceutique, de l'analyse sismique, des prévisions météorologiques et de la modélisation financière.
Les instances P5e sont équipées de 8 GPU H200 qui ont une taille de mémoire GPU et une bande passante mémoire de GPU respectivement 1,7 fois et 1,5 fois supérieures à celle des GPU H100 présents dans les instances P5. Leurs capacités de montée en puissance de pointe sont adaptées à l'entraînement distribué et aux charges de travail HPC étroitement couplées, à travers des performances réseau pouvant atteindre 3 200 Gbit/s grâce à la technologie Elastic Fabric Adapter (EFA) de deuxième génération. Pour répondre aux besoins des clients à grande échelle avec une faible latence, les instances P5e sont déployées dans Amazon EC2 UltraClusters.
Les instances P5e sont désormais disponibles dans la région AWS USA Est (Ohio) dans les tailles p5e.48xlarge via EC2 Capacity Blocks for ML.
Pour en savoir plus sur les instances P5e, consultez la section Instances Amazon EC2 P5e.