Publié le: Apr 4, 2019
Les clients AWS peuvent désormais accélérer de manière transparente leurs tâches de Calcul Haute Performance (HPC), de Machine Learning et autres tâches par lot via AWS Batch, en spécifiant simplement le nombre de GPU que chaque tâche requiert. À compter d'aujourd'hui, vous pouvez utiliser AWS Batch pour préciser le nombre et le type d'accélérateurs dont vos tâches ont besoin en tant que variables d'entrée de définition des tâches, avec les options actuelles du vCPU et de la mémoire. AWS Batch mettra à l'échelle les instances appropriées pour vos tâches en fonction du nombre de GPU requis et isolera les accélérateurs selon les besoins de chaque tâche, seuls les conteneurs peuvent donc y accéder.
Les accélérateurs de calcul matériels, tels que les unités de traitement graphique (GPU), permettent aux utilisateurs d'accroître le débit de leurs applications et de réduire le temps de latence avec du matériel dédié. Jusqu'à présent, les utilisateurs d'AWS Batch souhaitant tirer parti des accélérateurs devaient créer une AMI personnalisée et installer les pilotes appropriés, et demander à ce qu'AWS Batch dimensionne les instances de type P EC2 accélérées par GPU en fonction de leurs caractéristiques de vCPU et de mémoire. Dorénavant, les clients peuvent spécifier simplement le nombre et le type de GPU souhaités, de la même manière qu'ils peuvent spécifier les vCPU et la mémoire, et Batch se charge ensuite de lancer les instances de type P EC2 nécessaires à l'exécution des tâches. De plus, Batch isole le GPU dans le conteneur, pour que chaque conteneur obtienne la quantité appropriée de ressources dont il a besoin.
Pour en savoir plus sur la prise en charge du GPU sur AWS Batch, cliquez ici.