Publié le: Feb 4, 2019

Aujourd'hui, Amazon Elastic Container Service (ECS) a annoncé une prise en charge améliorée de l'exécution d'applications de calcul haute performance et de machine learning sur des instances GPU EC2. Les définitions de tâches ECS vous permettent désormais de désigner un certain nombre de GPU à affecter à des conteneurs particuliers, qu'ECS épinglera en conséquence afin d'isoler des charges de travail et d'optimiser les performances.

Auparavant, pour tirer parti des GPU sur ECS, vous deviez apporter votre propre AMI configurée sur mesure et utiliser une logique de placement de vCPU personnalisée comme proxy pour tenter d'affecter des GPU physiques à des conteneurs spécifiques. De plus, vous ne pouvez effectuer aucun épinglage ou isolement. Désormais, vous pouvez créer l'AMI GPU ECS optimisée avec des instances p2 et p3, qui est fournie avec des pilotes de noyau préconfigurés Nvidia, un environnement d'exécution GPU Docker approprié et une version par défaut de CUDA. Les définitions de tâches vous permettent désormais de désigner un certain nombre de GPU à affecter à un conteneur spécifique qu'ECS utilisera comme mécanisme de planification. Au fur et à mesure que vos conteneurs sont placés sur ces instances, ECS épinglera les GPU physiques dans les conteneurs souhaités afin d'isoler des charges de travail et d'optimiser les performances.

Pour en savoir plus à ce sujet, lisez notre blog ou consultez notre documentation. Pour connaître la disponibilité d'ECS, consultez le tableau des régions.