Publicado en: Apr 4, 2019
Los clientes de AWS ahora pueden agilizar sin inconvenientes sus trabajos de informática de alto rendimiento (HPC), aprendizaje automático y otros trabajos en lote a través de AWS Batch. Solamente deben indicar la cantidad de GPU que requiere cada trabajo. Desde hoy, puede utilizar AWS Batch para especificar la cantidad y el tipo de aceleradores que necesitan sus trabajos como variables de entrada de definición de trabajo, junto con las opciones actuales de CPU virtual y memoria. AWS Batch ajustará el número de instancias apropiado para sus trabajos en función de la cantidad de GPU requeridas y aislará los aceleradores de acuerdo con las necesidades de cada trabajo, de manera que solo los contenedores correspondientes puedan obtener acceso a ellos.
Los aceleradores informáticos basados en hardware, como las unidades de procesamiento de gráficos (GPU), permiten a los usuarios aumentar el rendimiento de la aplicación y disminuir la latencia con hardware creado especialmente para ese fin. Hasta ahora, los usuarios de AWS Batch que querían aprovechar los aceleradores debían crear una AMI personalizada e instalar los controladores correspondientes y tener instancias EC2 tipo P aceleradas de GPU en escala de AWS Batch basadas en la CPU virtual y características de memoria. Ahora los clientes simplemente indican la cantidad deseada y el tipo de GPU, de manera similar a como especifican la CPU virtual y la memoria, y Batch lanzará las instancias EC2 tipo P necesarias para ejecutar los trabajos. Asimismo, Batch aísla la GPU del contenedor, de manera que cada contenedor reciba la cantidad precisa de recursos que necesita.
Obtenga más información acerca del soporte para GPU en AWS Batch aquí.