发布于: Apr 4, 2019

AWS 客户现在只需指定每个作业所需的 GPUs 的数量,就可以通过 AWS Batch 无缝地加速其高性能计算 (HPC)、机器学习和其他批处理作业。从今天开始,您可以使用 AWS Batch 指定作业所需的加速器的数量和类型,作为作业定义输入变量,以及当前的 vCPU 和内存选项。AWS Batch 将根据所需的 GPU 数量扩展适合您的作业实例,并根据每个作业的需要隔离加速器,因此只有合适的容器才能访问它们。

基于硬件的计算加速器,如图形处理单元 (CPU),使用户能够使用专用硬件增加应用程序吞吐量,并且减少延迟。到目前为止,AWS Batch 用户希望利用加速器来构建自定义 AMI 和安装适当的驱动程序,并使 AWS Batch 根据其 vCPU 和内存特性,缩放经 GPU 加速的 EC2 P 型实例。现在,客户可以简单地指定所需 GPUs 数量和类型,就像他们可以指定 vCPU 和内存一样,Batch 将启动运行作业所需的 EC2 P-型实例。此外,Batch 将 GPU 隔离到容器中,因此每个容器都可以获得它所需资源的适当数量。

要了解更多关于 AWS Batch 上的 GPU 支持,请单击此处