发布于: Apr 1, 2019

我们很高兴宣布推出新的 Python 脚本,可帮助您轻松开始使用 Amazon Elastic Inference

借助 Amazon Elastic Inference (EI),您可以将低成本 GPU 驱动的加速附加到 Amazon EC2 和 Amazon SageMaker 实例,以将运行深度学习推理的成本降低多达 75%。Amazon EI 支持 TensorFlow、Apache MXNet 和 ONNX 模型,即将推出更多框架。目前,Amazon EI 已在美国东部、美国西部、欧洲和亚太地区这四个区域提供。

如果您是第一次使用 Amazon EI,则设置您的环境以将实例启动到 Amazon EI 可能需要一些时间。在使用 Amazon EI 加速器之前,您需要设置一些依赖项,包括 AWS PrivateLink VPC 终端节点、AWS IAM 策略和安全组规则。通过 Amazon EI Python 脚本,您可以创建能帮助您在几分钟内启动 Amazon EI 加速器的必要资源,从而轻松上手。您可以从 GitHub 将 amazonei_setup.py 脚本下载到本地计算机,然后使用以下命令从终端运行该脚本:

$ python amazonei_setup.py

该脚本将确保正确配置所有设置,并启动具有使用 Amazon EI 所需的权限的实例。

有关如何使用 Amazon EI Python 脚本的更多信息,请参阅使用适用于 EC2 的 Amazon Elastic Inference 设置工具,在几分钟内启动 EI 加速器