AWS 深度學習 AMI 為機器學習從業人員和研究人員提供基礎設施和各種工具,以加速雲端中各種規模的深度學習工作。您可以快速啟動已預先安裝常用深度學習架構和介面 (例如 TensorFlow、PyTorch、Apache MXNet、Chainer、Gluon、Horovod 和 Keras) 的 Amazon EC2 執行個體,以訓練複雜的自訂 AI 模型、試驗新的演算法,或學習新的技能和技術。
無論您需要的是 Amazon EC2 GPU 或 CPU 執行個體,使用深度學習 AMI 不用支付額外的費用,您只需支付存放和執行應用程式時所需的 AWS 資源。
選擇 AWS 深度學習 AMI
即便是經驗老道的機器學習開發人員,也需要花費大量的時間和精力才能進入狀況。我們提供的 AMI 支援開發人員的各項需求。如需協助您完成入門程序的指導,另請參閱 AMI selection guide 和更多深入學習資源。
Conda AMI
對於想在個別虛擬環境預先安裝深度學習架構 pip 套件的開發人員,以 Conda 為基礎的 AMI,適用於 Ubuntu、Amazon Linux 和 Windows 2016 版本。
基本 AMI
對於需要全新的環境以設定私有深度學習引擎儲存庫或自訂深度學習引擎組建的開發人員,基本 AMI 提供 Ubuntu 和 Amazon Linux 版本。
支援深度學習架構
AWS 深度學習 AMI 支援所有常用的深度學習架構,讓您可以定義模型並進行大規模訓練。該 AMI 專為 Amazon Linux 和 Ubuntu 所設計,同時已預先設定 TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit、Gluon、Horovod 和 Keras,讓您能夠快速部署並大規模執行任何這些架構和工具。








加速您的模型訓練
為了加速您的開發和模型訓練,AWS 深度學習 AMI 透過預先設定的 CUDA 和 cuDNN 驅動程式、Intel Math Kernel Library (MKL),以及安裝常用的 Python 套件和 Anaconda 平台提供最新的 NVIDIA GPU 加速。
GPU 執行個體

P3 執行個體和上一代 Amazon EC2 GPU 運算執行個體相比,效能提高了 14 倍。P3 執行個體擁有高達 8 個 NVIDIA Tesla V100 GPU,可提供高達 1 PFLOPS 的混合精度,125 TFLOPS 的單精度和 62 TFLOPS 的雙精度浮點效能。
強大的運算能力

C5 執行個體搭載 3.0 GHz Intel Xeon 可擴充處理器,允許單一核心利用 Intel Turbo Boost 技術以高達 3.5 GHz 運作。C5 執行個體提供更高的記憶體/vCPU 比率,與 C4 執行個體相比之下,價格/效能提高了 25%,非常適合要求苛刻的推論應用程式。
Python 套件

AWS 深度學習 AMI 已安裝配有 Python 2.7 和 Python 3.5 核心的 Jupyter Notebook,以及常用的 Python 套件,包括適用於 Python 的 AWS 開發套件。
Anaconda 平台

為了簡化套件管理和部署,AWS 深度學習 AMI 會安裝 Anaconda2 和 Anaconda3 資料科學平台,用於大規模資料處理、預測分析和科學運算。
開始使用 AWS 上的深度學習
適用於機器學習的 Amazon SageMaker
Amazon SageMaker 是全受管服務,可讓開發人員和資料科學家輕鬆快速地建立、訓練及部署任何規模的機器學習模型。Amazon SageMaker 掃除一切可能會阻礙開發人員使用機器學習的障礙。