立即開始使用

 

AWS 深度學習 AMI 為資料科學家、機器學習從業人員和研究科學家提供基礎設施和各種工具,以加速雲端中各種規模的深度學習工作。您可以在已預先安裝熱門深度學習架構的 Amazon Linux 或 Ubuntu 上快速地啟動 Amazon EC2 執行個體,以訓練複雜的自訂 AI 模型、試驗新的演算法,或是學習新的技能和技術。深度學習 AMI 可讓您使用 Apache MXNet、TensorFlow、Microsoft Cognitive Toolkit (CNTK)、Caffe、Caffe2、Theano、Torch 和 Keras 建立可自動擴展的受管 GPU 叢集以進行大規模訓練,或使用運算優化或一般用途 CPU 執行個體在經過訓練的模型上執行推論。

 

100x100_benefit_provisioned

快速入門

為了讓您能夠在雲端快速開始使用深度學習 Amazon EC2 執行個體,深度學習 AMI 佈建了許多熱門的深度學習架構,每個架構都提供易於啟動的教學以示範適當的安裝、組態和模型準確性。

100x100_benefit_easy-steps

簡單的設定和組態

深度學習 AMI 可安裝相依性、追蹤程式庫版本和驗證程式碼相容性。而且,每個月都將提供 AMI 更新,讓您隨時獲得最新的引擎版本和資料科學程式庫。

 

100x100_benefit_pay-as-you-go

按使用量付費

無論您需要的是 Amazon EC2 GPU 或 CPU 執行個體,都無須針對深度學習 AMI 支付額外的費用。您只需支付存放和執行應用程式所需的 AWS 每小時資源費用。

 

通常,深度學習代表著極大的技術挑戰,因為您需要了解模型本身的數學,以及擴展訓練和大型分散式系統推論的相關經驗。因此,推出了許多深度學習架構,讓您能夠定義模型,然後大規模進行訓練。AWS 深度學習 AMI 專為 Amazon Linux 和 Ubuntu 所建立,已預先設定 Apache MXNet、TensorFlow、Microsoft Cognitive Toolkit (CNTK)、Caffe、Caffe2、Theano、Torch 和 Keras,讓您能夠快速部署並大規模執行這些架構。

 

深度學習架構使用的神經網路涉及大量矩陣相乘的程序。為了加速您的模型訓練及深度學習的研究和開發,AWS 深度學習 AMI 透過預先設定的 CUDA 和 cuDNN 驅動程式、Intel Math Kernel Library (MKL),以及安裝熱門 Python 套件和 Anaconda 平台提供 GPU 加速。

NVIDIA

在 Amazon EC2 P2 執行個體上執行的 AWS 深度學習 AMI,已預先安裝了所有受支援的深度學習架構的 NVIDIA CUDA 和 cuDNN 驅動程式,可大幅加快完成運算的時間。

Intel MKL

若是在 Intel 處理器上使用 Amazon EC2 執行個體,則深度學習 AMI 可提供與 Intel Math Kernel Library (MKL) 的整合,以加速數學處理和神經網路常式。

Python

AWS 深度學習 AMI 已安裝配有 Python 2.7 和 Python 3.4 核心的 Jupyter (之前稱為 iPython) Notebook,以及您最喜愛的熱門 Python 套件,包括適用於 Python 的 AWS 開發套件

Anaconda

為了簡化套件管理和部署,AWS 深度學習 AMI 安裝 Anaconda2 和 Anaconda3 資料科學平台,用於大規模資料處理、預測分析和科學運算。

 

按一下即可部署深度學習運算執行個體

您可以從 AWS Marketplace 快速啟動 AWS 深度學習 AMI。選擇用於大規模訓練的 GPU 或用於執行推論的 CPU,以獲得執行深度學習應用程式的穩定、安全和高效能執行環境,並採用按用量付費的定價模式。

瀏覽 AI 部落格以取得快速入門指南 >>

使用 AWS CloudFormation 深度學習範本簡化設定

深度學習 CloudFormation 範本為訓練多個執行個體提供使用深度學習 AMI 快速啟動所有資源最簡單的方法。 

立即從 GitHub 儲存庫下載範本,然後啟動 CloudFormation 堆疊