AWS Deep Learning AMI

在預先設定的環境中快速建置可擴展、安全的深度學習應用程式

將分散式機器學習 (ML) 訓練擴展到數千個加速執行個體,同時無縫部署用於生產的模型。

使用最新的驅動程式、框架、程式庫和工具在加速器 (包括 AWS 自訂晶片和 Intel Habana) 上進行開發。

透過定期修補以解決安全性漏洞的穩定的自訂機器映像來降低風險。

運作方式

AWS Deep Learning AMI (DLAMI) 為 ML 從業人員和研究人員提供精選且安全的架構、相依項和工具,以加速雲端深度學習。Amazon Machine Images (AMIs) 專為 Amazon Linux 和 Ubuntu 而設計,同時已預先設定 TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit (CNTK)、Gluon、Horovod 和 Keras,讓您能夠快速部署並大規模執行這些架構和工具。

圖表顯示如何使用 AWS 管理主控台、AWS 命令列介面 (CLI)、AWS SDK、AWS API 或本地終端或應用程式指令碼來啟動 DLAMI

使用案例

自動駕駛汽車開發

大規模開發進階 ML 模型,並使用數百萬個支援的虛擬測試來驗證模型,以安全地部署自動駕駛汽車 (AV) 技術。

自然語言處理

加快安裝及設定 AWS 執行個體的速度,並透過最新的架構和程式庫加速進行試驗和評估,包括 Hugging Face 轉換器。

醫療保健資料分析

使用進階分析、ML 和深度學習功能,從不同的原始醫療保健資料中識別趨勢並進行預測。

加速的模型訓練

DLAMI 透過預先設定的驅動程式、Intel Math Kernel Library (MKL)、Python 套件和 Anaconda 平台,提供最新的 NVIDIA GPU 加速。

如何開始使用

了解如何加速您的模型訓練

了解 DLAMI 如何加快您的開發和模型訓練。

探索 AMI

為您的專案選取最適合的 AMI 和執行個體類型。

進行實作訓練

開始使用 10 分鐘教學課程進行建置。


探索更多 AWS