將分散式機器學習 (ML) 訓練擴展到數千個加速執行個體,同時無縫部署用於生產的模型。
使用最新的驅動程式、框架、程式庫和工具在加速器 (包括 AWS 自訂晶片和 Intel Habana) 上進行開發。
透過定期修補以解決安全性漏洞的穩定的自訂機器映像來降低風險。
運作方式
AWS Deep Learning AMI (DLAMI) 為 ML 從業人員和研究人員提供精選且安全的架構、相依項和工具,以加速雲端深度學習。Amazon Machine Images (AMIs) 專為 Amazon Linux 和 Ubuntu 而設計,同時已預先設定 TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit (CNTK)、Gluon、Horovod 和 Keras,讓您能夠快速部署並大規模執行這些架構和工具。

使用案例
自動駕駛汽車開發
大規模開發進階 ML 模型,並使用數百萬個支援的虛擬測試來驗證模型,以安全地部署自動駕駛汽車 (AV) 技術。
自然語言處理
加快安裝及設定 AWS 執行個體的速度,並透過最新的架構和程式庫加速進行試驗和評估,包括 Hugging Face 轉換器。
醫療保健資料分析
使用進階分析、ML 和深度學習功能,從不同的原始醫療保健資料中識別趨勢並進行預測。
加速的模型訓練
DLAMI 透過預先設定的驅動程式、Intel Math Kernel Library (MKL)、Python 套件和 Anaconda 平台,提供最新的 NVIDIA GPU 加速。