張貼日期: Dec 7, 2018
今天,我們宣布 Amazon EC2 P3dn.24xlarge GPU 執行個體,P3 執行個體家族的最新成員正式上市。P3dn.24xlarge 執行個體的網路頻寬最高可達 P3.16xlarge 執行個體的 4 倍,而且是針對應用于分散式機器學習和 HPC 應用進行優化。這些執行個體可提供最高 100 Gbps 的網路輸送量,96 個自訂 Intel® Xeon® Scalable (Skylake) vCPU,8 個具有 32 GB 記憶體的 NVIDIA® Tesla® V100 GPU,以及 1.8 TB 的本機 NVMe 型 SSD 儲存。
更快速的聯網、具有額外 vCPU 的全新處理器、加倍的 GPU 記憶體,以及快速的本機執行個體儲存體,可讓開發人員將任務擴展到數個執行個體 (例如 16、32 或 64個執行個體),不僅可以優化單一執行個體的效能,還能大幅縮短訓練 ML 模型的時間或執行更多次 HPC 模擬。
AWS是第一個提供 100 Gbps 聯網輸送量的雲端供應商,此一輸送量有助於除去資料傳輸瓶頸,並優化 GPU 使用率,以提供最大執行個體效能。此外,GPU 記憶體從每 GPU 16 GB 加倍到32 GB,提供了訓練更先進、更大型的機器學習模型,以及處理更大批次的資料 (例如用於影像分類和目標發現系統的 4k 影像) 的靈活性。
下面是 P3dn.24xlarge 執行個體與現有的 P3 執行個體的比較。
執行個體大小 | GPU – Tesla V100 | GPU 端對端 | GPU 記憶體 (GB) | vCPU | 記憶體 (GB) | 網路頻寬 | EBS 頻寬 | 本地執行個體儲存體 |
---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | 無 | 16 | 8 (Broadwell) | 61 | 高達 10 Gbps | 1.5 Gbps | 無 |
p3.8xlarge | 4 |
NVLink | 64 | 32 (Broadwell) | 244 | 10 Gbps | 7 Gbps | 無 |
p3.16xlarge | 8 | NVLink | 128 | 64 (Broadwell) | 488 | 25 Gbps | 14 Gbps | 無 |
p3dn.24xlarge | 8 | NVLink | 256 | 96 (Skylake) | 768 | 100 Gbps | 14 Gbps | 2 x 900 GB NVMe SSD |
美國東部 (維吉尼亞北部) 及美國西部 (奧勒岡) 區域的 P3dn.24xlarge 執行個體可提供隨需、預留或競價型執行個體等形式。若要進一步了解 P3 執行個體,以及 Airbnb、Salesforce 和 Western Digital 等客戶的使用方式,請瀏覽 P3 頁面。