跳至主要內容

AWS AI 晶片

專門打造的 AI 晶片可提供最佳性價比

使用 Trainium 訓練大型模型,並透過 Inferentia 大規模使用這些模型——速度更快、成本更低並與 AWS 完全整合。

為什麼 Trainium 和 Inferentia

降低成本,提高輸送量,並與 AWS 服務緊密整合。由 PyTorch、Hugging Face 和 VLLM 提供支援。

準備好使用 AWS 專門打造的 AI 晶片進行建置和擴展嗎?

遵循以下學習路徑:探索 → 設定 → 訓練 → 部署 → 最佳化。每個步驟都包括實操課程,讓您能夠透過實踐強化學習。

探索

用於訓練的 Trainium。用於推論的 Inferentia。使用 SageMaker HyperPod 或 EKS 從單一執行個體擴展至叢集。

生態系統、硬體架構和真實世界範例介紹 (Anthropic,Project Rainer)。包括 Trainium 上的實時示範。

設定

從 EC2、Sage Maker 或容器開始。預先建置的 DLAMI 和 Neuron SDK 讓設定變得簡單且快捷。 

了解 Neuron SDK 堆疊,啟動 DLAMI,設定 EC2,並開始在 Jupyter 中工作。

了解

訓練、部署和最佳化您的模型。

找到今天所需的資訊了嗎?

讓我們知道,以便我們改善頁面內容的品質