AWS Machine Learning 基礎設施
優勢

高效能
AWS 提供雲端效能最高的 ML 運算基礎設施。訓練方面,Amazon EC2 P4 執行個體與前代執行個體相較具備提升 2.5 倍的效能,並且聯網最為迅速,高達 400 Gbps。推論方面,Amazon EC2 Inf1 執行個體與最新一代的 GPU 型執行個體相比,提供高達 2.3 倍的更佳輸送量。

已針對機器學習優化
AWS 運算執行個體能支援各大機器學習架構,例如 TensorFlow 和 PyTorch。此外,也支援模型與工具組,例如 Hugging Face,適用於廣泛的機器學習使用案例。AWS 深度學習 AMI 和 Deep Learning Containers 已預先安裝 ML 架構與工具組的優化,以加速雲端的深度學習。

易於使用
Amazon SageMaker 這項全受管 ML 服務能讓您最快又最簡易地開始使用 AWS 基礎設施,同時又提供專門打造的工具,包括資料標記、資料準備、特徵工程、統計偏差偵測、AutoML、訓練、調校、託管、解釋性、監控和工作流程。SageMaker 是以 Amazon ML 的數十年經驗為基礎所建置而成。

擴展
AWS 的客戶能夠取用幾乎無所限制的運算、聯網和儲存以供擴展。可以從一到數千個 GPU,以及從 TB 到 PB 規模的儲存容量,視需要上下擴充規模。採用雲端形式,您可免除為所有可能的基礎設施做出投資。而卻能夠享有彈性運算、儲存與聯網的優勢。

經濟實惠
有廣大的基礎設施服務可供選擇之下,您可依照預算選擇適合的基礎設施。一切 CPU、GPU 或加速器型執行個體皆可選擇,而且僅需按實際用量付費,永遠不必為閒置容量付費。採用 AWS Inferentia 技術的 Amazon EC2 Inf1 執行個體與相當的最新一代 GPU 型執行個體相比,每次推論成本低達 70%。
我們提供的服務

客戶

Amazon Alexa 的 AI 與 ML 型智慧目前已在超過 1 億台裝置上提供使用。Alexa 不斷地變得更聰明、更健談、更主動,甚至更令人愉快。Alexa 使用 Amazon EC2 Inf1 以降低推論造成的延遲,和 Alexa 文字轉換語音的每次推論成本。

Autodesk 正在利用 Autodesk Virtual Agent (AVA) 這個 AI 技術虛擬助理積極地推進認知技術之中。AVA 透過使用自然語言理解 (NLU) 和深度學習技術來擷取查詢背後的上下文、意圖和含義,每月回答超過 100,000 個客戶問題。試用 AWS Inferentia 時,達到與 GPU 型執行個體相比高 4.9 倍的輸送量。

Rad AI 使用 AI 將放射科工作流程自動化,協助精簡放射科的報告程序。利用新的 Amazon EC2 P4d 執行個體,Rad AI 的推論速度加快,並能以快 2.4 倍的速度訓練模型,同時準確度更高。