張貼日期: Nov 28, 2018
AWS Inferentia 是一種由 AWS 自訂設計的機器學習推論晶片,能以極低的成本交付高傳輸量、低延遲的推理效能。AWS Inferentia 將支援 TensorFlow、Apache MXNet 和 PyTorch 深度學習架構,並使用 ONNX 格式的模型。
AWS Inferentia 提供數百個 TOPS (每秒萬億次運算) 的推論傳輸量,讓複雜的模型能夠進行快速預測。為了有更佳的效能,可以合併使用多個 AWS Inferentia 晶片來提升數千個 TOPS 傳輸量。
AWS Inferentia 現在可與 Amazon SageMaker、Amazon EC2 和 Amazon 彈性推論一起使用。如需 AWS Inferentia 的詳細資訊,請瀏覽 網頁。