AWS での PyTorch

AWS 上で高いパフォーマンス、スケーラビリティ、エンタープライズ対応の PyTorch 体験

Amazon EC2 インスタンス、Amazon SageMaker、PyTorch ライブラリでトレーニングまでの時間を短縮します。

PyTorch ライブラリを使用して、研究プロトタイピングから本番環境スケールでのデプロイを高速化します。

AWS の機械学習 (ML) サービスをフルマネージドまたはセルフマネージドで使用して機械学習モデルを構築します。

仕組み

AWS での PyTorch は、機械学習研究からモデルデプロイまでのプロセスを加速させるオープンソースの深層学習 (DL) フレームワークです。
TorchServe モデルサーバーを利用した PyTorch でのモデルトレーニング方法を示す図です。

ユースケース

大規模言語モデルの分散型トレーニング

PyTorch の Distributed Data Parallel (DDP) システムを使って、数十億のパラメータを持つ大規模な言語モデルをトレーニングします。

詳細はこちら »

大規模な推論


SageMaker と Amazon EC2 Inf1 インスタンスを用いて、レイテンシー、スループット、コストの要件を満たすように推論をスケールします。

詳細はこちら »

マルチモーダル機械学習モデル


PyTorch のマルチモーダルライブラリを使用して、リアルタイム手書き文字の認識などのユースケースのためのカスタムモデルを構築します。

詳細はこちら »

開始方法

Amazon SageMaker Studio Lab で ML を学習する

セットアップ不要の無料の開発環境を使用して、機械学習を学び、実験する

使用を開始する »

AWS での PyTorch の使用を開始

AWS での PyTorch を使い始めるために必要なものはすべて見つかります。

詳細はこちら »

AWS での PyTorch の詳細を見る

PyTorch を使い始めるための主要な機能と性能をチェックします。

PyTorch の詳細を見る »

Amazon SageMaker JumpStart で構築する

数回のクリックでデプロイできる事前構築済み機械学習ソリューションを発見することができます。

詳細はこちら »

AWS の詳細を見る