- Machine Learning›
- AWS Trainium›
- AWS Trainium をご利用のお客様
AWS Trainium をご利用のお客様
お客様が AWS Trainium を使用して、深層学習モデルの構築、トレーニング、ファインチューニングを行っている方法をご覧ください。
Anthropic
パフォーマンスとスケーリングは単なる技術的要件ではなく、その使命を達成するために不可欠です。だからこそ、私たちは主要なクラウドプロバイダーとして AWS と提携し、Project Rainier を構築しました。これは、世界で最もパワフルなオペレーション AI スーパーコンピュータの 1 つです。現在、Claude のトレーニングとサービスの提供に約 100 万個の Trainium2 チップを使っているので、Trainium3 に胸を躍らせています。Project Rainier で構築したものをはるかに超えて、Claude をスケールし続け、AI の可能性の限界を押し広げていくことを期待しています。
Anthropic、Head of Compute、James Bradbury 氏。
poolside
AWS とのパートナーシップは、その両方をもたらします。Trainium を使用することで、お客様は他の AI アクセラレーターとは異なるコストパフォーマンス比で poolside の使用量をスケールできます。また、Trainium が今後ネイティブに Pytorch と vLLM をサポートすることで、poolside を含む Trainium ユーザーにさらなる革新と柔軟性がもたらされます。とりわけ、AWS は顧客重視の姿勢が際立っており、AWS は当社のフィードバックを迅速に反復して活用し、Trainium を当社のニーズに適合させることができました。Trainium のあらゆる面でさらに協働することを楽しみにしています。
Joe Rowell 氏、Founding Engineer
Decart
Trainium 独自のアーキテクチャ、つまり効率的なメモリ階層と高スループットの AI エンジンは、ハードウェアを最大限に活用する Decart のリアルタイム動画モデルにとって理想的であることが証明されました。初期のテストでは、上位の GPU と比較してフレームスループットが最大 4 倍高く、コスト効率が 2 倍高く、レイテンシーが 40 ミリ秒から 10 ミリ秒に短縮されたことが示されています。このパフォーマンスにより、以前は標準的なハードウェアでは現実的ではなかった、ライブ、ダイナミック、インタラクティブな動画の大規模な生成が可能になります。Bedrock を通じて、まもなく AWS のお客様がこれらの機能に直接アクセスできるようになります。
Dean Leitersdorf 氏、Co-founder & CEO
カラクリ
AWS Trainium を採用したことで、一貫したインフラストラクチャの可用性を維持しながら、LLM トレーニングのコストを 50% 以上削減できました。これにより、予算をはるかに下回りながら、日本で最も正確な日本語モデルを作成することができました。インフラストラクチャの安定性により、予想外の生産性向上にもつながり、チームはトラブルシューティングではなくイノベーションに集中できるようになりました。
CPO、中山智文氏
AWS Trainium パートナー
AGI House
AWS Trainium との提携により、最先端のトレーニングリソースを提供したり、画期的なイベントや課題を作成したりすることで、AI の創始者や研究者により良いサービスを提供できるようになりました。このようなコラボレーションは、これまで見過ごされてきたコミュニティの部分を活かし、継続的な成長を促進しながら既存のつながりを強化するのに役立ちました。特に私たちのデベロッパーコミュニティは、このパートナーシップを通じて発展してきました。構築し始めた当時は Trainium がどれほど強力で使いやすいかに感心していました。これは特に、チームの思慮深いサポートのおかげです。」
Hugging Face
2025 年、AI コミュニティは転換点に達し、1,000 万人を超える AI ビルダーが Hugging Face で数百万のオープンモデルとデータセットを使用および共有しました。AI がすべての人、あらゆる業界に確実に利益をもたらすためには、これまで以上に大規模で多様なオープンモデルの運用コストを削減することがこれまで以上に重要になっています。Hugging Face では、最初の Inferentia1 インスタンスが利用可能になって以来、AWS のエンジニアリングチームと協力して専用の AI チップを構築してきました。そこで今日、私たちは、MoE LLM からエージェント、動画生成モデルまで、最も要求の厳しい AI アプリケーションを推進する次世代の AWS AI チップである Trainium3 にこの上なくワクワクしています。Optimum Neuron では、Trainium 3 の高いメモリとコスト効率のメリットを、Transformers、Accelerate、Diffusers、TRL の何百万人ものユーザーに提供することで、同ユーザーがコストを抑えながら独自の AI を構築できるように取り組んでいます。
RedHat
革新的な vLLM フレームワーク上に構築されたエンタープライズグレードの推論サーバーと AWS の専用の Inferentia チップを統合することで、お客様が AI ワークロードの本番環境をこれまで以上に効率的にデプロイおよびスケールできるようにしました。当社のソリューションは、あらゆる環境であらゆる AI モデルを実行できる柔軟性を維持しながら、従来の GPU ベースの推論と比較して最大 50% 優れたコストパフォーマンスを実現します。このパートナーシップは、Red Hat の信頼できるオープンソースのイノベーションと、Fortune 500 企業の 90% にわたるエンタープライズ AI のデプロイに関する深い専門知識を基に成り立っています。
Dean Leitersdorf 氏、Co-founder & CEO
PyTorch
PyTorch のビジョンは単純明快です。どのハードウェアプラットフォームでも、どこでも同じコードを実行すべきだということです。AWS のネイティブ Trainium サポートにより、このハードウェアの選択肢が迅速な実験と自由な反復を必要とする研究者にもたらされています。AWS Trainium3 のリリースにより、PyTorch のデベロッパーは、使い慣れた PyTorch ワークフローを維持し、既に知っているエコシステム内にとどまりながら、より高いパフォーマンス、より低いレイテンシー、より優れたトークン経済性でアイデアを研究、構築、デプロイすることができます。