- コンピューティング›
- Amazon EC2›
- キャパシティブロック
Amazon EC2 Capacity Blocks for ML
Amazon EC2 UltraClusters のアクセラレーテッドコンピューティングインスタンスを予約して、ML ワークロードを実行する
EC2 Capacity Blocks for ML を利用すべき理由
ML 用 Amazon Elastic Compute Cloud (Amazon EC2) キャパシティブロックを使用すると、将来の開始日に備えて、アクセラレーテッドコンピューティングインスタンスを簡単に予約できます。キャパシティブロックは Amazon EC2 P6e-GB200、P6-B200 、 P5en、 P5e 、 P5 、 P4d インスタンスをサポートし、それぞれ最新の NVIDIA ブラックウェル GPU、NVIDIA H200 テンソルコア GPU、NVIDIA H100 テンソルコア GPU、NVIDIA H100 テンソルコア GPU、NVIDIA A100 テンソルコア GPU、NVIDIA A100 テンソルコア GPU、および NVIDIA A100 テンソルコア GPU によって高速化されています。また、以下の機能を搭載した Trn2 インスタンスと Trn1 インスタンスもサポートしています。AWS トレイニウム EC2 キャパシティブロックは、高性能機械学習 (ML) ワークロード向けに設計された Amazon EC2 UltraClusters にまとめられています。高速コンピューティングインスタンスは最大 6 か月間に対して 1~64 インスタンス (512 個の GPU または 1024 個の Trainium チップ) のクラスターサイズで予約できるため、さまざまな ML ワークロードを柔軟に実行できます。EC2 Capacity Blocks は 8 週間前から予約可能です。
メリット
アクセラレーテッドコンピューティングインスタンスの将来の利用可能なキャパシティを確保することで、自信をもって ML 開発を計画できます。
分散トレーニングのための Amazon EC2 UltraClusters でのコロケーションを通じて、低レイテンシーかつ高スループットのネットワーク接続を実現できます。
機械学習のために Amazon EC2 で極めて高いパフォーマンスを発揮するアクセラレーテッドコンピューティングインスタンスに予測どおりにアクセスできます。
ユースケース
ML モデルのトレーニングとファインチューニングを完了するために予約したアクセラレーテッドコンピューティングインスタンスに中断なくアクセスできます。
キャパシティブロックを活用する Amazon SageMaker HyperPod の柔軟なトレーニングプランは、トレーニング要件に基づいて複数のコンピューティングキャパシティブロックを自動的に予約し、それら全体でトレーニングジョブを実行するため、モデルトレーニングのスケジュールと予算への対応に役立ちます。
短期間だけアクセラレーテッドコンピューティングインスタンスを必要とする実験を実行し、プロトタイプを構築できます。
顧客にサービスを提供するために適切な量のキャパシティを予約することで、成長のニーズに対応できます。
NVIDIA
「世界中の企業がジェネレーティブAIを採用して事業を再構築するにつれて、アクセラレーテッドコンピューティングの需要は飛躍的に高まっています。AWS の新しい EC2 Capacity Blocks for ML により、世界中の AI 企業は H100 を一度に 1 台のサーバーだけでなく、AWS 独自の専用スケールでレンタルできるようになりました。これにより、大規模な言語モデルを迅速かつ費用対効果の高い方法でトレーニングし、必要なときにクラウドで推論を実行できます。」
NVIDIA HPC コンピューティング担当副社長、イアン・バック氏
アーシー
「Arceeは、私たちがSLMと呼んでいるもの、つまり小さく、専門的で、安全でスケーラブルな言語モデルの開発と発展を可能にするAIプラットフォームを提供しています。Amazon EC2 Capacity Blocks for ML は、当社が必要なときに GPU キャパシティに確実にアクセスできるようにしてくれるため、AWS で SLM をトレーニングするための ML コンピューティング環境の重要な一部となっています。これはつまり、社内チームとお客様の両方が柔軟性の恩恵を享受できることを意味します。長期契約なしで数日でGPUのクラスターを入手できることを知ったことは、私たちにとって状況を変えるものでした。」
Arcee、CEO 兼共同創業者、Mark McQuade 氏
Amplify パートナー
「私たちは、ディープラーニングと大規模な言語モデルを活用して画期的なイノベーションを市場にもたらす数人の創設者と提携しました。予測可能かつ適時の GPU コンピューティングキャパシティへのアクセスは、創業者がアイデアを迅速に具現化できるようにするだけでなく、そのビジョンに基づいて継続的にイテレーションし、顧客により多くの価値を提供する上で不可欠であると当社は考えています。EC2 Capacity Blocks を介して最大 512 個の NVIDIA H100 GPU を利用できることは、供給が制限されている現在の環境において画期的なことです。なぜなら、これにより、スタートアップは長期的な資本コミットメントなしで、必要なときに必要な GPU コンピューティングキャパシティを利用できるようになると考えているからです。GPU キャパシティブロックと、業界をリードする機械学習とジェネレーティブ AI サービスのポートフォリオを活用して、AWS で構築する創業者を支援できることを楽しみにしています。」
Amplify Partners、Operating Partner、Mark LaRosa 氏
Canva
「現在、Canvaは月間1億5,000万人以上のアクティブユーザーが、どこにでも公開できる魅力的なビジュアルアセットを作成できるよう支援しています。当社は、新しい生成 AI ツールを強化するマルチモーダルモデルをトレーニングするために EC2 P4de インスタンスを使用しています。これにより、ユーザーはアイデアを自由かつ迅速に実験できます。当社はより大きなモデルをトレーニングすることを検討しており、トレーニングの実行中に数百の GPU を予測どおりにスケールできる必要があります。AWS が P5 インスタンスのサポートを備えた EC2 Capacity Blocks をリリースするのは喜ばしいことです。低レイテンシのEC2 UltraClustersで最大512個のNVIDIA H100 GPUに予測どおりにアクセスできるようになり、以前よりもさらに大きなモデルをトレーニングできるようになりました。'
Canva、Head of Data Platforms、Greg Roodt 氏
ダッシュトゥーン
「Dashtoonは最先端のAIと創造性を融合させ、ストーリーテラーを芸術的スキルや技術的知識に関係なくデジタルコミックを作成できるアーティストに変え、イラストコンテンツ制作における従来の障壁を打ち破ります。当社のアプリケーションを使用してコミックを読む月間アクティブユーザー (MAU) は 8 万人を超えており、クリエイターは Dashtoon Studio で 1 日あたり 10 万枚以上の画像を生成しています。当社は創業以来 AWS を利用しており、Amazon EC2 P5 インスタンスを使用して、Stable Diffusion XL、GroundingDINO、Segment Anything などのマルチモーダルモデルのトレーニングと微調整を行っています。NVIDIA H100 GPU を搭載した P5 インスタンスを使用することで、NVIDIA A100 GPU を搭載した同等の P4d インスタンスを使用した場合と比較して、パフォーマンスを 3 倍改善できました。当社のトレーニングデータセットのサイズはさまざまであり、モデルトレーニングのスケールを検討しているところですが、Amazon EC2 Capacity Blocks for ML は、予測可能な短いリードタイム (最短で翌日) で GPU のニーズに柔軟に対応することを可能にしてくれます。これは、当社がユーザーに新しい機能をリリースするまでの時間を短縮するのに役立ちます。EC2 キャパシティブロックを引き続き活用してイノベーションを加速できることを嬉しく思います。」
Dashtoon、共同創業者兼 Chief Technology Officer、Soumyadeep Mukherjee 氏
Leonardo.Ai
「Leonardo 氏のチームは、生成 AI を活用して、クリエイティブな専門家や愛好家が比類のない品質、スピード、スタイルの一貫性を備えたビジュアルアセットを制作できるようにしています。当社の基盤は、微調整された AI モデルと強力なツールのスイートにあり、生成前と生成後の両方できめ細かなコントロールを提供します。当社は幅広い AWS サービスを活用して、モデルを構築およびトレーニングするだけでなく、数百万のアクティブな月間ユーザーによる使用をサポートするためにそれらのモデルをホストしています。EC2 Capacity Blocks for ML がリリースされることを喜ばしく思います。これにより、コンピューティング要件をより満たす可能性のあるさまざまな EC2 インスタンスに切り替えるオプションを維持しながら、トレーニングや実験のために GPU 容量に柔軟にアクセスできるようになります。」
Leonardo.Ai、CTO、Peter Runham 氏
オクトアイ
「OctoAIでは、アプリケーションビルダーがジェネレーティブAIを簡単に実行、調整、スケーリングできるようにし、モデルの実行を最適化し、自動化を使用してサービスを拡張し、エンジニアリングの負担を軽減します。短期間で GPU キャパシティをスケールアップできる当社の能力は、特に、製品リリースの一環として ML アプリケーションをゼロから数百万のユーザーに迅速にスケールしたいと考えているお客様と連携する場合に重要です。EC2 Capacity Blocks for ML を使うと、お客様の計画しているスケールアップに合わせてさまざまなサイズの GPU クラスターを予測どおりにスピンアップできると同時に、長期的なキャパシティコミットやオンプレミスでのデプロイと比較してコスト削減が見込まれます。」
OctoAI、CEO、Luis Ceze 氏
シュノーケル
「SnorkelのAIデータ開発プラットフォームは、企業がAIを迅速に作成して使用するのに役立ちます。これには、コンピューティングを多用する LLM から情報を抽出して、開発中に短期間のコンピューティングのバーストを必要とする、より小さな専門モデルに供給することが含まれ、この傾向はこれまで以上に顕著になってきています。EC2 Capacity Blocks for ML は、GPU キャパシティを取得するための既存のオプションを大幅に改善する可能性を秘めています。EC2 UltraClustersによる短期的なGPU容量へのアクセスの保証と高いネットワークパフォーマンスは、企業が現在および今後サポートする必要のある AI 開発ワークフローを実現するための重要な要素です。」
Snorkel、共同創業者兼 Head of Technology、Braden Hancock 氏