AWS 機械学習のインフラストラクチャ

高性能で費用対効果とエネルギー効率の高い、ML アプリケーション向けのインフラストラクチャ

Fortune 500 企業からスタートアップまで、さまざまな業界の組織が、自然言語処理 (NLP)、コンピュータビジョン、音声アシスタント、不正検出、レコメンデーションエンジンなどの幅広いユースケースのために、機械学習 (ML) をますます多く採用するようになっています。さらに、数千億のパラメータを備えた大規模言語モデル (LLM) により、画像やテキストの生成など、新しい生成系 AI のユースケースが可能になっています。ML アプリケーションが増えるにつれて、コンピューティング、ストレージ、ネットワークリソースの使用量、管理、コストが増大します。大量の電力消費を少なく抑えて、過剰なコストを削減し、ML モデルのトレーニングや本番環境へのデプロイ時の複雑さを回避するには、適切なコンピューティングインフラストラクチャを特定して選択することが不可欠です。お客様が ML のイノベーションを加速できるように、AWS は、ML アプリケーション向けに最適化されており、かつ、高性能で費用対効果とエネルギー効率の高い、目的別の ML ツールとアクセラレーターの理想的な組み合わせを提供しています。

メリット

使いやすい

使いやすい

AWS Trainium や AWS Inferentia などの目的別の ML アクセラレーターにアクセスして、基盤モデル (FM) をトレーニングおよびデプロイし、Amazon SageMaker や Amazon Bedrock などの AWS マネージドサービスを利用してアプリケーションに統合できます。SageMaker は、特定のユースケースとデータに合わせて完全にカスタマイズして本番環境にデプロイできる事前トレーニング済みの基盤モデルを、データサイエンティストや ML デベロッパーに提供します。Bedrock は、API を介して FM を使用して生成系 AI アプリケーションを構築するためのサーバーレスエクスペリエンスをお客様に提供します。

高性能

高性能

AWS の最高性能の ML インフラストラクチャで ML アプリケーションを強化できます。Amazon EC2 P4d インスタンスと Amazon EC2 Trn1 インスタンスは、ハイパフォーマンスを必要とする ML のトレーニングに最適です。推論については、第 2 世代 Inferentia2 を搭載した Amazon EC2 Inf2 インスタンスは、前世代の Inferentia ベースのインスタンスよりも 4 倍高いスループットと最大 10 分の 1 のレイテンシーを実現しています。

高い費用対効果

高い費用対効果

インフラストラクチャサービスの幅広い選択肢により、予算に合った適切なインフラストラクチャを選択できます。AWS Trainium ベースの Amazon EC2 Trn1 インスタンスでは、トレーニングコストを 50% 節約できます。また、AWS Inferentia2 ベースの Amazon EC2 Inf2 インスタンスは、同等の Amazon EC2 インスタンスよりも最大 40% 優れた料金パフォーマンスを実現します。これらの削減したコスト分を再投資して、イノベーションを加速し、ビジネスを成長させることができます。

ML フレームワークのサポート

持続可能

AWS は、2040 年までにネットゼロカーボンにするという Amazon の目標の達成に向けて取り組んでいます。フルマネージド ML サービスある Amazon SageMaker は、本番環境で ML モデルのトレーニングやデプロイを行う際に、高いエネルギー効率と消費電力の削減のために最適化された ML アクセラレーターを提供します。AWS Trainium や AWS Inferentia2 などの ML アクセラレーターを搭載した Amazon EC2 インスタンスは、他の同等の Amazon EC2 インスタンスよりも最大 50% 優れたワットあたりのパフォーマンスを提供します。

スケール

スケーラブル

AWS のお客様は、事実上無制限のコンピューティング、ネットワーク、およびストレージにアクセスできるため、スケールが可能です。必要に応じて、1 つの GPU または ML アクセラレーターから数千まで、およびテラバイトからペタバイトのストレージまで、スケールアップまたはスケールダウンできます。クラウドを利用することで、考え得るすべてのインフラストラクチャに投資する必要がなくなります。代わりに、伸縮自在なコンピューティング、ストレージ、およびネットワーキングのメリットを享受できます。

持続可能な ML ワークロード

AWS コンピューティングインスタンスは、TensorFlow や PyTorch などの主要な ML フレームワークをサポートしています。また、幅広い ML のユースケース向けに、Hugging Face などのモデルライブラリやツールキットもサポートしています。AWS Deep Learning AMI (AWS DLAMI) と AWS Deep Learning Container (AWS DLC) には、クラウドでの深層学習を加速するための ML フレームワークとツールキットの最適化がプリインストールされています。

ソリューション

ML インフラストラクチャ

*推論の要件によっては、Amazon EC2 の他のインスタンスで CPU ベースの推論を行うことを検討することも考えられます。

成功事例

  • Pepperstone
  • Pepperstone のロゴ

    Pepperstone は AWS の ML インフラストラクチャを使用して、1 か月あたり 40,000 名を超えるユニークビジターに対して、シームレスかつグローバルなトーレディングエクスペリエンスを提供しています。同社は Amazon SageMaker を利用して、ML モデルの作成とデプロイを自動化しています。SageMaker に切り替えたことで、DevOps チームとデータサイエンスチームの間の摩擦を軽減し、ML モデルのトレーニング時間を 180 時間から 4.3 時間に短縮することができました。

  • Finch Computing
  • Finch Computing のロゴ

    Finch Computing は、言語の翻訳やエンティティの曖昧性解消などの NLP タスクを実行する ML モデルを構築するために AWS Inferentia と PyTorch を AWS で使用しています。これにより、GPU と比較して、推論コストが 80% 超削減されました。

  • Amazon Robotics
  • Amazon Robotics のロゴ

    Amazon Robotics は Amazon SageMaker を使用して、Amazon フルフィルメントセンターでの手動スキャンに代わる高度な機械学習モデルを開発しました。Amazon Robotics が Amazon SageMaker と AWS Inferentia を使用して推論コストをほぼ 50% 削減

  • マネーフォワード
  • マネーフォワードのロゴ

    マネーフォワードは、Amazon EC2 Inf1 インスタンスで大規模な AI チャットボットサービスを開始し、同等の GPU ベースのインスタンスと比較して推論レイテンシーを 97% 低減するとともに、コストを削減しました。同社は Inf1 インスタンスへの移行が成功したことを受けて、エンドツーエンドの ML のパフォーマンスを向上させ、コストを削減することを目的として、AWS Trainium ベースの EC2 Trn1 インスタンスの評価も行っています。

  • Rad AI
  • Rad AI のロゴ

    Rad AI は、AI を使用して放射線医療のワークフローを自動化し、放射線医療に関するレポートの合理化を支援します。新しい Amazon EC2 P4d インスタンスを使用すると、Rad AI はより速く推論し、モデルを 2.4 倍の早さでより高精度にトレーニングできるようになります。

  • Amazon Alexa
  • Amazon Alexa のロゴ
    「Amazon Web Services を活用した Amazon Alexa の AI と ML ベースのインテリジェンスは、現在 1 億台を超えるデバイスで利用できます。当社は、Alexa をよりスマートかつ能動的にするとともに、さらに多くの対話を可能にし、これまでよりも多くの喜びをもたらすものとなるようにするための努力を惜しまないことをお約束します。これを実現するには、応答時間と機械学習インフラストラクチャのコストを継続的に改善する必要があります。そのため、当社は、Amazon EC2 Inf1 を使用して、Alexa のテキスト読み上げ推論のレイテンシーや推論あたりのコストを削減できることに高揚感を覚えています。Amazon EC2 Inf1 を使用すれば、Alexa を毎月使用する何千万人ものお客様へのサービスをさらに改善することができます」

    Amazon Alexa、Senior Vice President、Tom Taylor

  • Autodesk
  • Autodesk のロゴ
    「Autodesk は、Inferentia を使用して、AI を活用した仮想アシスタントである Autodesk Virtual Agent (AVA) の認知テクノロジーを進歩させています。AVA は、自然言語理解 (NLU) と深層学習の手法を適用して、問い合わせの背後にあるコンテキスト、意図、および意味を抽出することにより、顧客から毎月寄せられる 100,000 件超の質問に回答しています。Inferentia のパイロット運用では、NLU モデルで G4dn よりも 4.9 倍高いスループットを得ることができました。Inferentia ベースの Inf1 インスタンスで多くのワークロードを実行できることを楽しみにしています」

    Autodesk、Sr Data Scientist、Binghui Ouyang 氏

  • Sprinklr
  • Sprinklr のロゴ
    「Sprinklr は、マーケティング、広告、調査、カスタマーケア、販売、ソーシャルメディアエンゲージメントのためのさまざまなアプリケーションを組み合わせた統合型カスタマーエクスペリエンス管理 (Unified-CXM) プラットフォームを提供します。目標は常にレイテンシーを低減することにあります。これは、より優れたカスタマーエクスペリエンスを意味します。Amazon EC2 Inf1 インスタンスを利用することで、当社はこれを実現できるのです」

    Sprinklr、Infrastructure and DevOps 部門 Vice President、Jamal Mazhar 氏

AWS で ML インフラストラクチャを最適化する