Amazon SageMaker のよくある質問

全般

SageMaker は、フルマネージドインフラストラクチャ、ツール、ワークフローを使用して、あらゆるユースケース向けのデータの準備、機械学習 (ML) モデルの構築、トレーニング、デプロイを行うフルマネージドサービスです。

サポートされている SageMaker リージョンの一覧は、AWS リージョン別のサービスのページをご覧ください。詳細については、AWS の全般的なリファレンスガイドでリージョン別エンドポイントを参照してください。

SageMaker では、高可用性が実現されるように設計されています。メンテナンスの時間帯や定期的なダウンタイムはありません。SageMaker API は、Amazon の実績ある高可用性データセンターで実行されます。リージョンごとにサービススタックレプリケーションが 3 施設にまたがって構成されており、サーバー障害やアベイラビリティーゾーンの機能停止が発生した場合に耐障害性を発揮します。

SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。

SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された Amazon Simple Storage Service (Amazon S3) バケットをモデルアーティファクトやデータに使用し、AWS Key Management Service (AWS KMS) キーを SageMaker ノートブック、トレーニングジョブ、およびエンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。SageMaker は、Amazon Virtual Private Cloud (Amazon VPC) と AWS PrivateLink もサポートしています。

SageMaker は、顧客モデル、トレーニングデータやアルゴリズムを使用または共有しません。お客様がプライバシーとデータセキュリティについて懸念されるのは当然のことです。このため、AWS ではコンテンツの所有権と管理権をお客様にお渡ししています。簡素化されたパワフルなツールによって、自分のコンテンツをどこに保存するかをお客様に決定していただき、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理できるようにしています。また、お客様のコンテンツに対する不正アクセスや開示を防止するよう設計された技術的および物理的な管理を実践しています。お客様のコンテンツの所有権はお客様が保持します。また、お客様のコンテンツを処理、保存、ホストする AWS のサービスはお客様が選択します。いかなる目的であっても、AWS はお客様の同意を得ることなく、お客様のコンテンツにアクセスすることはありません。

ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。最低使用料金や前払いの義務はなく、実際に使用した分に対してのみお支払いいただきます。詳細については、Amazon SageMaker の料金ページAmazon SageMaker の料金計算ツールをご覧ください。

SageMaker のリソース使用量を最適化するために採用できるベストプラクティスがいくつかあります。構成の最適化を伴うアプローチもあれば、プログラムによるソリューションを伴うアプローチもあります。ビジュアルチュートリアルとコードサンプルを含むこの概念についての完全なガイドは、本ブログ記事にあります。

SageMaker は十分で完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を SageMaker に転送したり、SageMaker から転送したりできます。

はい。R は、SageMaker ノートブックインスタンス内で使用できます。これには、事前インストールされた R カーネルと reticulate ライブラリが含まれています。Reticulate は、Amazon SageMaker Python SDK 向けの R インターフェイスを提供し、機械学習の専門家が R モデルの構築、トレーニング、調整、デプロイに役立ちます。 

Amazon SageMaker Clarify は、機械学習ワークフロー全体で統計的バイアスを検出することにより、モデルの透明性を向上させるのに役立ちます。SageMaker Clarify は、データの準備中、トレーニング後、および時間の経過とともに不均衡をチェックし、ML モデルとその予測を説明するのに役立つツールも備えています。検出結果は、説明可能性レポートを通じて共有できます。

ML モデルでバイアスを測定することは、バイアスを軽減するための最初のステップです。バイアスは、トレーニングの前とトレーニングの後に測定されることがあるほか、デプロイされたモデルの推論についても測定されることがあります。バイアスの各測定値は、さまざまな公平性の概念に対応しています。単純な公平性の概念を考慮することによってさえも、さまざまな状況で適用可能な多くの異なる対策を見出すことができます。アプリケーションと調査中の状況に有効なバイアスの概念とメトリクスを選択する必要があります。SageMakerは現在、(SageMaker のデータ準備の一環として) トレーニングデータ、(Amazon SageMaker Experiments の一環として) トレーニングされたモデル、および (Amazon SageMaker Model Monitor の一環として) デプロイされたモデルの推論についてのさまざまなバイアスメトリクスの計算をサポートしています。例えば、トレーニングの前に、トレーニングデータが代表的であるか (つまり、1 つのグループが過小評価されているか)、およびグループ間でラベルの分布に違いがあるかを確認するためのメトリクスを提供します。トレーニング後またはデプロイ中に、モデルのパフォーマンスがグループ間で異なるか (およびどの程度異なるか) を測定するために、メトリクスが役立ちます。例えば、エラー率 (モデルの予測が実際のラベルと異なる確率) を比較することから始めたり、適合率 (正の予測が正しい確率) および再現率 (モデルが正の例に正しくラベルを付ける確率) を示すようにさらに分解したりします。

SageMaker Clarify は SageMaker Experiments と統合されており、トレーニングされた後のモデルの全体的な意思決定プロセスにおける各入力の重要度を詳細に示す特徴の重要度のグラフを提供します。これらの詳細は、特定のモデル入力がモデル全体の動作に必要以上の影響を与えるかどうかを判断するのに役立ちます。また、SageMaker Clarify では、個々の予測結果に対する解説を API を通じて公開しています。 

Amazon SageMaker Studio には、JupyterLab、Visual Studio をベースにしたコードエディター-コードオープンソース (コード — OSS)、RStudio など、さまざまな統合開発環境 (IDE) が用意されています。データ準備から ML モデルの構築、トレーニング、デプロイまで、あらゆる機械学習 (ML) 開発ステップを実行するための専用ツールにアクセスできる、お好みの IDE を選択できます。お好みの IDE を使用して、データをすばやくアップロードし、ノートブックでモデルを構築し、分散型トレーニングに拡張できます。 

RStudio on SageMaker は初のクラウド展開のフルマネージド RStudio Workbench です。使い慣れた RStudio 統合開発環境 (IDE) をすばやく起動し、作業を中断することなく基盤となるコンピューティングリソースをダイヤルアップ/ダウンできるので、R による機械学習および分析ソリューションを簡単に大規模に構築できます。RStudio IDE と SageMaker Studio ノートブックをシームレスに切り替えて、R および Python 開発を行うことができます。 コード、データセット、リポジトリ、その他のアーティファクトを含むすべての作業は、2 つの環境間で自動的に同期されるため、コンテキストスイッチを減らし、生産性を高めることができます。

SageMaker Studio は、追加料金なしでご利用いただけます。SageMaker Studio 内で使用するサービスの基礎となるコンピューティングおよびストレージ料金のみを支払います。

SageMaker Studio がサポートされているリージョンは、Amazon SageMaker デベロッパーガイドでご覧いただけます。

機械学習ガバナンス

SageMaker は、機械学習ライフサイクル全体にわたって、目的に応じた機械学習ガバナンスツールを提供します。Amazon SageMaker Role Manager を使用すると、管理者は最小限の権限を数分で定義できます。Amazon SageMaker Model Cards を使用すると、構想からデプロイまで、重要なモデル情報を簡単に取得、検索、共有でき、Amazon SageMaker Model Dashboard を使用すると、本番モデルの動作に関する情報をすべて 1 か所で把握することができます。詳細については、
Amazon SageMaker による 機械学習ガバナンスを参照してください。

SageMaker Role Manager を使用して、最小限のアクセス許可を数分で定義できます。SageMaker Role Manager は、事前に構築された IAM ポリシーのカタログを使用して、機械学習アクティビティとペルソナのための権限のベースラインセットを提供します。基本的な権限を維持することも、特定のニーズに基づいてさらにカスタマイズすることもできます。ネットワークアクセスの境界や暗号化キーなど、一般的なガバナンスの構成は、いくつかのセルフガイドプロンプトですぐに入力できます。SageMaker Role Manager は、IAM ポリシーを自動的に生成します。生成されたロールと関連するポリシーは、AWS IAM コンソールで確認できます。ユースケースに合わせて権限をさらに調整するには、マネージド IAM ポリシーを、SageMaker Role Manager で作成した IAM ロールにアタッチします。また、タグを追加してロールを識別し、AWS のサービス間で整理することができます。

SageMaker Model Cards は、モデル情報の単一の情報源を作成することによって、機械学習ライフサイクル全体を通してモデルドキュメントの一元化と標準化を支援します。SageMaker Model Cards は、トレーニングの詳細をオートポピュレートし、ドキュメント化プロセスを加速します。また、モデルの目的やパフォーマンス目標などの詳細を追加することもできます。モデルの評価結果をモデルカードに添付し、モデルのパフォーマンスに関する重要なインサイトを得るための視覚化を提供することができます。SageMaker Model Cards は、PDF 形式でエクスポートすることで、簡単に他の人と共有することができます。

SageMaker Model Dashboard は、デプロイされたモデルとエンドポイントの包括的な概要を提供し、リソースとモデルの動作違反を 1 つのペインで追跡することができます。SageMaker Model Monitor および SageMaker Clarify との統合により、データとモデルの品質、バイアスとフィーチャーアトリビューションドリフトを含む 4 つの次元でモデルの動作をモニタリングすることが可能です。SageMaker Model Dashboard は、モデルモニタリングジョブの欠落や非アクティブ、モデル品質、データ品質、バイアスドリフト、フィーチャーアトリビューションドリフトに関するモデル動作の逸脱に対するアラートを設定および受信するための統合エクスペリエンスも提供します。さらに、個々のモデルを検査し、モデルのパフォーマンスに影響を与える要因を時系列で分析することができます。そして、機械学習実践者のフォローアップを行い、是正措置を講じることができます。

基盤モデル

SageMaker JumpStart は、機械学習をすばやく簡単に開始するのに役立ちます。SageMaker JumpStart は、最も一般的なユースケース向けの一連のソリューションを提供し、数回のステップだけで簡単にデプロイできます。ソリューションは完全にカスタマイズ可能であり、AWS CloudFormation テンプレートとリファレンスアーキテクチャの使用を紹介しているため、ML の導入を加速できます。SageMaker JumpStart は、基盤モデルも提供し、トランスフォーマー、オブジェクト検出、画像分類モデルなど、150 を超える人気のオープンソースモデルのワンステップデプロイと微調整もサポートしています。 

SageMaker JumpStart は専用モデルとパブリックモデルを提供します。利用可能な基盤モデルのリストについては、Amazon SageMaker JumpStart の開始方法を参照してください。

基盤モデルには、SageMaker Studio、SageMaker SDK、および AWS マネジメントコンソールからアクセスできます。独自の基盤モデルの使用を開始するには、AWS Marketplace の販売条件を承諾する必要があります。

いいえ、ご自身の推論およびトレーニングデータは、SageMaker JumpStart がお客様に提供する基本モデルの更新やトレーニングに使用または共有されることはありません。

いいえ、専用モデルでは、お客様がモデルの重みやスクリプトを表示することはできません。

モデルは SageMaker Studio が利用可能なすべてのリージョンで見つけることができますが、モデルをデプロイできるかどうかは、必要なインスタンスタイプのモデルとインスタンスの可用性によって異なります。AWS Marketplace のモデル詳細ページから AWS リージョンの可用性と必要なインスタンスを参照できます。

専用モデルの場合は、モデルプロバイダーが決定するソフトウェア価格と、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。公開されているモデルについては、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。詳細については、Amazon SageMaker の料金AWS Marketplace を参照してください。

AWS ではセキュリティが最優先事項であり、SageMaker JumpStart はセキュリティを考慮して設計されています。このため、SageMaker ではコンテンツの所有権と管理権をお客様に提供しています。簡素化されたパワフルなツールは、お客様が自分のコンテンツをどこに保存するかを決定し、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理するのに役立ちます。

  1. カスタマートレーニングや推論情報を AWS Marketplace のモデル出品者と共有することはありません。同様に、出品者のモデルアーティファクト (モデルの重みなど) は購入者と共有されません。
  2. SageMaker JumpStart は、サービスの向上のために顧客モデル、トレーニングデータ、またはアルゴリズムを使用したり、顧客トレーニングや推論データを第三者と共有したりすることはありません。
  3. SageMaker JumpStart では、ML モデルのアーティファクトは転送中も保管時も暗号化されます。
  4. AWS 責任共有モデルでは、 AWS は、すべての AWS で実行されるグローバルインフラストラクチャの保護について責任を負います。お客様は、このインフラストラクチャでホストされているコンテンツの維持について責任を負います。

AWS Marketplace または SageMaker JumpStart のモデルを使用することで、ユーザーはモデル出力の品質について責任を負うものとし、個々のモデルの説明に記載されている機能と制限に同意したものとみなされます。

SageMaker JumpStart には、PyTorch Hub と TensorFlow Hub の 150 以上の事前にトレーニングされたオープンソースモデルが含まれています。画像分類やオブジェクト検出などの視覚タスクでは、RESNET、MobileNet、Single-Shot Detector (SSD) のようなモデルを使用できます。文の分類、テキストの分類、質問応答などのテキストタスクには、BERT、RoBERTa、DistilBERT のようなモデルを使用できます。

SageMaker JumpStart を使用すると、データサイエンティストと機械学習デベロッパーは、ノートブックとモデルを含む機械学習のアーティファクトを組織内で簡単に共有することができます。管理者は、定義された一連のユーザーがアクセスできるリポジトリを設定することができます。リポジトリにアクセスする権限を持つすべてのユーザーは、モデルやノートブック、SageMaker JumpStart 内の公開コンテンツを閲覧、検索、使用することができます。ユーザーは、アーティファクトを選択して、SageMaker JumpStart でモデルのトレーニング、エンドポイントのデプロイ、およびノートブックの実行を行うことができます。

SageMaker JumpStart を使用すると、機械学習アプリケーションを構築する際の市場投入までの時間を短縮することができます。組織内のあるチームが構築したモデルやノートブックを、数回のステップだけで、組織内の他のチームと簡単に共有することができます。内部での知識共有とアセットの再利用により、組織の生産性を大幅に向上させることができます。

Amazon SageMaker Clarify がファンデーションモデルの評価をサポートするようになりました。特定のユースケースに最適な基盤モデルを評価、比較、選択できます。質問への回答や内容の要約など、特定のタスクについて評価したいモデルを選択するだけです。次に、評価基準 (正確性、公平性、堅牢性など) を選択し、独自のプロンプトデータセットをアップロードするか、組み込みで公開されているデータセットから選択します。主観的な基準や人間による高度な判断を必要とする微妙な内容については、自社の従業員を活用するか、AWS が提供する管理された人材を使用して回答を確認するかを選択できます。セットアッププロセスが完了すると、SageMaker Clarify が評価を実行してレポートを生成するので、主要な基準でモデルがどのように機能したかを簡単に理解できます。評価ウィザードを使用して SageMaker JumpStart の基礎モデルを評価することも、オープンソースライブラリを使用して AWS でホストされていない基盤モデルを評価することもできます。

ローコード機械学習

SageMaker Autopilot は業界初の自動化された機械学習機能で、ユーザーは自分の ML モデルをすべてコントロールし、完全に可視化できます。SageMaker Autopilot は自動的に raw データを検証し、機能プロセッサを適用して、最適なアルゴリズムのセットを選出します。そして、複数のモデルをトレーニングおよび調整し、パフォーマンスを追跡、その後、パフォーマンスに基づいてモデルをランク付けします。これらすべての処理がわずか数クリックで実行できます。その結果、通常ではモデルのトレーニングに要するのと同程度のわずかな時間で、最高のパフォーマンスを備えたモデルをデプロイできます。モデルがどのように作成され、その中身が何かまで完全に見える化でき、SageMaker Autopilot は SageMaker Studio と統合します。SageMaker Studio 内で SageMaker Autopilot によって生成されたモデルを最高 50 種類まで試すことができるので、ユースケースに最適なモデルを簡単に選べます。SageMaker Autopilot はモデルを簡単に作成するために、機械学習の経験のないユーザーにも使用できるほか、経験を積んだデベロッパーが使用してすばやく基盤となるモデルを作成し、それをチームがさらに繰り返し使用することもできます。

はい。ジョブはいつでも停止できます。SageMaker Autopilot ジョブが停止すると、進行中のすべてのトライアルが停止し、新しいトライアルは開始されません。

SageMaker Canvas は、直感的なポイントアンドクリックインターフェイスを備えたノーコードサービスであり、データから非常に正確な機械学習ベースの予測を作成できます。SageMaker Canvas では、ドラッグアンドドロップ式のユーザーインターフェイスを使用してさまざまなソースからデータにアクセスして組み合わせることができ、自動的にデータをクリーニングして準備するため、手動によるクリーンアップを最小限に抑えることができます。SageMaker Canvas は、さまざまな最先端の機械学習アルゴリズムを適用して高精度な予測モデルを見つけ出し、直感的なインターフェイスで予測を行うことができます。SageMaker Canvas を使用すると、さまざまなビジネスアプリケーションでより正確な予測を行い、モデル、データ、レポートを共有することで、企業内のデータサイエンティストやアナリストと簡単に連携できます。SageMaker Canvas の詳細については、Amazon SageMaker Canvas のよくある質問を参照してください。

SageMaker Canvas では、使用量に応じてお支払いただきます。SageMaker Canvas は、複数のソースからインタラクティブにデータを取り込み、探索、準備することが可能で、データを使って高精度の ML モデルを学習し、予測を生成することができます。請求対象となるのは、SageMaker Canvas の使用時間またはログイン時間に応じたセッション料金と、モデル構築に使用したデータセットのサイズに応じたモデル学習料金の 2 つです。詳細については、Amazon SageMaker Canvas の料金をご覧ください。

機械学習ワークフロー

Amazon SageMaker Pipelines は、データの準備からモデルのデプロイまで、完全に自動化された機械学習ワークフローを作成するのに役立ちます。これにより、本番環境で数千の機械学習モデルにスケールできます。SageMaker Pipelines には SageMaker Studio に接続する Python SDK が含まれているため、ビジュアルインターフェイスを利用してワークフローの各ステップを構築できます。その後、単一の API を使用し、各ステップをつなげて、完全なワークフローを作成できます。SageMaker Pipelines は、ステップ間のデータの管理、コードレシピのパッケージ化、および実行の調整を行い、コーディングに費やす数か月に及ぶ時間を数時間に短縮します。ワークフローが実行されるたびに、処理されたデータと実行されたアクションの完全な記録が保持されるため、データサイエンティストと機械学習デベロッパーは問題をすばやくデバッグできます。

SageMaker Pipelines は、モデルレジストリと呼ばれるトレーニングされたモデルの一元的なリポジトリを提供します。モデルを検出し、SageMaker Studio を介して視覚的に、または Python SDK を介してプログラムでモデルレジストリにアクセスできるため、本番環境にデプロイすることを希望するモデルの選択がより簡単になります。

SageMaker Clarify、Amazon SageMaker Data Wrangler、Amazon SageMaker Feature Store、Amazon SageMaker Experiments、Amazon SageMaker Debugger、および Amazon SageMaker Model Monitor などの SageMaker Studio を通じて利用できるコンポーネントを SageMaker Pipelines に追加できます。

SageMaker Pipelines は、すべてのモデル構成要素を自動的に追跡し、すべての変更の監査証跡を保持することで、手動の追跡を排除し、コンプライアンスの目標を達成するのに役立ちます。SageMaker Pipelines を使用して、データ、コード、トレーニングされたモデルなどを追跡できます。

SageMaker Pipelines は、追加料金なしでご利用いただけます。SageMaker Pipelines 内で使用する基盤となるコンピューティングまたは個別の AWS のサービスに対してのみ料金を支払います。

はい。Kubeflow Pipelines 用 Amazon SageMaker コンポーネントは、Kubeflow Pipelines を使用して機械学習ワークフローを定義し、データのラベル付け、トレーニング、推論のステップで SageMaker を使用するためのオープンソースのプラグインです。Kubeflow Pipelines は、ポータブルでスケーラブルな完全な機械学習パイプラインを構築してデプロイできる、Kubeflow のアドオンです。ただし、Kubeflow Pipelines を使用する場合、機械学習運用チームは CPU や GPU インスタンスを使用して Kubernetes クラスターを管理し、常に稼働率を高く保って運用コストを削減する必要があります。データサイエンスチーム全体でクラスターの利用率を最大化することは簡単ではなく、機械学習運用チームに余計な運用経費を負担させることになります。機械学習に最適化された Kubernetes クラスターの代わりに、SageMaker Components for Kubeflow Pipelines を使用できます。これにより、機械学習ジョブを実行するための特別な Kubernetes クラスターの構成や管理をしなくても、データのラベル付け、フルマネージドの大規模なハイパーパラメータ調整、分散トレーニングジョブ、ワンクリックでの安全でスケーラブルなモデルのデプロイ、Amazon Elastic Compute Cloud (Amazon EC2) スポットインスタンスでの費用対効率が高いトレーニングなど、強力な SageMaker の機能を利用できます。

SageMaker Components for Kubeflow Pipelines は、追加料金なしで利用できます。 

データを準備する

SageMaker Data Wrangler は、機械学習用のデータを集約して準備するのにかかる時間を短縮します。SageMaker Studio の単一のインターフェイスでは、Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon SageMaker Feature Store、Snowflake からデータをわずか数回のステップで参照、インポートすることが可能です。また、40 以上のデータソースから転送され、Amazon AppFlow によって AWS Glue データカタログに登録されたデータもクエリを実行してインポートすることが可能です。SageMaker Data Wrangler は、生データを自動的に読み込み、集計し、表示します。SageMaker Data Wrangler にデータをインポートすると、自動生成された列のサマリーやヒストグラムを見ることができます。その後、SageMaker Data Wrangler の Data Quality and Insights レポートを使用して、データをより深く理解し、潜在的なエラーを特定することができます。このレポートでは、要約統計とデータ品質に関する警告が表示されます。また、SageMaker Clarify でサポートされているバイアス分析を SageMaker Data Wrangler から直接実行し、データ準備中に潜在的なバイアスを検出することができます。そこから、SageMaker Data Wrangler の事前構築された変換を使用して、データを準備することができます。データの準備ができたら、Amazon SageMaker Pipelines を使用して完全に自動化された機械学習ワークフローを構築し、そのデータを Amazon SageMaker Feature Store にインポートできます。

SageMaker Data Wrangler は表形式、時系列データ、画像データに対応しており、300 種類以上のデータ変換があらかじめ設定されており、これらのさまざまなデータモダリティに対応できます。データラングラーでテキストデータをNLPユースケース用に準備したいお客様向けに、データラングラーはNLTKライブラリをサポートしているため、お客様はデータラングラーで独自のカスタム変換を作成してテキストデータを準備できます。

SageMaker Data Wrangler は、1 行のコードも必要とすることなく、データを新しい特徴に自動的に変換できます。SageMaker Data Wrangler は、設定済みのデータ変換、欠損データの補完、ワンホットエンコーディング、主成分分析 (PCA) による次元削減、および時系列固有トランスフォーマーのセレクションを提供します。例えば、テキストフィールドの列をワンステップで数値の列に変換することができます。また、SageMaker Data Wrangler のスニペットライブラリからコードスニペットをオーサリングすることも可能です。

SageMaker Data Wrangler は、堅牢な事前設定済みの視覚化テンプレートのセットを使用して、データを理解し、潜在的なエラーと極値を特定するのに役立ちます。ヒストグラム、散布図、およびターゲット漏えい検出などの ML 固有の視覚化はすべて、1 行のコードも記述することなく利用できます。独自の視覚的なデータを作成および編集することもできます。

SageMaker Data Wrangler に使用するすべての ML コンピューティング、ストレージ、およびデータ処理リソースに対して料金を支払います。SageMaker Data Wrangler の料金設定のすべての詳細は、こちらでご確認いただけます。AWS 無料利用枠の一環として、SageMaker Data Wrangler を無料で開始することもできます。

SageMaker Data Wrangler は、SageMaker Autopilot でデータを準備し、機械学習モデルをシームレスにトレーニングすることができる統一されたエクスペリエンスを提供します。SageMaker Autopilot は、データに基づいて最適な機械学習モデルを自動的に構築、トレーニング、および調整します。SageMaker Autopilot を使用しても、データとモデルの完全な制御と可視性は維持されます。SageMaker Data Wrangler で用意された特徴を、既存のモデルで使用することもできます。ユーザーインターフェイス (UI) でジョブを設定するか、オーケストレーションコードを含むノートブックをエクスポートすることで、SageMaker Data Wrangler の処理ジョブを SageMaker トレーニングパイプラインの一部として実行するように設定することが可能です。

データ処理ジョブのスケジューリングやデータソースのパラメータ設定など、SageMaker の処理ジョブを SageMaker Data Wrangler UI から直接設定および起動し、新しいデータバッチを簡単に大規模に変換することができます。

データの準備ができたら、SageMaker Data Wrangler は、SageMaker Data Wrangler フローを本番環境に移行するためのさまざまなオプションを提供し、MLOps および CI/CD 機能とシームレスに統合されます。データ処理ジョブのスケジューリングやデータソースのパラメータ設定など、SageMaker の処理ジョブを SageMaker Data Wrangler UI から直接設定および起動し、新しいデータバッチを簡単に大規模に変換することができます。また、SageMaker Data Wrangler は SageMaker 処理およびSageMaker Spark コンテナとシームレスに統合されているため、SageMaker SDK を使用して SageMaker Data Wrangler を本番ワークフローに簡単に統合することができます。

SageMaker Data Wrangler は、数回のステップで、デフォルトのハイパーパラメータを持つ XGBoost モデルを分割し、トレーニングします。問題の種類に基づいて、SageMaker Data Wrangler は、モデル要約、機能要約、混同行列を提供し、データ準備フローを反復することができるように、すばやくインサイトを与えることができます。 

SageMaker Data Wrangler は、SageMaker Data Wrangler の UI を使用してデータを迅速に変換できるように、データのインポート時に top-K、ランダム、層別サンプリングなど、さまざまなサンプリング技術をサポートしています。大規模、広範囲のデータセットを使用している場合は、SageMaker Data Wrangler のインスタンスサイズを大きくすることで、パフォーマンスを向上させることができます。フローを作成したら、SageMaker Data Wrangler の処理ジョブを使用してデータセット全体を処理することができます。

SageMaker Data Wrangler で作成した特徴の宛先として、SageMaker Feature Store を設定することができます。これは、UI で直接行うこともできますし、SageMaker Feature Store を宛先としてデータ処理専用に生成されたノートブックをエクスポートすることも可能です。

SageMaker Feature Store は、読み取りと書き込みのレイテンシーが低い (ミリ秒) データの特徴のための一元的なリポジトリを提供します。特徴は SageMaker Feature Store を介して保存、取得、検出、および共有できるため、安全なアクセスと制御により、モデルやチーム間で簡単に再利用できます。SageMaker Feature Store は、バッチまたはストリーミングパイプラインを介して生成されたオンライン特徴とオフライン特徴の両方をサポートします。特徴のバックフィルをサポートし、モデルトレーニングと推論で使用される特徴間の均衡を維持するために、オンラインストアとオフラインストアの両方を提供します。

SageMaker Feature Store は、追加の管理やコードを必要とせずに、オンライン特徴とオフライン特徴の間の一貫性を自動的に維持します。SageMaker Feature Store はフルマネージド型であり、トレーニング環境と推論環境全体で一貫性を維持します。

SageMaker Feature Store は、あらゆる時点におけるすべての特徴のタイムスタンプを維持しています。これにより、ビジネス要件またはコンプライアンス要件を満たすために、いつでも特徴を取得できます。特定の時点からモデルを再現することで、最初に作成されてから現在に至るまでのモデルの特徴とその価値を簡単に説明できます。

オフライン特徴はトレーニングに使用されます。これは、長期間にわたって大量にアクセスする必要があるためです。これらの特徴は、高スループット、高帯域幅のリポジトリから提供されます。

オンライン特徴は、リアルタイムの予測を行うために必要なアプリケーションで使用されます。オンライン特徴は、高速予測のために、レイテンシーが 1 桁のミリ秒の高スループットリポジトリから提供されます。

AWS 無料利用枠の一環として、SageMaker Feature Store の使用を無料で開始できます。SageMaker Feature Store では、特徴ストアへの書き込み、オンライン特徴ストアからの読み取りとストレージの料金をお支払いいただきます。料金の詳細については、Amazon SageMaker の料金をご覧ください。

SageMaker は、Amazon SageMaker Ground Truth Plus と Amazon SageMaker Ground Truth の 2 つのデータラベリングサービスを提供します。どちらのオプションでも、画像、テキストファイル、動画などの raw データを識別し、有益なラベルを追加して、機械学習モデル用の高品質のトレーニングデータセットを作成できます。詳細については、Amazon SageMaker データラベリングを参照してください。

地理空間データは、地表上のフィーチャーやオブジェクトを表します。地理空間データの第一のタイプは、点、線、多角形などの 2 次元の幾何学的形状を用いて、道路や土地などのオブジェクトの境界線を表現するベクトルデータです。2 番目のタイプの地理空間データは、衛星、空中プラットフォーム、またはリモートセンシングデータでキャプチャされた画像などのラスターデータです。このデータタイプは、ピクセルのマトリックスを用いて、フィーチャの場所を定義します。ラスター形式を用いて、変化するデータを保存できます。3 番目のタイプの地理空間データは、ジオタグ付きの位置データです。これには、エッフェル塔などの名所、位置タグが付けられたソーシャルメディアの投稿、緯度と経度の座標、さまざまなスタイルや形式の住所が含まれます。

SageMaker の地理空間機能により、データサイエンティストや機械学習エンジニアは、地理空間データを用いて機械学習モデルを簡単に構築、トレーニング、デプロイし、予測を行えます。Amazon S3 からの Planet Labs 衛星データなどの独自のデータを持ち込んだり、AWS の Open Data、Amazon Location Service やその他の SageMaker 地理空間データソースからデータを取得したりできます。

SageMaker 地理空間機能を使用して、自分で行うソリューションよりも高速に地理空間データの予測を行うことができます。SageMaker 地理空間機能により、既存の顧客データレイク、オープンソースデータセット、およびその他の SageMaker 地理空間データソースから地理空間データに簡単にアクセスできます。SageMaker の地理空間機能は、効率的なデータ準備、モデルトレーニング、および推論のための専用アルゴリズムを提供することで、カスタムインフラストラクチャとデータ前処理機能を構築する必要性を最小限に抑えます。また、SageMaker Studio からカスタムの視覚化情報とデータを作成して組織と共有することもできます。SageMaker の地理空間機能には、農業、不動産、保険、金融サービスで一般的に使用される事前トレーニング済みのモデルが含まれています。

モデルの構築

SageMaker Studio ノートブックは、クイックスタート、コラボレーション、マネージド Jupyter Notebook です。SageMaker Studio ノートブックは、SageMaker 内の専用機械学習ツールやその他の AWS のサービスと統合して、機械学習用の完全な IDE である SageMaker Studio で完全な機械学習開発を実現します。

SageMaker Studio ノートブックは、インスタンスベースのノートブックとは異なるいくつかの重要な機能を提供します。Studio ノートブックでは、インスタンスを手動でプロビジョニングして操作可能になるのを待つ必要なく、ノートブックをすばやく起動できます。ノートブックを読み取って実行するために UI を起動する起動時間は、インスタンスベースのノートブックよりも高速です。

また、いつでも UI 内からインスタンスタイプの大規模なコレクションを柔軟に選択できます。新しいインスタンスを起動したり、ノートブックに移植したりするために、AWS マネジメントコンソールにアクセスする必要はありません。

各ユーザーには、特定のインスタンスに依存しない独立したホームディレクトリがあります。このディレクトリは、起動時にすべてのノートブックサーバーとカーネルに自動的にマウントされるため、インスタンスを切り替えてノートブックを表示して実行する場合でも、ノートブックやその他のファイルにアクセスできます。

SageMaker Studio ノートブックは AWS IAM アイデンティティセンター (AWS SSO の後継) と統合されているため、組織の認証情報を使用してノートブックにアクセスするのがより簡単になります。ノートブックの共有は、SageMaker Studio ノートブックに統合された機能です。ワンステップでノートブックを仲間と共有したり、1 つのノートブックを同時に共同編集することも可能です。

SageMaker Studio ノートブックは、ワンステップで Jupyter Notebook に素早くスピンできます。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。SageMaker ではまた、ワンステップでノートブックを共有することもできます。ノートブックを他の人と簡単に共有できます。また、全員が同じ場所に保存された同じノートブックを入手できます。

SageMaker Studio ノートブックでは、 IAM アイデンティティセンターを使用して企業の認証情報でサインインできます。チーム内およびチーム間でノートブックを共有するのは簡単ですが、ノートブックを実行するのに必要な依存関係は、ノートブックを共有するときにカプセル化された作業イメージで自動的に追跡されるからです。

機械学習の実践者は、チームメイトが SageMaker Studio ノートブックを一緒に読んだり編集したりできる共有ワークスペースを作成することができます。共有スペースを使用することで、チームメイトは同じノートブックファイルを共同編集し、ノートブックコードを同時に実行し、その結果を一緒にレビューすることで、行き違いをなくし、共同作業を効率化することができます。共有スペースでは、BitBucket や AWS CodeCommit のようなサービスのサポートが組み込まれており、機械学習チームは、異なるバージョンのノートブックを簡単に管理し、時間の経過とともに変更点を比較できるようになります。実験や機械学習モデルなど、ノートブック内から作成されたすべてのリソースは自動的に保存され、これが作成された特定のワークスペースに関連付けられるため、チームはより簡単に整理され、機械学習モデル開発を加速させることができます。

SageMaker Studio ノートブックを使用すると、分散トレーニング、バッチ変換、ホスティング、実験管理など、SageMaker のすべての機能にアクセスできます。SageMaker ノートブックから、Simple Storage Service (Amazon S3) のデータセット、Amazon Redshift、AWS Glue、Amazon EMR、AWS Lake Formation などの他のサービスにアクセスできます。

SageMaker Studio ノートブックを使用すると、コンピューティングとストレージの両方の料金が発生します。コンピューティングインスタンスタイプ別の料金については、Amazon SageMaker Pricing を参照してください。ノートブックおよびデータファイルやスクリプトなどの関連するアーティファクトは、Amazon Elastic File System (Amazon EFS) で保持されます。ストレージの料金については、Amazon EFS の料金を参照してください。AWS 無料利用枠内で、SageMaker Studio ノートブックの使用を無料で開始できます。

いいえ。同じコンピューティングインスタンスで複数のノートブックを作成し、実行できます。料金は、個々のアイテムではなく、使用したコンピューティングに対してのみ発生します。詳細については、Usage Metering を参照してください。

SageMaker Studio では、ノートブックに加え、同じコンピューティングインスタンスで、ターミナルおよび対話型シェルを開始して実行することも可能です。各アプリケーションは、コンテナまたはイメージ内で実行されます。SageMaker Studio では、データサイエンスおよび機械学習専用に事前設定された組み込みイメージがいくつか用意されています。SageMaker Studio のデベロッパー環境の詳細については、SageMaker Studio ノートブックの使用のガイドを参照してください。

SageMaker Studio ノートブックで使用するリソースのモニタリングとシャットダウンは、SageMaker Studio のビジュアルインターフェイス、または AWS マネジメントコンソールで行えます。 詳細については、ドキュメントを参照してください。

はい。コンピューティング料金が引き続き発生します。これは、 AWS マネジメントコンソールで Amazon EC2 インスタンスを作成し、その後ブラウザを閉じた場合と同様です。Amazon EC2 インスタンスの実行は継続され、明示的にシャットダウンしない限り、料金が発生します。

いいえ、ユーザープロファイルの追加、更新、削除などを含め、SageMaker Studio ドメインの作成および設定に対しては料金が発生しません。

管理者は、SageMaker Studio を含む SageMaker の料金の明細を AWS 請求コンソールで確認できます。SageMaker の AWS マネジメントコンソールで、トップメニューの [Services (サービス)] を選択し、検索ボックスに「billing (請求)」と入力して、ドロップダウンから [Billing (請求)] を選択します。その後、左側のパネルで [Bills (請求書)] を選択します。[Details] (詳細) セクションで、[SageMaker] を選択してリージョンの一覧を展開し、料金の明細を確認できます。

SageMaker Studio Lab は、無料の機械学習開発環境であり、コンピューティング、ストレージ (最大 15 GB)、セキュリティをすべて無料で提供し、誰でも機械学習を学んで実験できます。開始するために必要なのは有効な E メール ID だけです。インフラストラクチャを設定したり、ID とアクセスを管理したり、AWS アカウントにサインアップしたりする必要はありません。SageMaker Studio Lab は、GitHub 統合を通じてモデル構築を加速し、最も人気のある機械学習ツール、フレームワーク、およびライブラリが事前設定されているため、すぐに開始できます。SageMaker Studio Lab は作業内容を自動的に保存するため、セッションの合間に再起動する必要はありません。ノートパソコンを閉じて後で戻ってくるのと同じくらい簡単です。

 SageMaker Studio Lab は、機械学習のクラスや実験にセットアップを必要としない無料のノートブック開発環境を必要とする学生、研究者、データサイエンティスト向けです。SageMaker Studio Lab は、本番環境を必要としないが、機械学習スキルを向上させるために SageMaker 機能のサブセットが必要なユーザーに最適です。SageMaker セッションは自動的に保存され、ユーザーが各ユーザーセッションで中断したところから再開するのに役立ちます。

SageMaker Studio Lab は AWS 上に構築されたサービスであり、Simple Storage Service (Amazon S3) や Amazon EC2 などの Amazon SageMaker Studio と同じコアサービスの多くを使用しています。他のサービスとは異なり、お客様は AWS アカウントを必要としません。代わりに、E メールアドレスを使用して SageMaker Studio Lab 固有のアカウントを作成します。これにより、ユーザーは機械学習ノートブックを実行するための限られた環境 (15 GB のストレージと 12 時間のセッション) にアクセスできるようになります。

SageMaker Canvas は、ビジネスアナリストがコードの記述や機械学習の専門知識を必要とせずに、機械学習モデルを構築し、正確な予測を生成できるようにする、視覚的なドラッグアンドドロップサービスです。SageMaker Canvas を使用すると、さまざまなソースからのデータにアクセスして結合し、データを自動的にクリーンアップしてさまざまなデータ調整を適用し、機械学習モデルを構築してワンステップで正確な予測を生成するのがより簡単になります。また、結果を簡単に公開し、モデルを説明および解釈し、組織内の他のユーザーとモデルを共有してレビューすることもできます。

SageMaker Canvas は、Simple Storage Service (Amazon S3) や Amazon Redshift など、アカウントがアクセスできる AWS データソースをシームレスに検出するのに役立ちます。SageMaker Canvas のビジュアル、ドラッグアンドドロップインターフェイスを使用して、データを参照およびインポートできます。さらに、ローカルディスクからファイルをドラッグアンドドロップし、構築済みのコネクタを使用して、Snowflake などのサードパーティーソースからデータをインポートできます。

ソースを接続し、データセットを選択し、データを準備したら、予測するターゲット列を選択してモデル作成ジョブを開始できます。SageMaker Canvas は、問題のタイプを自動的に識別して関連性の高い新しい特徴量を生成し、線形回帰、ロジスティック回帰、深層学習、時系列予測、勾配ブースティングなどの ML 技術を使用して広範囲にわたる予測モデルをテストし、データセットに基づいて正確な予測を行うモデルを構築することができます。

モデルの構築にかかる時間は、データセットのサイズによって異なります。小さなデータセットは 30 分未満、大きなデータセットは数時間かかる場合があります。モデル作成ジョブが進行すると、SageMaker Canvas は、ジョブ完了率やジョブ完了までの残り時間など、詳細な視覚的更新情報を提供します。

モデルのトレーニング

SageMaker HyperPod は、ファンデーションモデル (FM) トレーニングを加速させることを目的として設計されています。大規模な分散型トレーニングに最適化された、より回復力のあるインフラストラクチャが提供されるため、何千ものアクセラレータでより迅速にトレーニングできます。障害を自動的に検出、診断、回復するため、中断することなく一度に数か月間 FM をトレーニングできます。SageMaker HyperPod には SageMaker 分散トレーニングライブラリがあらかじめ設定されており、モデルトレーニングデータを小さなチャンクに分散してアクセラレータ間で並列処理できるようにすることで、パフォーマンスを効率的に向上させることができます。

SageMaker Experiments は機械学習モデルへの繰り返し処理を調整および追跡するのに役立ちます。SageMaker Experiments は入力パラメータ、構成、結果などを自動的に捕捉し、こうした内容を「実験結果」として保存することで、繰り返し作業を管理しやすくします。ユーザーは SageMaker Studio の視覚的なインターフェイス上で作業できます。ここでは、アクティブな実験結果を参照したり、性質別に前回の実験結果を検索したり、あるいは、その結果とともに前回の実験を検証、または実験結果を視覚的に比較できます。

GPU や AWS アクセラレータなど、大量のコンピューティングインスタンスを必要とする長くて大規模なトレーニングワークロードが必要な場合は、SageMaker HyperPod を使用して回復力を高め、トレーニング時間を短縮できます。

 SageMaker Debugger はモデルの精度を改善するために、混同行列、学習勾配といったリアルタイムのメトリクスをトレーニング中に自動取得します。SageMaker Debugger から取得したメトリクスは、容易に理解できるよう SageMaker Studio で視覚化できます。SageMaker Debugger は一般的なトレーニングの問題が検出されたときに、警告や修復のアドバイスを生成することもできます。SageMaker Debugger は、CPU、GPU、ネットワーク、メモリなどのシステムリソースをリアルタイムで自動的にモニタリングおよびプロファイリングし、これらのリソースの再割り当てに関する推奨事項を提供します。これは、トレーニング中にリソースを効率的に使用して、費用とリソースを削減するのに役立ちます。

はい。SageMaker は、これらの配布戦略を手動で構築して最適化するのにかかる時間の何分の 1 かで、深層学習モデルと大規模なトレーニングセットを AWS の GPU インスタンス全体に自動的に配布できます。SageMaker が適用する 2 つの分散トレーニング手法とは、データの並列処理とモデルの並列処理です。データの並列処理は、データを複数の GPU インスタンスに均等に分割し、各インスタンスが同時にトレーニングできるようにすることで、トレーニング速度を向上させるために適用されます。モデルの並列処理は、モデルが大きすぎて単一の GPU に格納できず、複数の GPU に分散する前にモデルを小さな部分にパーティション化する必要がある場合に役立ちます。PyTorch および TensorFlow トレーニングスクリプトに数行の追加コードを追加するだけで、SageMaker はデータの並列処理またはモデルの並列処理を自動的に適用し、モデルの開発とデプロイをより迅速に行えるようにします。SageMaker は、グラフ分割アルゴリズムを使用して各 GPU 計算のバランスを取りながら、GPU インスタンス間の通信を最小限に抑えることで、モデルを分割するための最良のアプローチを決定します。SageMaker はまた、AWS コンピューティングとネットワークを完全に活用するアルゴリズムを通じて分散トレーニングジョブを最適化し、ほぼリニアなスケーリング効率を実現します。これにより、手動のオープンソース実装よりも速くトレーニングを完了できます。

SageMaker Training Compiler は深層学習 (DL) コンパイラであり、GPU をより効率的に使用するために、グラフレベルおよびカーネルレベルの最適化を通じて DL モデルトレーニングを最大 50% 高速化します。SageMaker Training Compiler は、SageMaker のバージョンの TensorFlow および PyTorch と統合されているため、最小限のコード変更で、これらの一般的なフレームワークでのトレーニングを高速に行えます。

SageMaker Training Compiler は、DL モデルを高水準言語表現から、ネイティブフレームワークを使用したジョブよりも高速にトレーニングするハードウェアに最適化された命令に変換することで、トレーニングジョブを加速します。より具体的には、SageMaker Training Compiler は、ハードウェアリソースをより効率的に使用する最適化されたモデルトレーニングジョブを生成し、その結果、より高速にトレーニングするために、グラフレベルの最適化 (演算子の融合、メモリ計画、および代数の単純化)、データフローレベルの最適化 (レイアウト変換、共通部分式除去)、ならびにバックエンドの最適化 (メモリレイテンシー隠蔽、ループ指向の最適化) を実行します。

SageMaker Training Compiler は、SageMaker Python SDK および SageMaker Hugging Face Deep Learning Containers に組み込まれています。スピードアップの利点を享受するためにワークフローを変更する必要はありません。SageMaker ノートブックインスタンス、SageMaker Studio、AWS SDK for Python (Boto3)、AWS コマンドラインインターフェイス (AWS CLI) のいずれかの SageMaker インターフェイスを使用して、これまでと同じ方法でトレーニングジョブを実行できます。フレームワークエスティメータオブジェクトを作成するときにパラメータとして TrainingCompilerConfig クラスを追加することで、SageMaker Training Compiler を有効にできます。実際には、これは、1 つの GPU インスタンスの既存のトレーニングジョブスクリプトに数行のコードが追加されることを意味します。最新の詳細なドキュメント、サンプルノートブック、および例は、ドキュメントで入手できます。

SageMaker Training Compiler は SageMaker のトレーニング機能であり、SageMaker のお客様のみに追加料金なしで提供されます。トレーニング時間が短縮されるため、お客様は SageMaker Training Compiler を使用して実際にコストを削減することができます。

SageMaker を使ったマネージドスポットトレーニングでは、Amazon EC2 スポットインスタンスを使用して機械学習モデルをトレーニングでき、モデルのトレーニングコストを最大 90% 削減します。

トレーニングジョブを送信する際にマネージドスポットトレーニングのオプションを有効にし、スポット容量の待機時間も指定します。これで、SageMaker が Amazon EC2 スポットインスタンスを使ってジョブを実行し、スポット容量を管理します。トレーニングジョブの実行中や容量を待機中に、トレーニングジョブのステータスを完全に把握できます。

マネージドスポットトレーニングは、トレーニングの実行に柔軟性があり、トレーニングジョブのコストを最小限に抑えたい場合に適しています。マネージドスポットトレーニングを使用すれば、機械学習モデルのトレーニングコストを最大 90% 削減することができます。

マネージドスポットトレーニングは、トレーニングに Amazon EC2 スポットインスタンスを使用します。これらのインスタンスは AWS が容量を必要とする場合に、前もって取得しておくことができます。そのため、容量が使用可能になったとき、マネージドスポットトレーニングジョブを少しずつ実行できます。SageMaker は最新のモデルチェックポイントを使ってトレーニングジョブを再開できるため、中断があっても、トレーニングジョブを最初から再開する必要はありません。SageMaker のビルトインフレームワークとビルトインコンピュータービジョンアルゴリズムにより、定期的なチェックポイントを有効にできます。あるいはカスタムモデルでチェックポイントを有効にできます。

長期的なトレーニングジョブには、普通、定期的なチェックポイントをお勧めします。これにより、容量を前もって取得しておいた場合でも、マネージドスポットトレーニングジョブが再開されないようになります。チェックポイントを有効にすると、SageMaker はマネージドスポットトレーニングジョブを最後のチェックポイントから再開します。

マネージドスポットトレーニングジョブを完了すると、AWS マネジメントコンソールで節約額を確認できます。また、トレーニングジョブを実行した期間と課金された期間との差の割合を出して、いくらコスト削減が可能かを計算できます。

マネージドスポットトレーニングジョブが中断された回数に関係なく、データがダウンロードされた時間に対してのみ、課金されます。

マネージドスポットトレーニングは、SageMaker でサポートされているすべてのインスタンスで使用できます。

マネージドスポットトレーニングは、SageMaker が現在利用可能なすべてのリージョンでサポートされています。

SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。

SageMaker には、線形回帰、ロジスティック回帰、K 平均法クラスタリング、主成分分析、Factorization Machines、ニューラルトピックモデリング、潜在的ディリクレ配分法、勾配ブースティング木、sequence2sequence、時系列予測、word2vec、および画像分類のためのアルゴリズムが組み込まれています。SageMaker は、最適化された Apache MXNet、Tensorflow、Chainer、PyTorch、Gluon、Keras、Horovod、Scikit-learn、および Deep Graph Library コンテナも提供します。さらに、SageMaker では、文書化された仕様に準拠した Docker イメージで提供されるカスタムのトレーニングアルゴリズムもサポートしています。

多くの機械学習のアルゴリズムでは、基盤となるアルゴリズムの動作方法を制御するための多様なパラメータに触れることができます。このようなパラメータは、一般的にハイパーパラメータと呼ばれ、その値はトレーニング後のモデルの品質に影響を与えます。自動モデルチューニングは、アルゴリズムで最適なモデルを作成できるような、ハイパーパラメータの組み合わせを見つけるプロセスです。

SageMaker の自動モデルチューニングは、科学的な観点から現実的であれば、あらゆるアルゴリズムで行うことができます。これには SageMaker の組み込みアルゴリズム、深層ニューラルネットワーク、Docker イメージの形で SageMaker に持ち込まれる任意のアルゴリズムも含まれます。

現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、SageMaker の中で行う必要があります。

ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を使用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。

いいえ、ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。SageMaker の組み込みアルゴリズムについては、ハイパーパラメータをチューニングできるかどうか明示しています。

ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。

現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。

ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって開始されたトレーニングジョブに対し、モデルトレーニングの料金に基づいて請求されます。

SageMaker Autopilot は、特に分類および回帰のユースケースに焦点を当てながら、機能の前処理、アルゴリズムの選択、ハイパーパラメータの調整など、典型的な機械学習ワークフローのすべてを自動化します。一方、組み込みアルゴリズム、深層学習フレームワーク、またはカスタムコンテナのいずれに基づいていても、自動モデルチューニングは、任意のモデルを調整するように設計されています。柔軟性と引き換えに、特定のアルゴリズム、調整するハイパーパラメータ、対応する検索範囲を手動で選択しなければなりません。

強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。

はい、SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。

教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。

教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術 (RL) の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動運転車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。

Amazon SageMaker RL は RL モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。

いいえ、SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。

はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを SageMaker RL で実行できます。

はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。

モデルのデプロイ

モデルを構築してトレーニングした後、SageMaker は、予測を開始できるようにそれらをデプロイするための 3 つのオプションを提供します。リアルタイム推論は、ミリ秒のレイテンシー要件、最大 6MB のペイロードサイズ、最大 60 秒の処理時間のワークロードに適しています。バッチ変換は、事前に入手可能な大きなデータのバッチに対するオフライン予測に最適です。非同期推論は、サブセカンドレイテンシーを必要としないワークロード向けに設計されており、ペイロードサイズは 1GB まで、処理時間は 15 分までとなっています。 

SageMaker 非同期推論は、受信したリクエストをキューに入れて、非同期に処理します。このオプションは、ペイロードサイズが大きいリクエスト、および/または処理時間が長く、到着すると同時に処理する必要があるリクエストに最適です。オプションとして、アクティブにリクエストを処理していないときは、コストを節約するためにインスタンス数をゼロにスケールダウンするようにオートスケーリング設定を構成することができます。 

アクティブにリクエストを処理していないときにコストを節約するため、SageMaker 非同期推論エンドポイントのインスタンス数をゼロにスケールダウンすることができます。「ApproximateBacklogPerInstance」カスタムメトリクスでスケールするスケーリングポリシーを定義し、「MinCapacity」値をゼロに設定する必要があります。ステップバイステップの説明については、デベロッパーガイドの非同期のエンドポイントをオートスケールするセクションをご覧ください。 

SageMaker Serverless Inference は、機械学習モデルのデプロイとスケーリングを容易にする、専用のサーバーレスモデル提供オプションです。SageMaker Serverless Inference エンドポイントは、コンピューティングリソースを自動的に開始し、トラフィックに応じてスケールインおよびスケールアウトするため、インスタンスタイプを選択したり、プロビジョニングされた容量を実行したり、スケーリングを管理したりする必要がなくなります。オプションで、Serverless Inference エンドポイントのメモリ要件を指定できます。推論コードの実行時間と処理されたデータの量の料金のみをお支払いいただきます。アイドル時間については料金がかかりません。

SageMaker Serverless Inference は、容量を事前にプロビジョニングしてスケーリングポリシーを管理する必要をなくすことにより、デベロッパーのエクスペリエンスを簡素化します。SageMaker Serverless Inference は、使用パターンに基づいて数十から数千回の推論に瞬時に拡張できるため、断続的または予測不可能なトラフィックを伴う機械学習アプリケーションに最適です。例えば、給与処理サービスを提供する会社が使用する chatbot サービスでは月末に問い合わせが増加しますが、それ以外の期間はトラフィックは断続的です。このようなシナリオで 1 か月の全期間にわたってインスタンスをプロビジョニングすることは、アイドル期間の料金を支払うことになるため、費用対効果は高くありません。SageMaker Serverless Inference は、トラフィックを事前に予測したり、スケーリングポリシーを管理したりすることなく、すぐに使用できる自動で高速なスケールアウトを行うことで、このようなタイプのユースケースに対処するのに役立ちます。さらに、推論コードを実行するためのコンピューティング時間 (ミリ秒単位で請求されます) とデータ処理についての料金のみをお支払いいただくため、断続的なトラフィックを伴うワークロードについては費用対効果の高いオプションです。

Provisioned Concurrency を使用すると、指定された数の同時リクエストに対してエンドポイントを温存することで、予測可能なパフォーマンスと高いスケーラビリティを備えたサーバーレスエンドポイントにモデルをデプロイすることができます。

エンドポイントがしばらくトラフィックを受信せず、その後エンドポイントが突然新しいリクエストを受信する場合があります。この場合、オンデマンドのサーバーレスエンドポイントでは、エンドポイントがコンピューティングリソースを起動してリクエストを処理するまでに時間がかかることがあります。これはコールドスタートと呼ばれます。コールドスタートは、同時リクエストが現在の同時リクエストの使用量を超える場合にも発生する可能性があります。コールドスタート時間は、モデルサイズ、モデルのダウンロードにかかる時間、およびコンテナの起動時間によって異なります。

レイテンシープロファイルの変動性を低減するために、オプションでサーバーレスエンドポイント向けに、Provisioned Concurrency を有効にできます。Provisioned Concurrency を使用することで、サーバーレスエンドポイントはいつでも準備が整い、コールドスタートなしで大量のトラフィックを瞬時に処理できます。

オンデマンドのサーバーレス推論と同様に、Provisioned Concurrency が有効になっている場合は、推論リクエストの処理に使用されたコンピューティング容量 (ミリ秒単位) と処理されたデータ量に対して料金が発生します。また、設定されたメモリ、プロビジョニングされた期間、有効になっている同時実行の量に基づいて、Provisioned Concurrency の使用量に対しても支払いが発生します。詳細については、Amazon SageMaker の料金をご覧ください。

SageMaker は、新しい機械学習モデルを本番リリース前に評価するために、現在デプロイされているモデルに対してそのパフォーマンスをテストするシャドーテストの実行を支援します。SageMaker は新しいモデルをシャドーモードで現在の本番モデルと共にデプロイし、ユーザーが指定した本番トラフィックの一部を新しいモデルにミラーリングします。オプションとして、オフラインでの比較のためにモデルの推論をログに記録します。また、本番モデルとシャドーモデルのレイテンシーやエラー率などの主要なパフォーマンスメトリクスを比較するライブダッシュボードを提供し、新しいモデルを本番環境に移行させるかどうかを決定するのに役立ちます。

SageMaker は、シャドーバリアントのセットアップとモニタリングのプロセスを簡素化し、新しい機械学習モデルのパフォーマンスをライブの本番トラフィックで評価することができます。SageMaker を使用すると、シャドーテストのためのインフラストラクチャをオーケストレーションする必要がありません。シャドーバリアントにミラーリングするトラフィックの割合やテスト時間などのテストパラメータを制御することができます。その結果、小規模から始めて、モデルパフォーマンスに確信が持てた後に、新しいモデルへの推論要求を増やすことができます。SageMaker は、主要なメトリクスにおけるパフォーマンスの違いを表示するライブダッシュボードを作成するため、モデルパフォーマンスを簡単に比較して、新しいモデルが本番モデルとどのように異なるかを評価することができます。

SageMaker Inference Recommender は、SageMaker 機械学習インスタンス全体でパフォーマンスのベンチマークを自動化し、モデルのパフォーマンスを調整することで、機械学習モデルを本番環境で取得するために必要な時間を短縮します。SageMaker Inference Recommender を使用して、最高のパフォーマンスを提供し、コストを最小限に抑えるエンドポイントにモデルをデプロイできるようになりました。インスタンスタイプを選択しながら SageMaker Inference Recommender を数分で開始し、最適なエンドポイント設定のレコメンデーションを数時間以内に取得できるため、数週間の手動テストとチューニング時間をなくすことができます。SageMaker Inference Recommender を使用すると、負荷テスト中に使用された SageMaker 機械学習インスタンスに対してのみ料金が発生し、追加料金は発生しません。

パフォーマンスを向上させ、コストを削減するために適切なエンドポイント設定のレコメンデーションが必要な場合は、SageMaker Inference Recommender をご利用ください。以前は、モデルをデプロイしたいデータサイエンティストは、適切なエンドポイント設定を選択するために手動でベンチマークを実行する必要がありました。モデルとサンプルペイロードのリソース要件に基づいて、70 以上の利用可能なインスタンスタイプから適切な機械学習インスタンスタイプを最初に選択し、次に異なるハードウェアを考慮してモデルを最適化する必要がありました。次に、レイテンシーとスループットの要件が満たされていること、およびコストが低いことを検証するために、広範な負荷テストを実施する必要がありました。SageMaker Inference Recommender は、次のこと1) インスタンスのレコメンデーションを数分で開始し、2) インスタンスタイプ全体で負荷テストを実施して、数時間以内にエンドポイント設定に関するレコメンデーションを取得し、3) コンテナとモデルサーバーのパラメータを自動的に調整し、特定のインスタンスタイプのモデルの最適化を実行するのを簡単に行えるようにすることで、この複雑さを解消します。

データサイエンティストは、SageMaker Studio、AWS SDK for Python (Boto3)、または AWS CLI から SageMaker Inference Recommender にアクセスできます。データサイエンティストは、登録されたモデルバージョンの SageMaker モデルレジストリの SageMaker Studio 内でデプロイのレコメンデーションを取得できます。データサイエンティストは、SageMaker Studio、AWS SDK、または AWS CLI を介してレコメンデーションを検索およびフィルタリングできます。

いいえ。現在、エンドポイントごとに 1 つのモデルのみをサポートしています。

現在、リアルタイムエンドポイントのみをサポートしています。

AWS 中国リージョンを除き、Amazon SageMaker が提供されているすべてのリージョンがサポートされます。

はい、すべてのタイプのコンテナをサポートしています。AWS Inferentia チップに基づく Amazon EC2 Inf1 には、Neuron コンパイラまたは Amazon SageMaker Neo のいずれかを使用してコンパイルされたモデルアーティファクトが必要です。Inferentia ターゲットと関連するコンテナイメージ URI のコンパイル済みモデルを取得したら、SageMaker Inference Recommender を使用してさまざまな Inferentia インスタンスタイプのベンチマークを実行できます。

SageMaker Model Monitor によって、デベロッパーがコンセプトドリフトを検出し、修復できるようになります。SageMaker Model Monitor はデプロイ済みのモデルでコンセプトドリフトを検出し、問題の原因を特定するのに役立つ詳細なアラートを出します。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。SageMaker Studio の中で、収集するデータや、その表示方法、アラートを受信するタイミングなどを構成できます。

いいえ、SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをにデプロイすることもできます。

SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。

SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、SageMaker は Amazon CloudWatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。

SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。

SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。

Amazon SageMaker は、完全マネージド型サービスとして、インスタンスのセットアップと管理、ソフトウェアバージョンの互換性、バージョンへのパッチ適用を行います。また、アラートの監視と受信に使用できるエンドポイントのメトリクスとログも組み込まれています。SageMaker ツールとガイド付きワークフローにより、ML モデルのパッケージングとデプロイのプロセス全体が簡素化され、エンドポイントを簡単に最適化して目的のパフォーマンスを実現し、コストを削減できます。SageMaker Studio 内で数回クリックするか、新しい PySDK を使用することで、基盤モデルを含む ML モデルを簡単にデプロイできます。

バッチ変換により、大小のバッチデータに対する予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。

SageMaker Edge Manager は、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、および維持することをより簡単にします。SageMaker Edge Manager は、ML デベロッパーがさまざまなエッジデバイスで ML モデルを大規模に操作するのに役立ちます。

SageMaker は次のエンドポイントオプションをサポートしています。単一モデルエンドポイント-専用インスタンスでホストされるコンテナ上に 1 つのモデル、または低レイテンシーと高スループットを実現するサーバーレスモデル。マルチモデルエンドポイント-共有インフラストラクチャを使用して複数のモデルをホストすることで、費用対効果を高め、利用率を最大化します。各モデルが効率的に実行するために必要なリソースにアクセスできるように、各モデルが使用できるコンピューティングとメモリの量を制御できます。シリアル推論パイプライン-複数のコンテナが専用インスタンスを共有し、順番に実行されます。推論パイプラインを使用して、前処理、予測、および後処理のデータサイエンスタスクを組み合わせることができます。

SageMaker Edge Manager の使用を開始するには、トレーニングされた ML モデルをクラウドでコンパイルおよびパッケージ化し、デバイスを登録し、SageMaker Edge Manager SDK を使用してデバイスを準備する必要があります。モデルをデプロイする準備をするために、SageMaker Edge Manager は SageMaker Neo を使用して、ターゲットエッジハードウェア用にモデルをコンパイルします。モデルがコンパイルされると、SageMaker Edge Manager は AWS で生成されたキーを使用してモデルに署名し、ランタイムと必要な資格情報とともにモデルをパッケージ化して、デプロイに備えます。デバイス側では、デバイスを SageMaker Edge Manager に登録し、SageMaker Edge Manager SDK をダウンロードしてから、指示に従って SageMaker Edge Manager エージェントをデバイスにインストールします。チュートリアルノートブックは、モデルを準備してエッジデバイス上のモデルを SageMaker Edge Manager に接続する方法についてのステップバイステップの例を提供します。

スケーリングポリシーを使用すると、基盤となるコンピューティングリソースを自動的にスケーリングして、推論リクエストの変動に対応できます。各 ML モデルのスケーリングポリシーを個別に制御して、モデルの使用状況の変化に簡単に対処できると同時に、インフラストラクチャのコストを最適化できます。

SageMaker Edge Manager は、Linux および Windows オペレーティングシステムで一般的な CPU (ARM、x86) および GPU (ARM、Nvidia) ベースのデバイスをサポートします。将来的には、SageMaker Edge Manager は、SageMaker Neo でもサポートされるより多くの組み込みプロセッサおよびモバイルプラットフォームをサポートするように拡張される予定です。

いいえ、必要ありません。モデルを他の場所でトレーニングすることも、オープンソースまたはモデルベンダーから提供される事前にトレーニングされたモデルを使用することもできます。

はい、必要です。SageMaker Neo は、モデルを実行可能ファイルに変換およびコンパイルします。その後、それをパッケージ化してエッジデバイスにデプロイできます。モデルパッケージがデプロイされると、SageMaker Edge Manager エージェントはモデルパッケージを解凍し、デバイス上でモデルを実行します。

SageMaker Edge Manager は、指定された Simple Storage Service (Amazon S3) バケットにモデルパッケージを保存します。AWS IoT Greengrass が提供する無線通信 (OTA) デプロイ機能、またはその他の任意のデプロイメカニズムを使用して、モデルパッケージを S3 バケットからデバイスにデプロイできます。

Neo dlr は、SageMaker Neo サービスによってコンパイルされたモデルのみを実行するオープンソースランタイムです。オープンソースの dlr と比較すると、SageMaker Edge Manager SDK には、追加のセキュリティ、モデル管理、およびモデル提供機能を備えたエンタープライズグレードのオンデバイスエージェントが含まれています。SageMaker Edge Manager SDK は、大規模な本番環境へのデプロイに適しています。

SageMaker Edge Manager は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド)、欧州 (フランクフルト)、アジアパシフィック (東京) の 6 つのリージョンで使用できます。詳細については、AWS リージョン別のサービス表をご覧ください。

SageMaker Neo では、機械学習モデルを一度トレーニングすれば、それをどこでも、クラウドでも、エッジでも実行可能にします。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 25 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。

SageMaker Neo の使用を開始するには、SageMaker コンソールにサインインしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。

SageMaker Neo には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、SageMaker Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、SageMaker Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。

いいえ、他の場所でモデルをトレーニングし、SageMaker Neo を使用してそれらを SageMaker ML インスタンスまたは AWS IoT Greengrass でサポートされているデバイスに最適化できます。

現在、SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な DL モデルや、今日 SageMaker で使用される最も一般的な決定木モデルをサポートしています。SageMaker Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。

サポートされているクラウドインスタンスエッジデバイス、およびフレームワークのバージョンのリストは、SageMaker Neo のドキュメントでご確認いただけます。

サポートされるリージョンの一覧は、AWS リージョン別のサービス表をご覧ください。

Amazon SageMaker Savings Plans

SageMaker Savings Plans は、1 年または 3 年の期間で一貫したコンピューティング使用量 (USD/時間で測定) を契約するかわりに、SageMaker に柔軟な使用量ベースの料金モデルを提供します。SageMaker Savings Plans は、最も優れた柔軟性を提供し、コストを最大 64% 削減するのに役立ちます。これらのプランは、インスタンスファミリー、サイズ、リージョンに関係なく、SageMaker Studio ノートブック、SageMaker On-Demand ノートブック、SageMaker Processing、SageMaker Data Wrangler、SageMaker Training、SageMaker Real-Time Inference、SageMaker Batch Transform などの対象となる SageMaker 機械学習インスタンスの使用量に自動的に適用されます。例えば、米国東部 (オハイオ) で実行されている CPU インスタンス ml.c5.xlarge から米国西部 (オレゴン) の ml.Inf1 インスタンスにいつでも推論ワークロードの使用量を変更し、自動的に Savings Plans の料金を引き続き支払うことができます。

SageMaker インスタンスの使用量が一定で (USD/時間で測定)、複数の SageMaker コンポーネントを使用している場合、またはテクノロジー設定 (インスタンスファミリーやリージョンなど) が時間の経過とともに変化すると予想される場合、SageMaker Savings Plans により、アプリケーションのニーズや新しいイノベーションに基づいて基盤となるテクノロジー設定を変更する柔軟性をもたらしながら、節約を実現できます。Savings Plans の料金は、手動で変更することなく、対象となるすべての機械学習インスタンスの使用量に自動的に適用されます。

Savings Plans の使用は、AWS マネジメントコンソールの AWS Cost Explorer から、または API/CLI を使用して開始することができます。Savings Plans への契約は、最大節約額を実現するため、AWS Cost Explorer で提案される推奨事項を使用することによって簡単に行うことができます。推奨される 1 時間あたりの契約量は、履歴的なオンデマンド使用量と、プランタイプ、期間、および支払いオプションの選択に基づいています。Savings Plan にサインアップすると、コンピューティング使用量については割引された Savings Plans 料金で自動的に課金され、契約量を超える使用については通常のオンデマンドレートで課金されます。

SageMaker の Savings Plans と Amazon EC2 の Savings Plans の違いはそれらに含まれるサービスにあります。SageMaker Savings Plans は、SageMaker 機械学習インスタンスの使用量にのみ適用されます。

Savings Plans は、AWS Organizations/一括請求 (コンソリデーティッドビリング) ファミリー内の任意のアカウントで購入できます。デフォルトでは、Savings Plans によって提供される恩恵は、AWS Organization/一括請求 (コンソリデーティッドビリング) ファミリー内のすべてのアカウントでの使用量に適用されます。ただし、Savings Plans の恩恵を購入したアカウントのみに制限することもできます。