Amazon SageMaker の特徴
フルマネージドインフラストラクチャ、ツール、ワークフローを使用して、あらゆるユースケース向けの機械学習 (ML) モデルを構築、トレーニング、デプロイします。
トレーニングデータの収集と準備
Amazon SageMaker Data Wrangler を使用すると、データをすばやく簡単に準備し、モデルの特徴を作成できます。データソースに接続し、組み込みのデータ変換を使用してモデルの特徴を設計できます。
Amazon SageMaker Ground Truth Plus は、ラベリングアプリケーションを構築したり、ラベル付けのためのワークフォースを管理したりすることなく、正確なトレーニングデータセットを簡単に作成することができます。データをアップロードするだけで、Amazon SageMaker Ground Truth Plus が専門家のワークフォースを提供し、ワークフローを管理します。
Amazon SageMaker Ground Truth Plus は、ラベリングアプリケーションを構築したり、ラベル付けのためのワークフォースを管理したりすることなく、正確なトレーニングデータセットを簡単に作成することができます。データをアップロードするだけで、Amazon SageMaker Ground Truth Plus が専門家のワークフォースを提供し、ワークフローを管理します。
Amazon SageMaker Feature Store は、ML 向けの特徴をリアルタイムとバッチで提供するための専用の特徴ストアです。特徴を安全に保存、検出、および共有できるため、トレーニング中と推論中の両方で同じ特徴を一貫して取得でき、数か月分の開発にかける労力を低減できます。
Amazon SageMaker Processing は、SageMaker の使いやすさ、スケーラビリティ、および信頼性をデータ処理ワークロードの実行にまで拡張します。SageMaker Processing を使用すると、既存のストレージに接続し、ジョブの実行に必要なリソースをスピンアップし、出力を永続ストレージに保存し、ログとメトリクスを受信できます。

Amazon SageMaker Feature Store は、ML 向けの特徴をリアルタイムとバッチで提供するための専用の特徴ストアです。特徴を安全に保存、検出、および共有できるため、トレーニング中と推論中の両方で同じ特徴を一貫して取得でき、数か月分の開発にかける労力を低減できます。

Amazon SageMaker Processing は、SageMaker の使いやすさ、スケーラビリティ、および信頼性をデータ処理ワークロードの実行にまで拡張します。SageMaker Processing を使用すると、既存のストレージに接続し、ジョブの実行に必要なリソースをスピンアップし、出力を永続ストレージに保存し、ログとメトリクスを受信できます。
モデルの構築
Amazon SageMaker Canvas は、ビジネスアナリストがコードの記述や機械学習の専門知識を必要とせずに、機械学習モデルを構築し、正確な予測を生成できるようにする、視覚的なポイントアンドクリックサービスです。また、結果を簡単に公開し、モデルを説明および解釈し、他のユーザーとモデルを共有することもできます。
Amazon SageMaker Studio Lab は、機械学習モデルを構築してトレーニングするための、設定不要の無料開発環境です。Amazon SageMaker Studio Lab は、GitHub と統合されたオープンソースの Jupyter ノートブックを提供し、15 GB の専用ストレージも利用できます。

Amazon SageMaker Canvas は、ビジネスアナリストがコードの記述や機械学習の専門知識を必要とせずに、機械学習モデルを構築し、正確な予測を生成できるようにする、視覚的なポイントアンドクリックサービスです。また、結果を簡単に公開し、モデルを説明および解釈し、他のユーザーとモデルを共有することもできます。

Amazon SageMaker Studio Lab は、機械学習モデルを構築してトレーニングするための、設定不要の無料開発環境です。Amazon SageMaker Studio Lab は、GitHub と統合されたオープンソースの Jupyter ノートブックを提供し、15 GB の専用ストレージも利用できます。
Amazon SageMaker Studio ノートブックはワンクリック Jupyter ノートブックであり、基盤となるコンピューティングリソースは完全に伸縮性があるため、利用可能なリソースを簡単にダイヤルアップまたはダイヤルダウンできます。ノートブックはシングルクリックで共有でき、同僚は同一の場所に保存される同一のノートブックを取得できます。
Amazon SageMaker は、推論をすばやくトレーニングして実行するために使用できる、あらかじめ構築されたコンテナイメージで利用可能な 15 を超える組み込みアルゴリズムも提供します。

Amazon SageMaker Studio ノートブックはワンクリック Jupyter ノートブックであり、基盤となるコンピューティングリソースは完全に伸縮性があるため、利用可能なリソースを簡単にダイヤルアップまたはダイヤルダウンできます。ノートブックはシングルクリックで共有でき、同僚は同一の場所に保存される同一のノートブックを取得できます。

Amazon SageMaker は、推論をすばやくトレーニングして実行するために使用できる、あらかじめ構築されたコンテナイメージで利用可能な 15 を超える組み込みアルゴリズムも提供します。
Amazon SageMaker JumpStart は、数回クリックするだけでデプロイできる、あらかじめ構築されたソリューションを使用して、機械学習をすばやく開始するのに役立ちます。SageMaker JumpStart は、150 を超える人気のオープンソースモデルのワンクリックデプロイと微調整もサポートしています。
Amazon SageMaker Autopilot は、完全な制御と可視性を維持しながら、データに基づいて最適な機械学習モデルを自動的に構築、トレーニング、および調整します。その後、ワンクリックでモデルを本番環境に直接デプロイするか、イテレーションを行ってモデルの質を向上させることができます。
Amazon SageMaker JumpStart は、数回クリックするだけでデプロイできる、あらかじめ構築されたソリューションを使用して、機械学習をすばやく開始するのに役立ちます。SageMaker JumpStart は、150 を超える人気のオープンソースモデルのワンクリックデプロイと微調整もサポートしています。
Amazon SageMaker Autopilot は、完全な制御と可視性を維持しながら、データに基づいて最適な機械学習モデルを自動的に構築、トレーニング、および調整します。その後、ワンクリックでモデルを本番環境に直接デプロイするか、イテレーションを行ってモデルの質を向上させることができます。
Amazon SageMaker は、TensorFlow、Apache MXNet、PyTorch など、多くの一般的な深層学習フレームワーク向けに最適化されています。フレームワークは、最新バージョンにおいて常に最新の状態であり、AWS でのパフォーマンスのために最適化されています。これらのフレームワークは手動でセットアップする必要がなく、組み込みのコンテナ内で使用できます。

Amazon SageMaker は、TensorFlow、Apache MXNet、PyTorch、Chainer など、多くの一般的な深層学習フレームワーク向けに最適化されています。フレームワークは、最新バージョンにおいて常に最新の状態であり、AWS でのパフォーマンスのために最適化されています。これらのフレームワークは手動でセットアップする必要がなく、組み込みのコンテナ内で使用できます。
Amazon SageMaker を使用すると、ローカルでテストとプロトタイプを作成できます。GitHub では、Apache MXNet と TensorFlow Docker コンテナを SageMaker で使用できます。これらのコンテナをダウンロードし、Python SDK を使用して、トレーニングまたはホスティングにデプロイする前にスクリプトをテストできます。
Amazon SageMaker は、従来の教師あり/教師なし学習に加え、強化学習をサポートします。SageMaker に、フルマネージド型の強化学習アルゴリズムが組み込まれました。これには学術文献における最新/最高のパフォーマンスがいくつか含まれています。
Amazon SageMaker を使用すると、ローカルでテストとプロトタイプを作成できます。GitHub では、Apache MXNet と TensorFlow Docker コンテナを SageMaker で使用できます。これらのコンテナをダウンロードし、Python SDK を使用して、トレーニングまたはホスティングにデプロイする前にスクリプトをテストできます。
Amazon SageMaker は、従来の教師あり/教師なし学習に加え、強化学習をサポートします。SageMaker に、フルマネージド型の強化学習アルゴリズムが組み込まれました。これには学術文献における最新/最高のパフォーマンスがいくつか含まれています。
モデルのトレーニングと調整
Amazon SageMaker Experiments は、入力パラメータ、設定、および結果を取得し、こうした内容を「実験結果」として保存することで、ML モデルに対するイテレーションを追跡しやすくします。SageMaker Studio では、アクティブな実験を参照したり、以前の実験を検索したり、以前の実験とその結果を確認したり、実験結果を比較したりできます。
Amazon SageMaker Experiments は、入力パラメータ、設定、および結果を取得し、こうした内容を「実験結果」として保存することで、ML モデルに対するイテレーションを追跡しやすくします。SageMaker Studio では、アクティブな実験を参照したり、以前の実験を検索したり、以前の実験とその結果を確認したり、実験結果を比較したりできます。
Amazon SageMaker Debugger は、メトリクスとプロファイルのトレーニングジョブをリアルタイムでキャプチャするため、モデルを本番環境にデプロイする前にパフォーマンスの問題をすばやく修正できます。
Amazon SageMaker はトレーニングコストを最大で 90% 削減できるようマネージドスポットトレーニングを提供します。トレーニングジョブはコンピューティング性能に空きができた時点で自動的に実行され、空き状況の変化によって処理が中断しても復帰できるように作成されています。

Amazon SageMaker Debugger は、メトリクスとプロファイルのトレーニングジョブをリアルタイムでキャプチャするため、モデルを本番環境にデプロイする前にパフォーマンスの問題をすばやく修正できます。

Amazon SageMaker はトレーニングコストを最大で 90% 削減できるようマネージドスポットトレーニングを提供します。トレーニングジョブはコンピューティング性能に空きができた時点で自動的に実行され、空き状況の変化によって処理が中断しても復帰できるように作成されています。
Amazon SageMaker は何千ものアルゴリズムパラメータの組み合わせを調節してモデルを自動的にチューニングし、モデルが出し得る最も正確な予測に到達します。これにより、数週間分の労力を削減できます。自動モデルチューニングでは、機械学習を利用して素早くモデルを調整します。
Amazon SageMaker Training Compiler は、GPU をより効率的に利用するグラフおよびカーネルレベルの最適化により、トレーニングを最大 50% 加速します。SageMaker のバージョンの TensorFlow および PyTorch と統合されているため、これらの一般的なフレームワークでのトレーニングを高速に行えます。
トレーニングするときは、データの場所を指定し、SageMaker インスタンスのタイプを指定して、シングルクリックで開始します。SageMaker は分散型コンピュータクラスターをセットアップし、トレーニングを行い、結果を Amazon Simple Storage Service (S3) に出力し、クラスターを解体します。
Amazon SageMaker を使用すると、分散トレーニングの実行が高速になります。SageMaker は、データを複数の GPU に分割し、ほぼリニアなスケーリング効率の実現に役立ちます。SageMaker は、10 行未満のコードでモデルを自動的にプロファイリングおよびパーティション化することにより、モデルを複数の GPU に分割するのにも役立ちます。

トレーニングするときは、データの場所を指定し、SageMaker インスタンスのタイプを指定して、シングルクリックで開始します。SageMaker は分散型コンピュータクラスターをセットアップし、トレーニングを行い、結果を Amazon Simple Storage Service (S3) に出力し、クラスターを解体します。

Amazon SageMaker を使用すると、分散トレーニングの実行が高速になります。SageMaker は、データを複数の GPU に分割し、ほぼリニアなスケーリング効率の実現に役立ちます。SageMaker は、10 行未満のコードでモデルを自動的にプロファイリングおよびパーティション化することにより、モデルを複数の GPU に分割するのにも役立ちます。
モデルを本番環境にデプロイする
Amazon SageMaker Pipelines を使用して、データの準備、モデルトレーニング、およびモデルのデプロイにまたがる完全な ML ライフサイクルの完全に自動化されたワークフローを構築します。
Amazon SageMaker Model Monitor は、デプロイ済みのモデルでコンセプトドリフトを検出し、問題を特定するのに役立つ詳細なアラートを出します。これにより、時間の経過とともにモデルの質を改善できます。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。

Amazon SageMaker Pipelines を使用して、データの準備、モデルトレーニング、およびモデルのデプロイにまたがる完全な ML ライフサイクルの完全に自動化されたワークフローを構築します。

Amazon SageMaker Model Monitor は、デプロイ済みのモデルでコンセプトドリフトを検出し、問題を特定するのに役立つ詳細なアラートを出します。これにより、時間の経過とともにモデルの質を改善できます。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。
断続的で予測不可能な使用パターンのユースケースのために、Amazon SageMaker Serverless Inference (プレビュー) は、サーバーやクラスターを気にすることなく、使用量に応じた料金で機械学習モデルをデプロイすることができます。Amazon SageMaker は、自動的にコンピューティング性能をプロビジョン、スケール、およびオフにします。
SageMaker Inference Recommender は、最適なデプロイ設定の選択やロードテストの実行を支援し、カスタムテストインフラストラクチャを管理することなく、推論パフォーマンスを最小コストで最適化します。推奨されるいずれかのインスタンスにモデルをデプロイするか、選択した一連のインスタンスタイプでフルマネージドのロードテストを実行できます。インフラストラクチャのテストを心配する必要はありません。
多くの機械学習アプリケーションでは、結果が正しいかどうかを確認するため、人間が信頼性の低い予測を確認する必要があります。Amazon Augmented AI は一般的な機械学習のユースケース用にビルトインの人間レビューワークフローを提供します。
多くの機械学習アプリケーションでは、結果が正しいかどうかを確認するため、人間が信頼性の低い予測を確認する必要があります。Amazon Augmented AI は一般的な機械学習のユースケース用にビルトインの人間レビューワークフローを提供します。
Amazon SageMaker バッチ変換を使用すると、バッチ処理ジョブのために大きなデータセットのサイズを変更する必要がなくなります。バッチ変換により、単純な API を使用して、大小のバッチデータセットに対する予測を実行できます。
Amazon SageMaker を使用しながら、オーケストレーションとパイプラインの管理に Kubernetes と Kubeflow を使用することもできます。SageMaker では、Kubernetes Operators を使用して SageMaker でモデルをトレーニングおよびデプロイできます。また、SageMaker Components for Kubeflow Pipelines を使用すると、ML 用の Kubernetes を管理しなくても SageMaker を使用できます。

Amazon SageMaker バッチ変換を使用すると、バッチ処理ジョブのために大きなデータセットのサイズを変更する必要がなくなります。バッチ変換により、単純な API を使用して、大小のバッチデータセットに対する予測を実行できます。

Amazon SageMaker を使用しながら、オーケストレーションとパイプラインの管理に Kubernetes と Kubeflow を使用することもできます。SageMaker では、Kubernetes Operators を使用して SageMaker でモデルをトレーニングおよびデプロイできます。また、SageMaker Components for Kubeflow Pipelines を使用すると、ML 用の Kubernetes を管理しなくても SageMaker を使用できます。
Amazon Elastic Inference を使用することで、コードの変更を必要とせずに、Amazon SageMaker のインスタンスタイプに適切な量の GPU による推論アクセラレーションをアタッチすることが可能になります。
Amazon Elastic Inference を使用することで、コードの変更を必要とせずに、Amazon SageMaker のインスタンスタイプに適切な量の GPU による推論アクセラレーションをアタッチすることが可能になります。
Amazon SageMaker を本番稼働用環境に簡単にデプロイして、リアルタイムデータやバッチデータに対する予測の生成を開始できます。複数のアベイラビリティーゾーンに渡って自動スケーリング上にモデルをワンクリックデプロイし、冗長性を高めることができます。
Amazon SageMaker では、多数のカスタム機械学習モデルをデプロイするためのスケーラブルで費用対効果の高い方法を提供します。SageMaker マルチモデルエンドポイントを使用すると、1 つのエンドポイントを 1 回クリックするだけで複数のモデルをデプロイし、1 つの提供コンテナを使用してサービスを提供できます。

Amazon SageMaker を本番稼働用環境に簡単にデプロイして、リアルタイムデータやバッチデータに対する予測の生成を開始できます。複数のアベイラビリティーゾーンに渡って自動スケーリング上にモデルをワンクリックデプロイし、冗長性を高めることができます。

Amazon SageMaker では、多数のカスタム機械学習モデルをデプロイするためのスケーラブルで費用対効果の高い方法を提供します。SageMaker マルチモデルエンドポイントを使用すると、1 つのエンドポイントを 1 回クリックするだけで複数のモデルをデプロイし、1 つの提供コンテナを使用してサービスを提供できます。
Amazon SageMaker では、推論パイプラインをデプロイできます。未加工の入力データを渡したり、リアルタイムまたは一括の推論で前処理、予測、後処理を実行したりできます。特徴データ処理と特徴エンジニアリングのパイプラインを構築し、これらを推論パイプラインの一部としてデプロイできます。
Amazon SageMaker では、推論パイプラインをデプロイできます。未加工の入力データを渡したり、リアルタイムまたは一括の推論で前処理、予測、後処理を実行したりできます。特徴データ処理と特徴エンジニアリングのパイプラインを構築し、これらを推論パイプラインの一部としてデプロイできます。
エッジで機械学習
Amazon SageMaker Neo を使用すると、ML モデルを一度トレーニングすれば、そのモデルをクラウドまたはエッジでデプロイできます。SageMaker Neo は、ML を使用してトレーニングされたモデルを最適化し、最大 2 倍の速度で実行するようにするとともに、メモリの消費量を 1/10 未満にします。
Amazon SageMaker Edge Manager を使用すると、エッジデバイスで実行されているモデルを簡単にモニタリングおよび管理できます。SageMaker Edge Manager は、デバイスからデータを自動的にサンプリングし、モニタリング、ラベル付け、および再トレーニングのためにクラウドに安全に送信するため、モデルの質を継続的に向上させることができます。

Amazon SageMaker Neo を使用すると、ML モデルを一度トレーニングすれば、そのモデルをクラウドまたはエッジでデプロイできます。SageMaker Neo は、ML を使用してトレーニングされたモデルを最適化し、最大 2 倍の速度で実行するようにするとともに、メモリの消費量を 1/10 未満にします。

Amazon SageMaker Edge Manager を使用すると、エッジデバイスで実行されているモデルを簡単にモニタリングおよび管理できます。SageMaker Edge Manager は、デバイスからデータを自動的にサンプリングし、モニタリング、ラベル付け、および再トレーニングのためにクラウドに安全に送信するため、モデルの質を継続的に向上させることができます。