全般

Q: Amazon SageMaker とは何ですか?

Amazon SageMaker は、すべてのデベロッパーやデータサイエンティストが機械学習 (ML) モデルを迅速に構築、トレーニング、デプロイできるようにする完全マネージド型サービスです。SageMaker は高品質モデルの開発を容易にするため、機械学習の各プロセスから負荷の大きな部分を取り除きます。

Q: Amazon SageMaker はどのリージョンで利用できますか?

サポートされる Amazon SageMaker AWS リージョンのリストについては、すべての AWS グローバルインフラストラクチャの AWS リージョン表を参照してください。詳細については、AWS の全般的なリファレンスでリージョンとエンドポイントをご参照ください。

Q: Amazon SageMaker のサービスにはどの程度の可用性がありますか?

Amazon SageMaker では、高可用性が実現されるように設計されています。メンテナンスの時間帯や定期的なダウンタイムはありません。SageMaker API は、Amazon の実績ある高可用性データセンターで実行されます。AWS リージョンごとにサービススタックレプリケーションが 3 施設にまたがって構成されており、サーバー障害やアベイラビリティーゾーンの機能停止が発生した場合に耐障害性を発揮します。

Q: Amazon SageMaker はどのようにコードを保護しますか?

Amazon SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。

Q: Amazon SageMaker では、どのようなセキュリティ対策がなされていますか?

Amazon SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された Amazon S3 バケットをモデルアーティファクトやデータに使用し、KMS キーを SageMaker ノートブック、トレーニングジョブ、およびエンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。Amazon SageMaker は、Amazon Virtual Privacy Cloud (VPC) と AWS PrivateLink もサポートしています。

Q: Amazon SageMaker はモデル、トレーニングデータやアルゴリズムを使用または共有しますか?

Amazon SageMaker は、顧客モデル、トレーニングデータやアルゴリズムを使用または共有しません。お客様がプライバシーとデータセキュリティについて懸念されるのは当然のことです。このため、AWS ではコンテンツの所有権と管理権をお客様にお渡ししています。シンプルかつパワフルなツールによって、自分のコンテンツをどこに保存するかをお客様に決定していただき、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理できるようにしています。また、お客様のコンテンツに対する不正アクセスや開示を防止するよう設計された、洗練された信頼性の高い技術的および物理的な管理を実践しています。お客様のコンテンツの所有権はお客様が保持します。また、お客様のコンテンツを処理、保存、ホストする AWS のサービスはお客様が選択します。いかなる目的であっても、AWS はお客様の同意を得ることなく、お客様のコンテンツにアクセスすることはありません。

Q: Amazon SageMaker の料金はどのように請求されますか?

ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。Amazon SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。実際に使用した分に対してのみ料金が発生します。最低料金や前払いの義務はありません。詳細については、Amazon SageMaker の料金ページを参照してください。

Q: アイドル状態のリソースの検出や停止など、不要な請求を防いで Amazon SageMaker のコストを最適化するにはどうすればよいですか?

Amazon SageMaker のリソース使用率を最適化するために採用できるベストプラクティスがいくつかあります。構成の最適化を伴うアプローチもあれば、プログラムによるソリューションを伴うアプローチもあります。ビジュアルチュートリアルとコードサンプルを含むこの概念についての完全なガイドは、本ブログ記事にあります。

Q: 自分専用のノートブック、トレーニング、またはホスティング環境がある場合はどうなりますか?

Amazon SageMaker は完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を SageMaker に転送したり、SageMaker から転送したりできます。

Q: R は Amazon SageMaker のサポート対象ですか?

はい、R は Amazon SageMaker のサポート対象です。R は、SageMaker Notebook インスタンス内で使用できます。これには、事前インストールされた R カーネルと reticulate ライブラリが含まれています。Reticulate は、Amazon SageMaker Python SDK 向けの R インターフェイスを提供し、機械学習の専門家が R モデルを構築、トレーニング、調整、デプロイできるようにします。 

Q:モデルの不均衡を確認するにはどうすればよいですか?

Amazon SageMaker Clarify は、ML ワークフロー全体で統計的バイアスを検出することにより、モデルの透明性を向上させるのに役立ちます。SageMaker Clarify は、データの準備中、トレーニング後、および時間の経過とともに不均衡をチェックし、ML モデルとその予測を説明するのに役立つツールも備えています。結果は、説明可能性レポートを通じて共有できます。

Q:Amazon SageMaker Clarify はどのようなバイアスを検出しますか?

ML モデルでバイアスを測定することは、バイアスを軽減するための最初のステップです。バイアスは、トレーニングの前とトレーニングの後に測定されることがあるほか、デプロイされたモデルの推論についても測定されることがあります。バイアスの各測定値は、さまざまな公平性の概念に対応しています。単純な公平性の概念を考慮することによってさえも、さまざまな状況で適用可能な多くの異なる対策を見出すことができます。アプリケーションと調査中の状況に有効なバイアスの概念とメトリクスを選択する必要があります。SageMakerは現在、(SageMaker のデータ準備の一環として) トレーニングデータ、(SageMaker Experiments の一環として) トレーニングされたモデル、および (SageMaker Model Monitor の一環として) デプロイされたモデルの推論についてのさまざまなバイアスメトリクスの計算をサポートしています。例えば、トレーニングの前に、トレーニングデータが代表的であるか (つまり、1 つのグループが過小評価されているか)、およびグループ間でラベルの分布に違いがあるかを確認するためのメトリクスを提供します。トレーニング後またはデプロイ中に、モデルのパフォーマンスがグループ間で異なるか (およびどの程度異なるか) を測定するために、メトリクスが役立ちます。例えば、エラー率 (モデルの予測が実際のラベルと異なる確率) を比較することから始めたり、適合率 (正の予測が正しい確率) および再現率 (モデルが正の例に正しくラベルを付ける確率) を示すようにさらに分解したりします。

Q:Amazon SageMaker Clarify はモデルの説明可能性をどのように改善しますか?

Amazon SageMaker Clarify は SageMaker Experiments と統合されており、トレーニングされた後のモデルの全体的な意思決定プロセスにおける各入力の重要度を詳細に示す特徴の重要度のグラフを提供します。これらの詳細は、特定のモデル入力がモデル全体の動作に必要以上の影響を与えるかどうかを判断するのに役立ちます。また、SageMaker Clarify では、個々の予測結果に対する解説を API で公開しています。
 

Q:Amazon SageMaker Studio とは何ですか?

Amazon SageMaker Studio は単独のウェブベースビジュアルインターフェイスを装備し、そこではすべての ML 開発手順を実行できます。SageMaker Studio はモデルの構築、トレーニング、デプロイに必要な各ステップに対し、完全なアクセス、管理、可視性をもたらします。データのアップロード、新規ノートブックの作成、モデルのトレーニングと調整、ステップ間での移動などを迅速にこなし、さまざまな試みを調整したり、結果を比較したり、本番環境にモデルをデプロイするといった処理をすべて 1 か所から実行でき、生産性を飛躍的に向上できます。ノートブック、試作管理、自動のモデル作成、デバッグ、プロファイリング、モデルの変動検出など、すべての ML 開発手順は SageMaker Studio のビジュアルインターフェイスで実行できます。

Q: Amazon SageMaker Studio の料金はどのような仕組みになっていますか?

Amazon SageMaker Studio は、追加料金なしで利用できます。Amazon SageMaker Studio 内で使用するサービスの基礎となるコンピューティングおよびストレージ料金のみを支払います。

Q:Amazon SageMaker Studio はどのリージョンでサポートされていますか?

Amazon SageMaker Studio がサポートされているリージョンは、こちらのドキュメントでご覧いただけます。

ローコード機械学習

Q:Amazon SageMaker Autopilot とは何ですか?

Amazon SageMaker Autopilot は業界初の自動化された機械学習機能で、ユーザーは自分の ML モデルをすべてコントロールし、完全に可視化できます。SageMaker Autopilot は自動的に raw データを検証し、機能プロセッサを適用して、最適なアルゴリズムのセットを選出します。そして、複数のモデルをトレーニングおよび調整し、パフォーマンスを追跡、その後、パフォーマンスに基づいてモデルをランク付けします。これらすべての処理がわずか数クリックで実行できます。その結果、通常ではモデルのトレーニングに要するのと同程度のわずかな時間で、最高のパフォーマンスを備えたモデルをデプロイできます。モデルがどのように作成され、その中身が何かまで完全に見える化でき、SageMaker Autopilot は Amazon SageMaker Studio と統合します。SageMaker Studio 内で SageMaker Autopilot によって生成されたモデルを最高 50 種類まで試すことができるので、ユースケースに最適なモデルを簡単に選べます。SageMaker Autopilot はモデルを簡単に作成するために、機械学習の経験のないユーザーにも使用できるほか、経験を積んだデベロッパーが使用してすばやく基盤となるモデルを作成し、それをチームがさらに繰り返し使用することもできます。

Q: Amazon SageMaker Autopilot ではどのような組み込みアルゴリズムをサポートしていますか?

Amazon SageMaker Autopilot は、2 つの組み込みアルゴリズムをサポートします。XGBoost と Linear Learner です。

Q: Amazon SageMaker Autopilot のジョブを手動で停止できますか?

はい。ジョブはいつでも停止できます。Amazon SageMaker Autopilot ジョブが停止すると、進行中のすべてのトライアルが停止し、新しいトライアルは開始されません。

Q: Amazon SageMaker の使用を迅速に開始するにはどのようにすればよいですか?

Amazon SageMaker JumpStart は、機械学習をすばやく簡単に開始するのに役立ちます。SageMaker JumpStart は、最も一般的なユースケース向けの一連のソリューションを提供し、数回クリックするだけで簡単にデプロイできます。ソリューションは完全にカスタマイズ可能であり、AWS CloudFormation テンプレートとリファレンスアーキテクチャの使用を紹介しているため、機械学習の導入を加速できます。SageMaker JumpStart は、トランスフォーマー、オブジェクト検出、画像分類モデルなど、150 を超える人気のオープンソースモデルのワンクリックデプロイと微調整もサポートしています。
 

Q: Amazon SageMaker JumpStart でサポートされているオープンソースモデルはどれですか?

Amazon SageMaker JumpStart には、PyTorch Hub と TensorFlow Hub の 150 以上の事前にトレーニングされたオープンソースモデルが含まれています。画像分類やオブジェクト検出などの視覚タスクでは、ResNet、MobileNet、Single-Shot Detector (SSD) などのモデルを活用できます。文の分類、テキストの分類、質問応答などのテキストタスクには、BERT、RoBERTa、DistilBERT などのモデルを使用できます。

Q: Amazon SageMaker Jumpstart に含まれる、あらかじめ構築されたソリューションは何ですか?

SageMaker JumpStart には、ソリューションを本番環境に起動するために必要なすべての AWS のサービスで事前に設定されたソリューションが含まれています。ソリューションは完全にカスタマイズ可能であるため、特定のユースケースやデータセットに合わせて簡単に変更できます。需要予測、不正検出、予知保全など、15 を超えるユースケースにソリューションを使用でき、数回クリックするだけでソリューションを簡単にデプロイできます。利用可能なすべてのソリューションの詳細については、SageMaker の開始方法のページをご覧ください。
 

Q: Amazon SageMaker JumpStart の料金体系はどのようになっていますか?

SageMaker の料金体系に基づいて、トレーニングジョブやエンドポイントなどの SageMaker JumpStart から起動した AWS のサービスに対して課金されます。 Amazon SageMaker JumpStart は、追加料金なしでご利用いただけます。

機械学習ワークフロー

Q:Amazon SageMaker で CI/CD パイプラインを構築するにはどうすればよいですか?

Amazon SageMaker Pipelines は、データの準備からモデルのデプロイまで、完全に自動化された ML ワークフローを作成するのに役立ちます。これにより、本番環境で数千の ML モデルにスケールできます。SageMaker Pipelines には SageMaker Studio に接続する Python SDK が含まれているため、ビジュアルインターフェイスを利用してワークフローの各ステップを構築できます。その後、単一の API を使用し、各ステップをつなげて、エンドツーエンドのワークフローを作成できます。SageMaker Pipelines は、ステップ間のデータの管理、コードレシピのパッケージ化、および実行の調整を行い、コーディングに費やす数か月に及ぶ時間を数時間に短縮します。ワークフローが実行されるたびに、処理されたデータと実行されたアクションの完全な記録が保持されるため、データサイエンティストと ML デベロッパーは問題をすばやくデバッグできます。

Q: トレーニングされたすべてのモデルを表示して、本番環境に移行するのに最適なモデルを選択するにはどうすればよいですか?

Amazon SageMaker Pipelines は、モデルレジストリと呼ばれるトレーニングされたモデルの一元的なリポジトリを提供します。モデルを検出し、SageMaker Studio を介して視覚的に、または Python SDK を介してプログラムでモデルレジストリにアクセスできるため、本番環境にデプロイすることを希望するモデルを簡単に選択できます。

Q: Amazon SageMaker のどのコンポーネントを Amazon SageMaker Pipelines に追加できますか?

SageMaker Clarify、SageMaker Data Wrangler、SageMaker Feature Store、SageMaker Experiments、SageMaker Debugger、およびSageMaker Model Monitor などの Amazon SageMaker Studio を通じて利用できるコンポーネントを SageMaker Pipelines に追加できます。

Q: ML ワークフロー全体でモデルコンポーネントを追跡するにはどうすればよいですか?

Amazon SageMaker Pipelines は、すべてのモデル構成要素を自動的に追跡し、すべての変更の監査証跡を保持することで、手動の追跡を排除し、コンプライアンスの目標を達成するのに役立ちます。SageMaker Pipelines を使用して、データ、コード、トレーニングされたモデルなどを追跡できます。

Q: Amazon SageMaker Pipelines の料金体系はどのようになっていますか?

Amazon SageMaker Pipelines は、追加料金なしでご利用いただけます。SageMaker Pipelines 内で使用する基盤となるコンピューティングまたは個別の AWS のサービスに対してのみ料金を支払います。

Q:Amazon SageMaker で Kubeflow を使用できますか?

はい。Amazon SageMaker Components for Kubeflow Pipelines は、Kubeflow Pipelines を使用して機械学習ワークフローを定義し、データのラベル付け、トレーニング、および推論のステップで SageMaker を使用するためのオープンソースのプラグインです。Kubeflow Pipelines は、ポータブルでスケーラブルなエンドツーエンドの機械学習パイプラインを構築してデプロイできる、Kubeflow のアドオンです。ただし、Kubeflow Pipelines を使用する場合、機械学習運用チームは CPU や GPU インスタンスを使用して Kubernetes クラスターを管理し、常に稼働率を高く保って運用コストを削減する必要があります。データサイエンスチーム全体でクラスターの利用率を最大化することは簡単ではなく、機械学習運用チームに余計な運用経費を負担させることになります。機械学習に最適化された Kubernetes クラスターの代わりに、Amazon SageMaker Components for Kubeflow Pipelines を使用できます。これにより、機械学習ジョブを実行するための特別な Kubernetes クラスターの構成や管理をしなくても、データのラベル付け、フルマネージドの大規模なハイパーパラメータ調整、分散トレーニングジョブ、ワンクリックでの安全でスケーラブルなモデルのデプロイ、Amazon EC2 スポットインスタンスでの費用対効率が高いトレーニングなど、強力な SageMaker の機能を利用できます。

Q: Amazon SageMaker Components for Kubeflow Pipelines の料金体系はどのようになっていますか?

Amazon SageMaker Components for Kubeflow Pipelines は、追加料金なしで利用できます。
 

データを準備する

Q:Amazon SageMaker は、機械学習用のデータをどのように準備できますか?

Amazon SageMaker Data Wrangler は、機械学習用のデータを集約して準備するのにかかる時間を短縮します。SageMaker Studio の単一のインターフェイスを通じて、Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、および Amazon SageMaker Feature Store からデータをインポートできます。数回クリックするだけで、SageMaker Data Wrangler がraw データを自動的にロード、集約、および表示します。その後、ソースデータに基づいて変換の推奨事項を作成し、データを新しい特徴に変換し、その特徴を検証し、誤ったラベルなどの一般的なエラーの原因を取り除く方法に関する推奨事項とともに視覚的なデータを提供します。データの準備ができたら、Amazon SageMaker Pipelines を使用して完全に自動化された機械学習ワークフローを構築し、そのデータを Amazon SageMaker Feature Store にインポートできます。

Q: Amazon SageMaker Data Wrangler でモデルの特徴を作成するにはどうすればよいですか?

Amazon SageMaker Data Wrangler は、1 行のコードも必要とすることなく、データを新しい特徴に自動的に変換できます。SageMaker Data Wrangler では、列タイプの変換、1 つのホットエンコーディング、平均値または中央値を用いた不足データの補完、列の再スケール、データ/時間の埋め込みなど、事前設定されたデータ変換を選択できます。例えば、テキストフィールドの列を 1 回のクリックで数値の列に変換したり、PySpark、SQL、および Pandas でカスタム変換を作成したりできます。

Q: Amazon SageMaker Data Wrangler でデータを視覚化するにはどうすればよいですか?

Amazon SageMaker Data Wrangler は、堅牢な事前設定済みの視覚的なテンプレートのセットを使用して、データを理解し、潜在的なエラーと極値を特定するのに役立ちます。ヒストグラム、散布図、およびターゲット漏えい検出などの ML 固有の視覚化はすべて、1 行のコードも記述することなく利用できます。独自の視覚的なデータを作成および編集することもできます。

Q: Amazon SageMaker Data Wrangler の料金体系はどのようになっていますか?

Amazon SageMaker Data Wrangler に使用するすべての ML コンピューティング、ストレージ、およびデータ処理リソースに対して料金を支払います。Amazon SageMaker Data Wrangler の料金設定のすべての詳細は、こちらでご確認いただけます。AWS 無料利用枠の一環として、SageMaker Data Wrangler を無料で開始することもできます。

Q: ML モデルの特徴を保存するにはどうすればよいですか?

Amazon SageMaker Feature Store は、読み取りと書き込みのレイテンシーが低い (ミリ秒) データの特徴のための一元的なリポジトリを提供します。特徴は SageMaker Feature Store を介して保存、取得、検出、および共有できるため、安全なアクセスと制御により、モデルやチーム間で簡単に再利用できます。SageMaker Feature Store は、バッチまたはストリーミングパイプラインを介して生成されたオンライン特徴とオフライン特徴の両方をサポートします。特徴のバックフィルをサポートし、モデルトレーニングと推論で使用される特徴間の均衡を維持するために、オンラインストアとオフラインストアの両方を提供します。

Q: オンライン特徴とオフライン特徴の一貫性を維持するにはどうすればよいですか?

Amazon SageMaker Feature Store は、追加の管理やコードを必要とせずに、オンライン特徴とオフライン特徴の間の一貫性を自動的に維持します。SageMaker Feature Store はフルマネージド型であり、トレーニング環境と推論環境全体で一貫性を維持します。

Q: 特定の時点から特徴を再現するにはどうすればよいですか?

Amazon SageMaker Feature Store は、あらゆる時点におけるすべての特徴のタイムスタンプを維持しています。これにより、ビジネス要件またはコンプライアンス要件を満たすために、いつでも特徴を取得できます。特定の時点からモデルを再現することで、最初に作成されてから現在に至るまでのモデルの特徴とその価値を簡単に説明できます。

Q: オフライン特徴とは何ですか?

オフライン特徴はトレーニングに使用されます。これは、長期間にわたって大量にアクセスする必要があるためです。これらの特徴は、高スループット、高帯域幅のリポジトリから提供されます。

Q: オンライン特徴とは何ですか?

オンライン特徴は、リアルタイムの予測を行うために必要なアプリケーションで使用されます。オンライン特徴は、高速予測のために、レイテンシーが 1 桁のミリ秒の高スループットリポジトリから提供されます。

Q:Amazon SageMaker Feature Store の料金体系はどうなっていますか?


AWS 無料利用枠の一環として、Amazon SageMaker Feature Store の使用を無料で開始できます。SageMaker Feature Store では、特徴ストアへの書き込み、オンライン特徴ストアからの読み取りとストレージの料金をお支払いいただきます。SageMaker の料金ページでは、SageMaker Feature Store の料金体系に関するすべての詳細をご覧いただけます。

Q: Amazon SageMaker Ground Truth とは何ですか?

Amazon SageMaker Ground Truth では、機械学習を使用してデータのラベル付けを自動化できます。SageMaker Ground Truth では、まずデータのランダムなサンプルが選択され、 Amazon Mechanical Turk がラベルを付けることができるよう送信されます。人によるラベル付けの結果は、ラベル付けモデルのトレーニングの際に、未加工データの新しいサンプルに自動的にラベルを付けるために使用されます。モデルによるデータへのラベル付けの品質がお客様の設定したしきい値以上になる場合、そのラベルが確定されます。信頼性スコアがしきい値を下回る場合、データが人に送信され、人がラベルを付けます。人がラベルを付けたデータの一部は、ラベル付けモデルの新しいトレーニングデータセットを生成するために使用され、モデルは精度を向上させるために自動的に再トレーニングされます。未加工データの各サンプルにラベルを付けるために、このプロセスが繰り返されます。繰り返されるたびに、そのラベル付けモデルでは、未加工データに自動的にラベルを付ける性能が向上し、人に転送されるデータが減少します。
 

モデルの構築

Q: Amazon SageMaker Studio ノートブックとは?

Amazon SageMaker Studio ノートブックは、協調的で柔軟なマネージド型の Jupyter ノートブックです。機械学習に向けて完全に統合された開発環境である Amazon SageMaker Studio の一部です。

Q: SageMaker Studio ノートブックは、インスタンスベースのノートブック製品とどう違いますか?

SageMaker Studio ノートブックは、インスタンスベースのノートブックとは異なるいくつかの重要な機能を提供します。Studio ノートブックでは、インスタンスを手動でプロビジョニングして操作可能になるのを待つ必要なく、ノートブックをすばやく起動できます。ノートブックを読み取って実行するために UI を起動する起動時間は、インスタンスベースのノートブックよりも高速です。

また、いつでも UI 内からインスタンスタイプの大規模なコレクションを柔軟に選択できます。新しいインスタンスを起動したり、ノートブックに移植したりするために、AWS コンソールにアクセスする必要はありません。

各ユーザーには、特定のインスタンスに依存しない独立したホームディレクトリがあります。このディレクトリは、起動時にすべてのノートブックサーバーとカーネルに自動的にマウントされるため、インスタンスを切り替えてノートブックを表示して実行する場合でも、ノートブックやその他のファイルにアクセスできます。

SageMaker Studio ノートブックは AWS SSO と統合されているため、組織の認証情報を使用してノートブックに簡単にアクセスできます。ノートブックの共有は、SageMaker Studio ノートブックに統合された機能です。ワンクリックでノートブックを同僚と共有することもできます。

Q:Amazon SageMaker Studio ノートブックはどのように機能しますか?

Amazon SageMaker Studio ノートブックは、ワンクリックで Jupyter ノートブックに素早くスピンできます。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。SageMaker ではまた、1 度のクリックでノートブックを共有することもできます。ノートブックを他の人と簡単に共有できます。また、全員が同じ場所に保存された同じノートブックを入手できます。

SageMaker Studio ノートブックでは、AWS SSO を使用して企業の認証情報でサインインできます。チーム内およびチーム間でノートブックを共有するのは簡単ですが、ノートブックを実行するのに必要な依存関係は、ノートブックを共有するときにカプセル化された作業イメージで自動的に追跡されるからです。

Q:Amazon SageMaker Studio ノートブックは他のAWSサービスとどのように連携していますか?

Amazon SageMaker Studio ノートブックを使用すると、分散トレーニング、バッチ変換、ホスティング、実験管理など、SageMaker のすべての機能にアクセスできます。SageMaker ノートブックから、Amazon S3 のデータセット、Amazon Redshift、AWS Glue、Amazon EMR、AWS Lake Formation などの他のサービスにアクセスできます。

Q: SageMaker Studio ノートブックの料金はどのような仕組みになっていますか?

SageMaker Studio ノートブックを使用すると、コンピューティングとストレージの両方の料金が発生します。コンピューティングインスタンスタイプ別の料金については、Amazon SageMaker Pricing を参照してください。ノートブックおよびデータファイルやスクリプトなどの関連するアーティファクトは、Amazon EFS で保持されます。ストレージの料金については、Amazon EFS の料金を参照してください。AWS 無料利用枠内で、Amazon SageMaker Studio ノートブックの使用を無料で開始できます。

Q: SageMaker Studio で作成し、実行する個々のノートブックは、別々に課金されますか?

いいえ。同じコンピューティングインスタンスで複数のノートブックを作成し、実行できます。料金は、個々のアイテムではなく、使用したコンピューティングに対してのみ発生します。詳細については、Usage Metering を参照してください。

Studio では、ノートブックに加え、同じコンピューティングインスタンスで、ターミナルおよび対話型シェルを開始して実行することも可能です。各アプリケーションは、コンテナまたはイメージ内で実行されます。SageMaker Studio では、データサイエンスおよび機械学習専用に事前設定された組み込みイメージがいくつか用意されています。Studio のデベロッパー環境の詳細については、using SageMaker Studio Notebooks のガイドを参照してください。

Q: ノートブックで使用するリソースのモニタリングとシャットダウンは、どのように行えばよいですか?

SageMaker Studio ノートブックで使用するリソースのモニタリングとシャットダウンは、SageMaker Studio のビジュアルインターフェイス、または AWS マネジメントコンソールで行えます。 詳細については、こちらのドキュメントを参照してください。

Q: SageMaker Studio ノートブックを実行しています。ブラウザやノートブックのタブを閉じた場合、またはブラウザを開いたままにしておいた場合、料金は発生しますか?

はい。コンピューティング料金が引き続き発生します。これは、 AWS マネジメントコンソールで Amazon EC2 インスタンスを作成し、その後ブラウザを閉じた場合と同様です。Amazon EC2 インスタンスの実行は継続され、明示的にシャットダウンしない限り、料金が発生します。

Q: Studio ドメインの作成および設定に対して料金は発生しますか?

いいえ。ユーザープロファイルの追加、更新、削除などを含め、Studio ドメインの作成および設定に対しては料金が発生しません。

Q: Studio ノートブックやその他の SageMaker サービスに対する料金の明細は、どのように確認できますか?

管理者は、Studio を含む SageMaker の料金の明細を AWS 請求コンソールで確認できます。SageMaker の AWS マネジメントコンソールで、トップメニューの [Services (サービス)] を選択し、検索ボックスに「Billing (請求)」と入力して、ドロップダウンから [Billing (請求)] を選択します。その後、左側のパネルで [Bills (請求書)] を選択します。[Details] (詳細) セクションで、[SageMaker] をクリックしてリージョンの一覧を展開し、料金の明細を確認できます。

モードのトレーニング

Q:Amazon SageMaker Experiments とは何ですか?

Amazon SageMaker Experiments は機械学習モデルへの繰り返し処理を調整および追跡するのに役立ちます。SageMaker Experiments は入力パラメータ、構成、結果などを自動的に捕捉し、こうした内容を「実験結果」として保存することで、繰り返し作業を管理しやすくします。ユーザーは SageMaker Studio の視覚的なインターフェイス上で作業できます。ここでは、アクティブな実験結果を参照したり、性質別に前回の実験結果を検索したり、あるいは、その結果とともに前回の実験を検証、または実験結果を視覚的に比較できます。

Q:Amazon SageMaker Debugger とは何ですか?

Amazon SageMaker Debugger はモデルの精度を改善するために、混同行列、学習勾配といったリアルタイムのメトリクスをトレーニング中に自動取得します。SageMaker Debugger から取得したメトリクスは、容易に理解できるよう SageMaker Studio で視覚化できます。SageMaker Debugger は一般的なトレーニングの問題が検出されたときに、警告や修復のアドバイスを生成することもできます。SageMaker Debugger は、CPU、GPU、ネットワーク、メモリなどのシステムリソースをリアルタイムで自動的にモニタリングおよびプロファイリングし、これらのリソースの再割り当てに関する推奨事項を提供します。これにより、トレーニング中にリソースを効率的に使用でき、費用とリソースを削減できます。

Q:Amazon SageMaker は分散トレーニングをサポートしていますか?

はい。Amazon SageMaker は、これらの配布戦略を手動で構築して最適化するのにかかる時間の何分の 1 かで、深層学習モデルと大規模なトレーニングセットを AWS の GPU インスタンス全体に自動的に配布できます。SageMaker が適用する 2 つの分散トレーニング手法とは、データの並列処理とモデルの並列処理です。データの並列処理は、データを複数の GPU インスタンスに均等に分割し、各インスタンスが同時にトレーニングできるようにすることで、トレーニング速度を向上させるために適用されます。モデルの並列処理は、モデルが大きすぎて単一の GPU に格納できず、複数の GPU に分散する前にモデルを小さな部分にパーティション化する必要がある場合に役立ちます。PyTorch および TensorFlow トレーニングスクリプトに数行の追加コードを追加するだけで、SageMaker はデータの並列処理またはモデルの並列処理を自動的に適用し、モデルの開発とデプロイをより迅速に行えるようにします。SageMaker は、グラフ分割アルゴリズムを使用して各 GPU 計算のバランスを取りながら、GPU インスタンス間の通信を最小限に抑えることで、モデルを分割するための最良のアプローチを決定します。SageMaker はまた、AWS コンピューティングとネットワークを完全に活用するアルゴリズムを通じて分散トレーニングジョブを最適化し、ほぼリニアなスケーリング効率を実現します。これにより、手動のオープンソース実装よりも速くトレーニングを完了できます。

Q: マネージドスポットトレーニングとは何ですか?

Amazon SageMaker を使ったマネージドスポットトレーニングでは、Amazon EC2 スポットインスタンスを使用して機械学習モデルをトレーニングでき、モデルのトレーニングコストを最大 90% 削減します。

Q: マネージドスポットトレーニングはどのように使用するのですか?

トレーニングジョブを送信する際にマネージドスポットトレーニングのオプションを有効にし、スポット容量の待機時間も指定します。これで、Amazon SageMaker が Amazon EC2 スポットインスタンスを使ってジョブを実行し、スポット容量を管理します。トレーニングジョブの実行中や容量を待機中に、トレーニングジョブのステータスを完全に把握できます。

Q: マネージドスポットトレーニングはいつ使用したらいいですか?

マネージドスポットトレーニングは、トレーニングの実行に柔軟性があり、トレーニングジョブのコストを最小限に抑えたい場合に適しています。マネージドスポットトレーニングを使用すれば、機械学習モデルのトレーニングコストを最大 90% 削減することができます。

Q: マネージドスポットトレーニングの仕組みを教えてください

マネージドスポットトレーニングは、トレーニングに Amazon EC2 スポットインスタンスを使用します。これらのインスタンスは AWS が容量を必要とする場合に、前もって取得しておくことができます。そのため、容量が使用可能になったとき、マネージドスポットトレーニングジョブを少しずつ実行できます。Amazon SageMaker は最新のモデルチェックポイントを使ってトレーニングジョブを再開できるため、中断があっても、トレーニングジョブを最初から再開する必要はありません。SageMaker のビルトインフレームワークとビルトインコンピュータービジョンアルゴリズムにより、定期的なチェックポイントを有効にできます。あるいはカスタムモデルでチェックポイントを有効にできます。

Q: マネージドスポットトレーニングに定期的なチェックポイントを行う必要はありますか?

長期的なトレーニングジョブには、普通、定期的なチェックポイントをお勧めします。これにより、容量を前もって取得しておいた場合でも、マネージドスポットトレーニングジョブが再開されないようになります。チェックポイントを有効にすると、Amazon SageMaker はマネージドスポットトレーニングジョブを最後のチェックポイントから再開します。

Q: マネージドスポットトレーニングジョブでのコスト削減をどのように計算するのですか?

マネージドスポットトレーニングジョブを完了すると、AWS マネジメントコンソールで節約額を確認できます。また、トレーニングジョブを実行した期間と課金された期間との差の割合を出して、いくらコスト削減が可能かを計算できます。

マネージドスポットトレーニングジョブが中断された回数に関係なく、データがダウンロードされた時間に対してのみ、課金されます。

Q: マネージドスポットトレーニングではどのインスタンスを使用できますか?

マネージドスポットトレーニングは、Amazon SageMaker でサポートされているすべてのインスタンスで使用できます。

Q: マネージドスポットトレーニングではどの AWS リージョンがサポートされていますか?

マネージドスポットトレーニングは、Amazon SageMaker が現在利用可能なすべての AWS リージョンでサポートされています。

Q: トレーニングで使用できるデータセットのサイズに制限はありますか?

Amazon SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。

Q: Amazon SageMaker ではモデルの生成にどのようなアルゴリズムを使用していますか?

Amazon SageMaker には、線形回帰、ロジスティック回帰、K 平均法クラスタリング、主成分分析、Factorization Machines、ニューラルトピックモデリング、潜在的ディリクレ配分法、勾配ブースティング木、Sequence to Sequence、時系列予測、word2vec、および画像分類のためのアルゴリズムが組み込まれています。SageMaker は、最適化された Apache MXNet、Tensorflow、Chainer、PyTorch、Gluon、Keras、Horovod、Scikit-learn、および Deep GraphLibrary コンテナも提供します。さらに、Amazon SageMaker では、文書化された仕様に準拠した Docker イメージで提供されるカスタムのトレーニングアルゴリズムもサポートしています。

Q: 自動モデルチューニングとは何ですか?

多くの機械学習のアルゴリズムでは、基盤となるアルゴリズムの動作方法を制御するための多様なパラメータに触れることができます。このようなパラメータは、一般的にハイパーパラメータと呼ばれ、その値はトレーニング後のモデルの品質に影響を与えます。自動モデルチューニングは、アルゴリズムで最適なモデルを作成できるような、ハイパーパラメータの組み合わせを見つけるプロセスです。

Q: 自動モデルチューニングでチューニングできるのは、どのようなモデルですか?

Amazon SageMaker の自動モデルチューニングは、科学的な観点から現実的であれば、あらゆるアルゴリズムで行うことができます。これには SageMaker の組み込みアルゴリズム、深層ニューラルネットワーク、Docker イメージの形で SageMaker に持ち込まれる任意のアルゴリズムも含まれます。

Q: 自動モデルチューニングは Amazon SageMaker の外でも使用できますか?

現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、Amazon SageMaker の中で行う必要があります。

Q: どのようなチューニングアルゴリズムを基盤としていますか?

ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を活用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。

Q: チューニングで推奨される具体的なハイパーパラメータはありますか?

いいえ。ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。Amazon SageMaker の組み込みアルゴリズムについては、ハイパーパラメータをチューニングできるかどうか明示しています。

Q: ハイパーパラメータのチューニングジョブには、どのくらいの時間がかかりますか?

ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。

Q: 速さと正確さを両立させるモデルが得られるように、複数の目標値を同時に最適化することはできますか?

現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。

Q: 自動モデルチューニングの料金はいくらですか?

ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって開始されたトレーニングジョブに対し、モデルトレーニングの料金に基づいて請求されます。

Q: Amazon SageMaker Autopilot または Automatic Model Tuning の使用は、どのように判断すればよいですか?

Amazon SageMaker Autopilot は、特に分類および回帰のユースケースに焦点を当てながら、機能の前処理、アルゴリズムの選択、ハイパーパラメータの調整など、典型的な機械学習ワークフローのすべてを自動化します。一方、組み込みアルゴリズム、深層学習フレームワーク、またはカスタムコンテナのいずれに基づいていても、自動モデルチューニングは、任意のモデルを調整するように設計されています。柔軟性と引き換えに、特定のアルゴリズムを手動で選択し、調整するハイパーパラメーターと対応する検索範囲を決定しなければなりません。

Q: 強化学習とは何ですか?

強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。

Q: Amazon SageMaker で強化学習モデルをトレーニングできますか?

はい、Amazon SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。

Q: 強化学習と教師あり学習の違いは何ですか?

教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。

Q: 強化学習はどのような場合に使用すればよいですか?

教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術 (RL) の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動運転車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。

Q: 強化学習モデルのトレーニングにはどのようなタイプの環境が使用できますか?

Amazon SageMaker RL は強化学習モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。

Q: 強化学習モデルのトレーニングのために独自の RL エージェントアルゴリズムを書く必要がありますか?

いいえ。Amazon SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。

Q: 独自の RL ライブラリやアルゴリズム実装を持ち込んで Amazon SageMaker RL で実行することはできますか?

はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを Amazon SageMaker RL で実行できます。

Q: Amazon SageMaker RL を使用して分散型ロールアウトを行うことはできますか?

はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。

モデルのデプロイ

Q:Amazon SageMaker モデルモニターとは何ですか?

Amazon SageMaker Model Monitor によって、デベロッパーがコンセプトドリフトを検出し、修復できるようになります。SageMaker Model Monitor はデプロイ済みのモデルでコンセプトドリフトを検出し、問題の原因を特定するのに役立つ詳細なアラートを出します。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。SageMaker Studio の中で、収集するデータや、その表示方法、アラートを受信するタイミングなどを構成できます。

Q: Amazon SageMaker が実行されているインフラストラクチャにアクセスできますか?

いいえ。Amazon SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをデプロイすることもできます。

Q: 本番環境では Amazon SageMaker モデルのサイズとパフォーマンスをスケールするにはどうしたらよいですか?

Amazon SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。

Q: Amazon SageMaker の本番環境をモニタリングするにはどうしたらよいですか?

Amazon SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、Amazon SageMaker は Amazon CloudWatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。

Q: Amazon SageMaker ではどのようなモデルをホストできますか?

Amazon SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、Amazon SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。

Q: Amazon SageMaker で同時に送信できるリアルタイム API リクエストは何件ですか?

Amazon SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。

Q: バッチ変換とは何ですか?

バッチ変換により、大小のバッチデータに対する予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。

Q: Amazon SageMaker Edge Manager とは何ですか?

Amazon SageMaker Edge Manager は、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、および維持することをより容易にする Amazon SageMaker の機能です。SageMaker Edge Manager は、ML デベロッパーがさまざまなエッジデバイスで ML モデルを大規模に操作するのに役立ちます。

Q: SageMaker Edge Manager の使用を開始するにはどのようにすればよいですか?

SageMaker Edge Manager の使用を開始するには、トレーニングされた ML モデルをクラウドでコンパイルおよびパッケージ化し、デバイスを登録し、SageMaker Edge Manager SDK を使用してデバイスを準備する必要があります。モデルをデプロイする準備をするために、SageMaker Edge Manager は SageMaker Neo を使用して、ターゲットエッジハードウェア用にモデルをコンパイルします。モデルがコンパイルされると、SageMaker Edge Manager は AWS で生成されたキーを使用してモデルに署名し、ランタイムと必要な資格情報とともにモデルをパッケージ化して、デプロイに備えます。デバイス側では、デバイスを SageMaker Edge Manager に登録し、SageMaker Edge Manager SDK をダウンロードしてから、指示に従って SageMaker Edge Manager エージェントをデバイスにインストールします。チュートリアルノートブックは、モデルを準備してエッジデバイス上のモデルを SageMaker Edge Manager に接続する方法についてのステップバイステップの例を提供します。

Q: SageMaker Edge Manager でサポートされているデバイスは何ですか?

Amazon SageMaker Edge Manager は、Linux および Windows オペレーティングシステムで一般的な CPU (ARM、x86) および GPU (ARM、Nvidia) ベースのデバイスをサポートします。将来的には、SageMaker Edge Manager は、SageMaker Neo でもサポートされるより多くの組み込みプロセッサおよびモバイルプラットフォームをサポートするように拡張される予定です。

Q: Amazon SageMaker Edge Manager を使用するには、Amazon SageMaker でモデルをトレーニングする必要がありますか?

いいえ、必要ありません。モデルを他の場所でトレーニングすることも、オープンソースまたはモデルベンダーから提供される事前にトレーニングされたモデルを使用することもできます。

Q: Amazon SageMaker Edge Manager を使用するには、Amazon SageMaker Neo でモデルをコンパイルする必要がありますか?

はい、必要です。Amazon SageMaker Neo は、モデルを実行可能ファイルに変換およびコンパイルします。その後、それをパッケージ化してエッジデバイスにデプロイできます。モデルパッケージがデプロイされると、Amazon SageMaker Edge Manager エージェントはモデルパッケージを解凍し、デバイス上でモデルを実行します。

Q: モデルをエッジデバイスにデプロイするにはどうすればよいですか?

Amazon SageMaker Edge Manager は、指定された Amazon S3 バケットにモデルパッケージを保存します。AWS IoT Greengrass が提供する無線 (OTA) デプロイ機能、またはその他の任意のデプロイメカニズムを使用して、モデルパッケージを S3 バケットからデバイスにデプロイできます。

Q: Amazon SageMaker Edge Manager SDK は SageMaker Neo ランタイム (dlr) とどのように異なりますか?

Neo dlr は、Amazon SageMaker Neo サービスによってコンパイルされたモデルのみを実行するオープンソースランタイムです。オープンソースの dlr と比較すると、SageMaker Edge Manager SDK には、追加のセキュリティ、モデル管理、およびモデル提供機能を備えたエンタープライズグレードのオンデバイスエージェントが含まれています。SageMaker Edge Manager SDK は、大規模な本番環境へのデプロイに適しています。

Q: Amazon SageMaker Edge Manager は AWS IoT Greengrass とどのように関連していますか?

Amazon SageMaker Edge Manager と AWS IoT Greengrass は、お客様の IoT ソリューションで連携できます。ML モデルが SageMaker Edge Manager でパッケージ化されると、AWS IoT Greengrass の OTA 更新機能を使用して、モデルパッケージをデバイスにデプロイできます。AWS IoT Greengrass を使用すると、IoT デバイスをリモートでモニタリングでき、SageMaker Edge Manager は、デバイス上の ML モデルをモニタリングおよび維持するのに役立ちます。

Q: Amazon SageMaker Edge Manager は AWS Panorama とどのように関連していますか? AWS Panorama と対比して、Amazon SageMaker Edge Manager はどのような場合に使用すべきですか?

AWS は、エッジデバイスでモデルを実行するための最も幅広い機能を提供します。コンピュータビジョン、音声認識、予知保全など、幅広いユースケースをサポートするサービスを提供しています。

カメラやアプライアンスなどのエッジデバイスでコンピュータビジョンを実行しようとしている企業の場合は、AWS Panorama を使用できます。Panorama は、エッジデバイス用にすぐデプロイできるコンピュータビジョンアプリケーションを備えています。クラウドコンソールにログインし、Amazon S3 または SageMaker で使用するモデルを指定してから、ビジネスロジックを Python スクリプトとして記述することで、AWS Panorama の使用を簡単に開始できます。AWS Panorama は、ターゲットデバイスのモデルをコンパイルし、アプリケーションパッケージを作成して、数回クリックするだけでデバイスにデプロイできるようにします。さらに、独自のカスタムアプリケーションを構築することを希望する ISV は AWS Panorama SDK を使用でき、デバイスメーカーは Device SDK を使用してデバイスを AWS Panorama 用に認定できます。

独自のモデルを構築し、モデルの特徴をより細かく制御することを希望するお客様は、Amazon SageMaker Edge Manager を使用できます。SageMaker Edge Manager は、自然言語処理、不正検出、予知保全など、あらゆるユースケースにおいて、スマートカメラ、スマートスピーカー、ロボットなどのエッジデバイスのフリート全体で機械学習 (ML) モデルを準備、実行、モニタリング、および更新するためのマネージドサービスです。SageMaker Edge Manager は、モデルを制御し (さまざまなモデルの特徴のエンジニアリングを含む)、モデルのドリフトをモニタリングすることを希望する ML エッジデベロッパー向けです。ML エッジデベロッパーは誰でも、SageMaker コンソールと SageMaker API を介して SageMaker Edge Manager を使用できます。SageMaker Edge Manager は、SageMaker の機能を提供して、クラウド内のモデルを構築、トレーニング、およびエッジデバイスにデプロイします。

Q: どの AWS リージョンで Amazon SageMaker Edge Manager を利用できますか?

Amazon SageMaker Edge Manager は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド)、欧州 (フランクフルト)、およびアジアパシフィック (東京) の 6 つの AWS リージョンでご利用いただけます。詳細については、AWS リージョン表をご覧ください。

Q: Amazon SageMaker Neo とは何ですか?

Amazon SageMaker Neo では、機械学習モデルを一度トレーニングすれば、それをどこでも、クラウドでも、エッジでも実行可能にします。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 25 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。

Q: Amazon SageMaker Neo の使用を開始するにはどうすればよいですか?

Amazon SageMaker Neo の使用を開始するには、Amazon SageMaker コンソールにログオンしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。

Q: Amazon SageMaker Neo の主要なコンポーネントは何ですか?

Amazon SageMaker には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。

Q: モデルの変換に Amazon SageMaker Neo を使用するには、Amazon SageMaker でモデルをトレーニングする必要がありますか?

いいえ。他の場所でモデルをトレーニングし、Neo を使用してそれらを Amazon SageMaker ML インスタンスまたは AWS IoT Greengrass でサポートされているデバイスに最適化できます。

Q: Amazon SageMaker Neo ではどのモデルがサポートされていますか?

現在、Amazon SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な深層学習モデルや、今日 Amazon SageMaker で使用される最も一般的な決定木モデルをサポートしています。Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。

Q: Amazon SageMaker Neo ではどのハードウェアプラットフォームがサポートされていますか?

サポートされているクラウドインスタンスエッジデバイス、およびフレームワークのバージョンのリストは、Amazon SageMaker Neo のドキュメントでご確認いただけます。

Q: Amazon SageMaker Neo はどの AWS リージョンで利用できますか?

サポートリージョンの一覧は、AWS リージョン表をご覧ください。

Q: Amazon SageMaker はどのようなデプロイのオプションを提供していますか?

モデルを構築してトレーニングした後、Amazon SageMaker は、予測を開始できるようにそれらをデプロイするための 3 つのオプションを提供します。リアルタイム推論は、ミリ秒のレイテンシー要件、最大 6MB のペイロードサイズ、最大 60 秒の処理時間のワークロードに適しています。バッチ変換は、事前に入手可能な大きなデータのバッチに対するオフライン予測に最適です。非同期推論は、サブセカンドレイテンシーを必要としないワークロード向けに設計されており、ペイロードサイズは 1GB まで、処理時間は 15 分までとなっています。 

Q: SageMaker 非同期推論とは何ですか?

Amazon SageMaker の非同期推論は、受信したリクエストをキューに入れて、非同期に処理します。このオプションは、ペイロードサイズが大きいリクエスト、および/または処理時間が長く、到着すると同時に処理する必要があるリクエストに最適です。オプションとして、アクティブにリクエストを処理していないときは、コストを節約するためにインスタンス数をゼロにスケールダウンするようにオートスケーリング設定を構成することができます。 

Q: アクティブにリクエストを処理していないときに、インスタンス数をゼロにスケールダウンするために、オートスケーリング設定をどのように構成したらいいですか?

アクティブにリクエストを処理していないときにコストを節約するため、Amazon SageMaker 非同期推論エンドポイントのインスタンス数をゼロにスケールダウンすることができます。「ApproximateBacklogPerInstance」カスタムメトリクスでスケールするスケーリングポリシーを定義し、「MinCapacity」値をゼロに設定する必要があります。ステップバイステップの説明については、デベロッパーガイドの非同期のエンドポイントをオートスケールするセクションをご覧ください。 

Amazon SageMaker Savings Plans

Q: Amazon SageMaker Savings Plans とは何ですか?

Amazon SageMaker Savings Plans は、1 年または 3 年の期間で一貫したコンピューティング使用量 (USD/時間で測定) を契約する代わりに、Amazon SageMaker に柔軟な使用量ベースの料金モデルを提供します。Amazon SageMaker Savings Plans は、最も優れた柔軟性を提供し、コストを最大 64% 削減するのに役立ちます。これらのプランは、インスタンスファミリー、サイズ、リージョンに関係なく、SageMaker Studio Notebooks、SageMaker On-Demand Notebooks、SageMaker Processing、SageMaker Data Wrangler、SageMaker Training、SageMaker Real-Time Inference、SageMaker Batch Transform などの対象となる SageMaker ML インスタンスの使用量に自動的に適用されます。例えば、米国東部 (オハイオ) で実行されている CPU インスタンス ml.c5.xlarge から米国西部 (オレゴン) の ml.Inf1 インスタンスにいつでも推論ワークロードの使用量を変更し、自動的に Savings Plans の料金を引き続き支払うことができます。

Q: Amazon SageMaker Savings Plans を使用した方がよいのはなぜですか?

Amazon SageMaker インスタンスの使用量が一定で (USD/時間で測定)、複数の SageMaker コンポーネントを使用している場合、またはテクノロジー設定 (インスタンスファミリー、リージョンなど) が時間の経過とともに変化すると予想される場合、SageMaker Savings Plans により、アプリケーションのニーズや新しいイノベーションに基づいて基盤となるテクノロジー設定を変更する柔軟性をもたらしながら、節約を実現できます。Savings Plans の料金は、手動で変更することなく、対象となるすべての ML インスタンスの使用量に自動的に適用されます。

Q: Amazon SageMaker Savings Plans の使用を開始するにはどうすればよいですか?

Savings Plans の使用は、マネジメントコンソールの AWS Cost Explorer から、または API/CLI を使用して開始することができます。Savings Plans への契約は、最大節約額を実現するため、AWS Cost Explorer で提案される推奨事項を使用することによって簡単に行うことができます。推奨される 1 時間あたりの契約量は、履歴的なオンデマンド使用量と、プランタイプ、期間、および支払いオプションの選択に基づいています。Savings Plan にサインアップすると、コンピューティング使用量については割引された Savings Plans 料金で自動的に課金され、契約量を超える使用については通常のオンデマンドレートで課金されます。

Q: Amazon SageMaker の Savings Plans は Amazon EC2 の Compute Savings Plans とどのように異なりますか?

Amazon SageMaker の Savings Plans と EC2 の Savings Plans の違いはそれらに含まれるサービスにあります。SageMaker Savings Plans は、SageMaker ML インスタンスの使用量にのみ適用されます。

Q: Savings Plans は AWS Organizations/一括請求 (コンソリデーティッドビリング) とどのように連携しますか?

Savings Plans は、AWS Organizations/一括請求 (コンソリデーティッドビリング) ファミリー内の任意のアカウントで購入できます。デフォルトでは、Savings Plans によって提供される恩恵は、AWS Organization/一括請求 (コンソリデーティッドビリング) ファミリー内のすべてのアカウントでの使用量に適用されます。ただし、Savings Plans の恩恵を購入したアカウントのみに制限することもできます。

Amazon SageMaker の料金の詳細

料金表のページを見る
始める準備はできましたか?
サインアップ
ご不明な点がおありですか?
お問い合わせ