全般

Q: Amazon SageMaker とは何ですか?

Amazon SageMaker は、すべての開発者やデータサイエンティストが機械学習 (ML) モデルを迅速に構築、トレーニング、デプロイできるようにする完全マネージド型サービスです。SageMaker は高品質モデルの開発を容易にするため、機械学習の各プロセスから負荷の大きな部分を取り除きます。

Q: Amazon SageMaker はどのリージョンで利用できますか?

サポートされる Amazon SageMaker AWS リージョンのリストについては、すべての AWS グローバルインフラストラクチャの AWS リージョン表を参照してください。また、詳細については、「AWS 全般のリファレンス」の「リージョンとエンドポイント」を参照してください。

Q: Amazon SageMaker のサービスにはどの程度の可用性がありますか?

Amazon SageMaker では、高可用性が実現されるように設計されています。メンテナンスの時間帯や定期的なダウンタイムはありません。SageMaker API は、Amazon の実績ある高可用性データセンターで実行されます。AWS リージョンごとにサービススタックレプリケーションが 3 施設にまたがって構成されており、サーバー障害やアベイラビリティーゾーンの機能停止が発生した場合に耐障害性を発揮します。

Q: Amazon SageMaker では、どのようなセキュリティ対策がなされていますか?

Amazon SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された S3 バケットをモデルアーティファクトやデータに使用し、KMS キーを SageMaker ノートブック、トレーニングジョブ、エンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。

Q: Amazon SageMaker はどのようにコードを保護しますか?

Amazon SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。

Q: Amazon SageMaker の料金はどのように請求されますか?

ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。Amazon SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。実際に使用した分に対してのみ料金が発生します。最低料金や前払いの義務はありません。詳細については、「Amazon SageMaker の料金ページ」を参照してください。

Q: 自分専用のノートブック、トレーニング、またはホスティング環境がある場合はどうなりますか?

Amazon SageMaker は完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を SageMaker に転送したり、SageMaker から転送したりできます。

Q: R は Amazon SageMaker のサポート対象ですか?

はい、R は Amazon SageMaker のサポート対象です。R は、SageMaker Notebook インスタンス内で使用できます。これには、事前インストールされた R カーネルと reticulate ライブラリが含まれています。Reticulate は、Amazon SageMaker Python SDK 向けの R インターフェイスを提供し、機械学習の専門家が R モデルを構築、トレーニング、調整、デプロイできるようにします。 

Q:Amazon SageMaker Studio とは何ですか?

Amazon SageMaker Studio は単独のウェブベースビジュアルインターフェイスを装備し、そこではすべての ML 開発手順を実行できます。SageMaker Studio はモデルの構築、トレーニング、デプロイに必要な各ステップに対し、完全なアクセス、管理、可視性をもたらします。データのアップロード、新規ノートブックの作成、モデルのトレーニングと調整、ステップ間での移動などを迅速にこなし、さまざまな試みを調整したり、結果を比較したり、本番環境にモデルをデプロイするといった処理をすべて 1 箇所から実行でき、生産性を飛躍的に向上できます。ノートブック、試作管理、自動のモデル作成、デバッグ、プロファイリング、モデルの変動検出など、すべての ML 開発手順は SageMaker Studio のビジュアルインターフェイスで実行できます。

Q:  Amazon SageMaker Studio の料金はどのような仕組みになっていますか?

Amazon SageMaker Studio は、追加料金なしで利用できます。

Q: Amazon SageMaker Autopilot とは何ですか?

Amazon SageMaker Autopilot は業界初の自動化された機械学習機能で、ユーザーは自分の ML モデルをすべてコントロールし、完全に可視化できます。SageMaker Autopilot は自動的に未加工のデータを検証し、機能プロセッサーを適用して、最適なアルゴリズムのセットを選出します。そして、複数のモデルをトレーニングおよび調整し、パフォーマンスを追跡、その後、パフォーマンスに基づいてモデルをランク付けします。これらすべての処理がわずか数クリックで実行できます。その結果、通常ではモデルのトレーニングに要するのと同程度のわずかな時間で、最高のパフォーマンスを備えたモデルをデプロイできます。モデルがどのように作成され、その中身が何かまで完全に見える化でき、SageMaker Autopilot は Amazon SageMaker Studio と統合します。SageMaker Studio 内で SageMaker Autopilot によって生成されたモデルを最高 50 種類まで試すことができるので、ユースケースに最適なモデルを簡単に選べます。SageMaker Autopilot はモデルを簡単に作成するために、機械学習の経験のないユーザーにも使用できるほか、経験を積んだ開発者が使用してすばやく基盤となるモデルを作成し、それをチームがさらに繰り返し使用することもできます。

Q: Amazon SageMaker Autopilot は、Amazon Personalize および Amazon Forecast のような垂直 AI サービスとどのように異なりますか?

Amazon Personalize および Amazon Forecast は、特にパーソナライズされた推奨事項およびユースケースの予測を対象としていますが、Amazon SageMaker Autopilot は、不正検出、解約分析、ターゲットマーケティングなど、分類および回帰の問題に対する一般的な自動機械学習ソリューションです。パーソナライズおよび予測は、バンドルでトレーニングとモデルホスティングを提供することにより、エンドツーエンドのエクスペリエンスを簡素化することに重点を置いています。Amazon SageMaker Autopilot を使用してモデルをトレーニングし、モデルを生成したパイプラインはもとより、モデルへのフルアクセスを取得できます。次に、選択したホスティング環境にモデルを展開するか、さらに反復してモデルの品質を向上させることができます。

Q: Amazon SageMaker Autopilot ではどのような組み込みアルゴリズムをサポートしていますか?

Amazon SageMaker Autopilot は、ローンチ時に 2 つの組み込みアルゴリズムをサポートします。XGBoost と Linear Learner です。

Q: Amazon SageMaker Autopilot は分散トレーニングをサポートしていますか?

はい。Amazon SageMaker Autopilot 組み込みアルゴリズムはすべて、すぐに使用できる分散トレーニングをサポートしています。

Q: Amazon SageMaker Autopilot のジョブを手動で停止できますか?

はい。ジョブはいつでも停止できます。Amazon SageMaker Autopilot ジョブが停止すると、進行中のすべてのトライアルが停止し、新しいトライアルは開始されません。

モデルの構築

Q: Amazon SageMaker Studio ノートブックとは?

Amazon SageMaker Studio ノートブックは、協調的で柔軟な新しいマネージド型の Jupyter ノートブック体験を提供します。機械学習に向けて完全に統合された開発環境である Amazon SageMaker Studio の一部を体験できます。

Q: SageMaker Studio ノートブックは、インスタンスベースのノートブック製品とどう違いますか?

SageMaker Studio ノートブックは、インスタンスベースのノートブックとは異なるいくつかの重要な機能を提供します。新しいノートブックエクスペリエンスでは、インスタンスを手動でプロビジョニングして操作可能になるのを待つ必要なく、ノートブックをすばやく起動できます。ノートブックを読み取って実行するために UI を起動する起動時間は、インスタンスベースのノートブックよりも高速です。

また、いつでも UI 内からインスタンスタイプの大規模なコレクションを柔軟に選択できます。新しいインスタンスを起動したり、ノートブックに移植したりするために、AWS コンソールにアクセスする必要はありません。

各ユーザーには、特定のインスタンスに依存しない独立したホームディレクトリがあります。このディレクトリは、起動時にすべてのノートブックサーバーとカーネルに自動的にマウントされるため、インスタンスを切り替えてノートブックを表示して実行する場合でも、ノートブックやその他のファイルにアクセスできます。

SageMaker Studio ノートブックは AWS SSO と統合されているため、組織の認証情報を使用してノートブックに簡単にアクセスできます。ノートブックの共有は、SageMaker Studio ノートブックに統合された機能です。ワンクリックでノートブックを同僚と共有することもできます。

Q: どのような種類のノートブックがサポートされていますか?

現在、Jupyter ノートブックがサポートされています。

Q:Amazon SageMaker Studio ノートブックはどのように機能しますか?

Amazon SageMaker Studio ノートブックは、ワンクリックで Jupyter ノートブックに素早くスピンできます。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。SageMaker ではまた、1 度のクリックでノートブックを共有することもできます。ノートブックを他の人と簡単に共有できます。また、全員が同じ場所に保存された同じノートブックを入手できます。

SageMaker Studio ノートブックでは、AWS SSO を使用して企業の認証情報でサインインできます。チーム内およびチーム間でノートブックを共有するのは簡単ですが、ノートブックを実行するのに必要な依存関係は、ノートブックを共有するときにカプセル化された作業イメージで自動的に追跡されるからです。

Q:Amazon SageMaker Studio ノートブックは他のAWSサービスとどのように連携していますか?

Amazon SageMaker Studio ノートブックを使用すると、分散トレーニング、バッチ変換、ホスティング、実験管理など、SageMaker のすべての機能にアクセスできます。SageMaker ノートブックから、Amazon S3 のデータセット、Amazon Redshift、AWS Glue、Amazon EMR、AWS Lake Formation などの他のサービスにアクセスできます。

Q: SageMaker Studio ノートブックの料金はどのような仕組みになっていますか?

SageMaker Studio ノートブックを使用すると、コンピューティングとストレージの両方の料金が発生します。コンピューティングインスタンスタイプ別の料金については、Amazon SageMaker Pricing を参照してください。ノートブックおよびデータファイルやスクリプトなどの関連するアーティファクトは、Amazon EFS で保持されます。ストレージの料金については、Amazon EFS の料金を参照してください。AWS 無料利用枠内で、Amazon SageMaker Studio ノートブックの使用を無料で開始できます。

Q: SageMaker Studio で作成し、実行する個々のノートブックは、別々に課金されますか?

いいえ。同じコンピューティングインスタンスで複数のノートブックを作成し、実行できます。料金は、個々のアイテムではなく、使用したコンピューティングに対してのみ発生します。詳細については、Usage Metering を参照してください。

Studio では、ノートブックに加え、同じコンピューティングインスタンスで、ターミナルおよび対話型シェルを開始して実行することも可能です。各アプリケーションは、コンテナまたはイメージ内で実行されます。SageMaker Studio では、データサイエンスおよび機械学習専用に事前設定された組み込みイメージがいくつか用意されています。Studio のデベロッパー環境の詳細については、Use Amazon SageMaker Studio Notebooks のガイドを参照してください。

Q: ノートブックで使用するリソースのモニタリングとシャットダウンは、どのように行えばよいですか?

SageMaker Studio ノートブックで使用するリソースのモニタリングとシャットダウンは、SageMaker Studio のビジュアルインターフェイス、または AWS マネジメントコンソールで行えます。 詳細については、こちらのドキュメントを参照してください。

Q: SageMaker Studio ノートブックを実行しています。ブラウザやノートブックのタブを閉じた場合、またはブラウザを開いたままにしておいた場合、料金は発生しますか?

はい。コンピューティング料金が引き続き発生します。これは、AWS マネジメントコンソールで EC2 インスタンスを作成し、その後ブラウザを閉じた場合と同様です。EC2 インスタンスの実行は継続され、明示的にシャットダウンしない限り、料金が発生します。

Q: Studio ドメインの作成および設定に対して料金は発生しますか?

いいえ。ユーザープロファイルの追加、更新、削除などを含め、Studio ドメインの作成および設定に対しては料金が発生しません。

Q: Studio ノートブックやその他の SageMaker サービスに対する料金の明細は、どのように確認できますか?

管理者は、Studio を含む SageMaker の料金の明細を AWS 請求コンソールで確認できます。SageMaker の AWS マネジメントコンソールで、トップメニューの [Services (サービス)] を選択し、検索ボックスに「Billing (請求)」と入力して、ドロップダウンから [Billing (請求)] を選択します。その後、左側のパネルで [Bills (請求書)] を選択します。[Details (詳細)] セクションで、[SageMaker] をクリックしてリージョンの一覧を展開し、料金の明細を確認できます。

Q: Amazon SageMaker Ground Truth とは何ですか?

Amazon SageMaker Ground Truth では、機械学習を使用してデータのラベル付けを自動化できます。SageMaker Ground Truth では、まずデータのランダムなサンプルが選択され、 Amazon Mechanical Turk がラベルを付けることができるよう送信されます。人によるラベル付けの結果は、ラベル付けモデルのトレーニングの際に、未加工データの新しいサンプルに自動的にラベルを付けるために使用されます。モデルによるデータへのラベル付けの品質がお客様の設定したしきい値以上になる場合、そのラベルが確定されます。信頼性スコアがしきい値を下回る場合、データが人に送信され、人がラベルを付けます。人がラベルを付けたデータの一部は、ラベル付けモデルの新しいトレーニングデータセットを生成するために使用され、モデルは精度を向上させるために自動的に再トレーニングされます。未加工データの各サンプルにラベルを付けるために、このプロセスが繰り返されます。繰り返されるたびに、そのラベル付けモデルでは、未加工データに自動的にラベルを付ける性能が向上し、人に転送されるデータが減少します。

モードのトレーニング

Q.Amazon SageMaker Experiments とは何ですか?

Amazon SageMaker Experiments は機械学習モデルへの繰り返し処理を調整および追跡するのに役立ちます。SageMaker Experiments は入力パラメータ、構成、結果などを自動的に捕捉し、こうした内容を「実験結果」として保存することで、繰り返し作業を管理しやすくします。ユーザーは SageMaker Studio の視覚的なインターフェイス上で作業できます。ここでは、アクティブな実験結果を参照したり、性質別に前回の実験結果を検索したり、あるいは、その結果とともに前回の実験を検証、または実験結果を視覚的に比較できます。

Q.Amazon SageMaker Debugger とは何ですか?

Amazon SageMaker Debugger はモデルの精度を改善するために、トレーニングや評価、混同行列、学習勾配といったリアルタイムのメトリクスをトレーニング中に自動取得することで、トレーニング処理を明確化します。

SageMaker Debugger から取得したメトリクスは、容易に理解できるよう Amazon SageMaker Studio で見ることができます。SageMaker Debugger は一般的なトレーニングの問題が検出されたときに、警告や修復のアドバイスを生成することもできます。SageMaker Debugger を使用することで、どのようにモデルが動作し、モデルの説明に向けてどのような初期ステップを提示するか解釈できます。

Q: マネージドスポットトレーニングとは何ですか?

Amazon SageMaker を使ったマネージドスポットトレーニングでは、Amazon EC2 スポットインスタンスを使用して機械学習モデルをトレーニングでき、モデルのトレーニングコストを最大 90% 削減します。

Q: マネージドスポットトレーニングはどのように使用するのですか?

トレーニングジョブを送信する際にマネージドスポットトレーニングのオプションを有効にし、スポット容量の待機時間も指定します。これで、Amazon SageMaker が Amazon EC2 スポットインスタンスを使ってジョブを実行し、スポット容量を管理します。トレーニングジョブの実行中や容量を待機中に、トレーニングジョブのステータスを完全に把握できます。

Q: マネージドスポットトレーニングはいつ使用したらいいですか?

マネージドスポットトレーニングは、トレーニングの実行に柔軟性があり、トレーニングジョブのコストを最小限に抑えたい場合に適しています。マネージドスポットトレーニングを使用すれば、機械学習モデルのトレーニングコストを最大 90% 削減することができます。

Q: マネージドスポットトレーニングの仕組みを教えてください

マネージドスポットトレーニングは、トレーニングに Amazon EC2 スポットインスタンスを使用します。これらのインスタンスは AWS が容量を必要とする場合に、前もって取得しておくことができます。そのため、容量が使用可能になったとき、マネージドスポットトレーニングジョブを少しずつ実行できます。Amazon SageMaker は最新のモデルチェックポイントを使ってトレーニングジョブを再開できるため、中断があっても、トレーニングジョブを最初から再開する必要はありません。SageMaker のビルトインフレームワークとビルトインコンピュータービジョンアルゴリズムにより、定期的なチェックポイントを有効にできます。あるいはカスタムモデルでチェックポイントを有効にできます。

Q: マネージドスポットトレーニングに定期的なチェックポイントを行う必要はありますか?

長期的なトレーニングジョブには、普通、定期的なチェックポイントをお勧めします。これにより、容量を前もって取得しておいた場合でも、マネージドスポットトレーニングジョブが再開されないようになります。チェックポイントを有効にすると、Amazon SageMaker はマネージドスポットトレーニングジョブを最後のチェックポイントから再開します。

Q: マネージドスポットトレーニングジョブでのコスト削減をどのように計算するのですか?

マネージドスポットトレーニングジョブを完了すると、AWS マネジメントコンソールで節約額を確認できます。また、トレーニングジョブを実行した期間と課金された期間との差の割合を出して、いくらコスト削減が可能かを計算できます。

マネージドスポットトレーニングジョブが中断された回数に関係なく、データがダウンロードされた時間に対してのみ、課金されます。

Q: マネージドスポットトレーニングではどのインスタンスを使用できますか?

マネージドスポットトレーニングは、Amazon SageMaker でサポートされているすべてのインスタンスで使用できます。

Q: マネージドスポットトレーニングではどの AWS リージョンがサポートされていますか?

マネージドスポットトレーニングは、Amazon SageMaker が現在利用可能なすべての AWS リージョンでサポートされています。

Q: トレーニングで使用できるデータセットのサイズに制限はありますか?

Amazon SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。

Q: どのデータソースを Amazon SageMaker に簡単に取り込めますか?

トレーニングジョブの作成の一環として、トレーニングデータが保存されている Amazon S3 の場所を指定できます。

Q: Amazon SageMaker ではモデルの生成にどのようなアルゴリズムを使用していますか?

Amazon SageMaker には、線形回帰、ロジスティック回帰、K 平均法クラスタリング、主成分分析、Factorization Machines、ニューラルトピックモデリング、潜在的ディリクレ配分法、勾配ブースティング木、Sequence to Sequence、時系列予測、word2vec、および画像分類のためのアルゴリズムが組み込まれています。SageMaker Notebooks から Amazon S3、Amazon Redshift、AWS Glue、Amazon EMR、AWS Lake Formation のデータセットなどの他のサービスにアクセできます。さらに、Amazon SageMaker では、文書化された仕様に準拠した Docker イメージで提供されるカスタムのトレーニングアルゴリズムもサポートしています。

Q: 自動モデルチューニングとは何ですか?

多くの機械学習のアルゴリズムでは、基盤となるアルゴリズムの動作方法を制御するための多様なパラメータに触れることができます。このようなパラメータは、一般的にハイパーパラメータと呼ばれ、その値はトレーニング後のモデルの品質に影響を与えます。自動モデルチューニングは、アルゴリズムで最適なモデルを作成できるような、ハイパーパラメータの組み合わせを見つけるプロセスです。

Q: 自動モデルチューニングでチューニングできるのは、どのようなモデルですか?

Amazon SageMaker の自動モデルチューニングは、科学的な観点から現実的であれば、あらゆるアルゴリズムで行うことができます。これには SageMaker の組み込みアルゴリズム、深層ニューラルネットワーク、Docker イメージの形で SageMaker に持ち込まれる任意のアルゴリズムも含まれます。

Q: 自動モデルチューニングは Amazon SageMaker の外でも使用できますか?

現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、Amazon SageMaker の中で行う必要があります。

Q: どのようなチューニングアルゴリズムを基盤としていますか?

ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を活用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。

Q: チューニングで推奨される具体的なハイパーパラメータはありますか?

いいえ。ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。Amazon SageMaker の組み込みアルゴリズムについては、ハイパーパラメータをチューニングできるかどうか明示しています。

Q: ハイパーパラメータのチューニングジョブには、どのくらいの時間がかかりますか?

ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。

Q: 速さと正確さを両立させるモデルが得られるように、複数の目標値を同時に最適化することはできますか?

現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。

Q: 自動モデルチューニングの料金はいくらですか?

ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって開始されたトレーニングジョブに対し、モデルトレーニングの料金に基づいて請求されます。

Q: Amazon SageMaker Autopilot または Automatic Model Tuning の使用は、どのように判断すればよいですか?

Amazon SageMaker Autopilot は、特に分類および回帰のユースケースに焦点を当てながら、機能の前処理、アルゴリズムの選択、ハイパーパラメータの調整など、典型的な機械学習ワークフローのすべてを自動化します。一方、組み込みアルゴリズム、深層学習フレームワーク、またはカスタムコンテナのいずれに基づいていても、自動モデルチューニングは、任意のモデルを調整するように設計されています。柔軟性と引き換えに、特定のアルゴリズムを手動で選択し、調整するハイパーパラメーターと対応する検索範囲を決定しなければなりません。

Q: 強化学習とは何ですか?

強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。

Q: Amazon SageMaker で強化学習モデルをトレーニングできますか?

はい、Amazon SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。

Q: 強化学習と教師あり学習の違いは何ですか?

教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。

Q: 強化学習はどのような場合に使用すればよいですか?

教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動走行車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。

Q: 強化学習モデルのトレーニングにはどのようなタイプの環境が使用できますか?

Amazon SageMaker RL は強化学習モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。

Q: 強化学習モデルのトレーニングのために独自の RL エージェントアルゴリズムを書く必要がありますか?

いいえ。Amazon SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。

Q: 独自の RL ライブラリやアルゴリズム実装を持ち込んで Amazon SageMaker RL で実行することはできますか?

はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを Amazon SageMaker RL で実行できます。

Q: Amazon SageMaker RL を使用して分散型ロールアウトを行うことはできますか?

はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。

モデルのデプロイ

Q.Amazon SageMaker モデルモニターとは何ですか?

Amazon SageMaker Model Monitor によって、開発者がコンセプトドリフトを検出し、修復できるようになります。SageMaker Model Monitor はデプロイ済みのモデルでコンセプトドリフトを検出し、問題の原因を特定するのに役立つ詳細なアラートを出します。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。SageMaker Studio の中で、収集するデータや、その表示方法、アラートを受信するタイミングなどを構成できます。

Q: Amazon SageMaker が実行されているインフラストラクチャにアクセスできますか?

いいえ。Amazon SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをデプロイすることもできます。

Q: 本番環境では Amazon SageMaker モデルのサイズとパフォーマンスをスケールするにはどうしたらよいですか?

Amazon SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。

Q: Amazon SageMaker の本番環境をモニタリングするにはどうしたらよいですか?

Amazon SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、Amazon SageMaker は Amazon Cloudwatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。

Q: Amazon SageMaker ではどのようなモデルをホストできますか?

Amazon SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、Amazon SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。

Q: Amazon SageMaker で同時に送信できるリアルタイム API リクエストは何件ですか?

Amazon SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。

Q: バッチ変換とは何ですか?

バッチ変換により、大小のバッチデータに対する予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。

Q: Amazon SageMaker Neo とは何ですか?

Amazon SageMaker Neo では、機械学習モデルを一度トレーニングすれば、それをどこでも、クラウドでも、エッジでも実行可能にします。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 2 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。

Q: Amazon SageMaker Neo の使用を開始するにはどのようにすればよいですか?

Amazon SageMaker Neo の使用を開始するには、Amazon SageMaker コンソールにログオンしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。

Q: Amazon SageMaker Neo の主要なコンポーネントは何ですか?

Amazon SageMaker には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。

Q: モデルの変換に Amazon SageMaker Neo を使用するには、Amazon SageMaker でモデルをトレーニングする必要がありますか?

いいえ。他の場所でモデルをトレーニングし、Neo を使用してそれらを Amazon SageMaker ML インスタンスまたは AWS IoT Greengrass でサポートされているデバイスに最適化できます。

Q: Amazon SageMaker Neo ではどのモデルがサポートされていますか?

現在、Amazon SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な深層学習モデルや、今日 Amazon SageMaker で使用される最も一般的な決定木モデルをサポートしています。Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。

Q: Amazon SageMaker Neo ではどのプラットフォームがサポートされていますか?

現在、Neo は SageMaker ML.C5、ML.C4、ML.M5、ML.M4、ML.P3、ML.P2 インスタンス、AWS DeepLens、Raspberry Pi、Jetson TX1 および TX2 デバイス、Greengrass デバイスベースの Intel® Atom および Intel® Xeon CPU、 ARM Cortex-A CPU、Nvidia Maxwell および Pascal GPU をサポートしています。

Q: 目的のハードウェアでサポートされているフレームワークの特定のバージョンを使用する必要がありますか?

いいえ。開発者はフレームワークに依存せず、Amazon SageMaker Neo コンテナを使用してモデルを実行できます。

Q: Amazon SageMaker Neo の利用料はいくらですか?

Amazon SageMaker Neo を使用して推論を実行する Amazon SageMaker ML インスタンスの使用に対して料金が発生します。

Q: Amazon SageMaker Neo はどの AWS リージョンで利用できますか?

サポートリージョンの一覧は、AWS リージョン表をご覧ください。

Amazon SageMaker の料金の詳細について

料金表のページを見る
始める準備はできましたか?
サインアップ
ご不明な点がおありですか?
お問い合わせ