全般

Q: Amazon SageMaker とは何ですか?

Amazon SageMaker は、データサイエンティストや開発者が機械学習モデルを迅速かつ簡単に構築、トレーニング、デプロイできるようにする完全マネージド型サービスです。

Q: Amazon SageMaker で何ができますか?

Amazon SageMaker を使用すると、開発者やサイエンティストはインテリジェントな予測アプリケーションで使用する 機械学習モデルを構築できます。

Q: Amazon SageMaker の使用を開始するにはどのようにすればよいですか?

Amazon SageMaker の使用を開始するには、Amazon SageMaker コンソールにログインし、サンプルノートブックでノートブックインスタンスを起動し、お客様のデータソースに接続されるように変更します。次に、サンプルに従ってモデルを構築、トレーニング、検証し、結果となるモデルをわずかな入力だけで本番環境にデプロイします。

Q: Amazon SageMaker はどのリージョンで利用できますか?

サポートされる Amazon SageMaker AWS リージョンのリストについては、すべての AWS グローバルインフラストラクチャの AWS リージョン表を参照してください。また、詳細については、AWS 全般的なリファレンスの「リージョンとエンドポイント」を参照してください。

Q: セキュリティ分析や運用のトラブルシューティングのために自分のアカウントで実行された Amazon SageMaker API コールの履歴を取得できますか? 

はい。自分のアカウントで呼び出した Amazon SageMaker API コールの履歴を取得するには、AWS マネジメントコンソールで AWS CloudTrail を有効にします。Amazon SageMaker ランタイムの次の API コールは、InvokeEndpoint に記録されないため提供されません。

Q: Amazon SageMaker のサービスにはどの程度の可用性がありますか?

Amazon SageMaker では、高可用性が実現されるように設計されています。メンテナンスの時間帯や定期的なダウンタイムはありません。Amazon SageMaker API は、Amazon の実績ある高可用性データセンターで実行されます。AWS リージョンごとにサービススタックレプリケーションが 3 施設にまたがって構成されており、サーバー障害やアベイラビリティーゾーンの機能停止が発生した場合に耐障害性を発揮します。

Q: Amazon SageMaker では、どのようなセキュリティ対策がなされていますか?

Amazon SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。Amazon SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを Amazon SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された S3 バケットをモデルアーティファクトやデータに使用し、KMS キーを Amazon SageMaker ノートブック、トレーニングジョブ、エンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。

Q: Amazon SageMaker はどのようにコードを保護しますか?

Amazon SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。

Q: Amazon SageMaker の料金はどのように請求されますか?

ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。Amazon SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。実際に使用した分に対してのみ料金が発生します。最低料金や前払いの義務はありません。

Q: 自分専用のノートブック、トレーニング、またはホスティング環境がある場合はどうなりますか?

Amazon SageMaker は完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを Amazon SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を Amazon SageMaker に転送したり、Amazon SageMaker から転送したりできます。

ホスト型の Jupyter ノートブック

Q: どのような種類のノートブックがサポートされていますか?

現在、Jupyter ノートブックがサポートされています。

Q: ワークスペースを停止すると、ノートブックファイルはどのように保持されますか?

ノートブックファイルは、接続されている ML ストレージボリュームに保存できます。ML ストレージボリュームは、ノートブックインスタンスがシャットダウンされると切断され、ノートブックインスタンスが再起動されると再接続されます。メモリに保存された項目は保持されません。

Q: ノートブック内の利用可能なリソースを増やすにはどうすればよいですか?

接続されている ML ストレージボリュームにファイルとデータを保存した後、ノートブックインスタンスを変更し、Amazon SageMaker コンソールから大きなプロファイルを選択できます。ノートブックインスタンスは、同じノートブックファイルとインストール済みのライブラリを使用して、より多くの利用可能なリソースで再起動されます。

Q: Amazon SageMaker ノートブックからモデルをトレーニングするにはどうすればよいですか?

サンプルノートブックを起動した後、データソースとスキーマに合わせてノートブックをカスタマイズし、トレーニングジョブを作成するための AWS API を実行できます。トレーニングジョブの進行状況や完了は、Amazon SageMaker コンソールまたは AWS API で確認できます。

モデルトレーニング

Q: トレーニングで使えるデータセットのサイズに制限はありますか?

Amazon SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。

Q: どのデータソースを Amazon SageMaker に簡単に取り込めますか?

トレーニングジョブの作成の一環として、トレーニングデータが保存されている Amazon S3 の場所を指定できます。

Q: Amazon SageMaker ではモデルの生成にどのようなアルゴリズムを使用していますか?

Amazon SageMaker には、線形回帰、ロジスティック回帰、K 平均法クラスタリング、主成分分析、Factorization Machines、ニューラルトピックモデリング、潜在的ディリクレ配分法、勾配ブースティング木、Sequence to Sequence、時系列予測、word2vec、および画像分類のためのアルゴリズムが組み込まれています。Amazon SageMaker では、最適化された Apache MXNet、Tensorflow、Chainer、PyTorch コンテナも利用できます。さらに、Amazon SageMaker では、文書化された仕様に準拠した Docker イメージで提供されるカスタムのトレーニングアルゴリズムもサポートしています。

Q: 自動モデルチューニングとは何ですか?

多くの機械学習のアルゴリズムでは、基盤となるアルゴリズムの動作方法を制御するための多様なパラメータに触れることができます。このようなパラメータは、一般的にハイパーパラメータと呼ばれ、その値はトレーニング後のモデルの品質に影響を与えます。自動モデルチューニングは、アルゴリズムで最適なモデルを作成できるような、ハイパーパラメータの組み合わせを見つけるプロセスです。

Q: 自動モデルチューニングでチューニングできるのは、どのようなモデルですか?

Amazon SageMaker の自動モデルチューニングは、科学的な観点から現実的であれば、あらゆるアルゴリズムで行うことができます。これには SageMaker の組み込みアルゴリズム、深層ニューラルネットワーク、Docker イメージの形で Amazon SageMaker に持ち込まれる任意のアルゴリズムも含まれます。

Q: 自動モデルチューニングは Amazon SageMaker の外でも使用できますか?

現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、Amazon SageMaker の中で行う必要があります。

Q: どのようなチューニングアルゴリズムを基盤としていますか?

ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を活用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。

Q: チューニングで推奨される具体的なハイパーパラメータはありますか?

いいえ。ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。Amazon SageMaker の組み込みアルゴリズムでは、ハイパーパラメータをチューニングできるかどうかが示されます。

Q: ハイパーパラメータのチューニングジョブには、どのくらいの時間がかかりますか?

ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。 

Q: 速さと正確さを両立させるモデルが得られるように、複数の目標値を同時に最適化することはできますか?

現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。

Q: 自動モデルチューニングの料金はいくらですか?

ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって起動されたトレーニングジョブについて、モデルトレーニングの料金に基づいて請求が行われます。

Q: 強化学習とは何ですか?

強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。

Q: Amazon SageMaker で強化学習モデルをトレーニングできますか?

はい、Amazon SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。

Q: 強化学習と教師あり学習の違いは何ですか?

教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。

Q: 強化学習はどのような場合に使用すればよいですか?

教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動走行車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。

Q: 強化学習モデルのトレーニングにはどのようなタイプの環境が使用できますか?

Amazon SageMaker RL は強化学習モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。

Q: 強化学習モデルのトレーニングのために独自の RL エージェントアルゴリズムを書く必要がありますか?

いいえ。Amazon SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。

Q: 独自の RL ライブラリやアルゴリズム実装を持ち込んで Amazon SageMaker RL で実行することはできますか?

はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを Amazon SageMaker RL で実行できます。

Q: Amazon SageMaker RL を使用して分散型ロールアウトを行うことはできますか?

はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。

Q: Amazon SageMaker Neo とは何ですか?

Amazon SageMaker Neo は、機械学習モデルを一度トレーニングするだけで、エッジやクラウド内のどこでも実行できるようにする新しい機能です。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 2 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。


Q: Amazon SageMaker Neo の使用を開始するにはどのようにすればよいですか?

Amazon SageMaker Neo の使用を開始するには、Amazon SageMaker コンソールにログオンしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。

 

Q: Amazon SageMaker Neo の主要なコンポーネントは何ですか?

Amazon SageMaker には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。


 

Q: Neo を使用してモデルを変換するには、SageMaker でモデルをトレーニングする必要がありますか?

いいえ。他の場所でモデルをトレーニングし、Neo を使用してそれらを SageMaker ML インスタンスまたは Greengrass でサポートされているデバイスに最適化できます。 

 

 

Q: SageMaker Neo ではどのモデルがサポートされていますか?

現在、SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な深層学習モデルや、今日 Amazon SageMaker で使用される最も一般的な決定木モデルをサポートしています。Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。


 

 

Q: SageMaker Neo ではどのプラットフォームがサポートされていますか?

現在、Neo は SageMaker ML.C5、ML.C4、ML.M5、ML.M4、ML.P3、ML.P2 インスタンス、AWS DeepLens、Raspberry Pi、Jetson TX1 および TX2 デバイス、Greengrass デバイスベースの Intel® Atom および Intel® Xeon CPU、 ARM Cortex-A CPU、Nvidia Maxwell および Pascal GPU をサポートしています。

 

 

 

Q: 目的のハードウェアでサポートされているフレームワークの特定のバージョンを使用する必要がありますか?

いいえ。開発者はフレームワークに依存せず、SageMaker Neo コンテナを使用してモデルを実行できます。

 

 

 

Q: SageMaker Neo を使用するには、どれくらいの料金がかかりますか?

SageMaker Neo を使用して推論を実行する SageMaker ML インスタンスの使用に対して料金が発生します。

 

 

 

Q: SageMaker Neo はどの AWS リージョンで利用できますか?

現在、SageMaker Neo はバージニア北部、オレゴン、オハイオ、アイルランドでご利用いただけます。 

 

 

 

Q: Amazon SageMaker モデル追跡とは何ですか?

Amazon SageMaker モデル追跡では、数百や数千もの Amazon SageMaker モデルトレーニングジョブから、最も関連のあるモデルトレーニング実行をすばやく見つけ、評価できます。SageMaker Search は AWS マネージメントコンソールと AWS SDK APIs for Amazon SageMaker の両方を介してご利用いただけます。

 

 

 

Q: モデルトレーニング実行を整理および追跡するにはどうすればよいですか?

モデル追跡機能を使用すると、任意のトレーニングジョブプロパティを使用してモデルトレーニング実行を検索して整理できます。トレーニングジョブの作成時間、トレーニングデータセットの URI、ハイパーパラメータの値、その他のあらゆるジョブメタデータをプロパティとして使用できます。関連するトレーニングジョブをグルーピングして整理する柔軟な方法は、モデルトレーニングジョブをラベル付けするタグを使用することです。タグで検索すると、特定のビジネスプロジェクト、研究所、データサイエンスチームなどに関連するモデルトレーニング実行を簡単に見つけることができ、それらを適切に分類したり一覧化したりするのに役立ちます。

 

 

 

Q: モデル追跡機能を使用してトレーニング実行のリーダーボードを作成するにはどうすればよいですか?

モデルトレーニングジョブは、リーダーボードのように表形式で AWS マネジメントコンソールに表示されます。これには、並べ替え可能な列に表示された、すべてのハイパーパラメータとモデルトレーニングメトリクスが含まれます。列見出しをクリックし、お好みの客観的なパフォーマンスメトリクスのリーダーボードをランク付けできます。また、トレーニングロスや検証精度などのパフォーマンスメトリクスに基づいてモデルトレーニング実行をすばやく比較し、ランクを付けることができます。このため、リーダーボードを使って、本番環境にデプロイする「優勝」モデルを選択できます。

 

 

 

Q: モデルまたはエンドポイント系列を追跡するにはどうすればよいですか?

AWS Management Console または Amazon SageMaker の [エンドポイント] に移動して、デプロイされたすべてのエンドポイントの一覧からエンドポイントを選択します。次に、選択したエンドポイントのページで [Endpoint Configuration Settings] まで下にスクロールして、エンドポイントでデプロイされたすべてのモデルバージョンを表示します。各モデルバージョンの横には、そのモデルを最初に作成したモデルトレーニングジョブへの直リンクがあります。


 

 

 

モデルのデプロイ

Q: Amazon SageMaker が実行されているインフラストラクチャにアクセスできますか?

いいえ。Amazon SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをデプロイすることもできます。

Q: 本番環境では Amazon SageMaker モデルのサイズとパフォーマンスをスケールするにはどうしたらよいですか?

Amazon SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。

Q: Amazon SageMaker の本番環境をモニタリングするにはどうしたらよいですか?

Amazon SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、Amazon SageMaker は Amazon Cloudwatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。

Q: Amazon SageMaker ではどのようなモデルをホストできますか?

Amazon SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、Amazon SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。

Q: Amazon SageMaker で同時に送信できるリアルタイム API リクエストは何件ですか?

Amazon SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。


Q: バッチ変換とは何ですか?

バッチ変換により、大小のバッチデータに対して予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。

 

Amazon SageMaker の料金の詳細について

料金ページを見る
始める準備はできましたか?
サインアップ
ご不明な点がおありですか?
お問い合わせ