- 機械学習›
- Amazon SageMaker›
- Amazon SageMaker のよくある質問
Amazon SageMaker のよくある質問
全般
Amazon SageMaker とは
SageMaker は、フルマネージドインフラストラクチャ、ツール、ワークフローを使用して、あらゆるユースケース向けのデータの準備、機械学習 (ML) モデルの構築、トレーニング、デプロイを行うフルマネージドサービスです。
SageMaker はどの AWS リージョンで利用できますか?
サポートされている SageMaker リージョンの一覧は、AWS リージョン別のサービスのページをご覧ください。詳細については、AWS の全般的なリファレンスガイドでリージョン別エンドポイントを参照してください。
SageMaker のサービスにはどの程度の可用性がありますか?
SageMaker では、高可用性が実現されるように設計されています。メンテナンスの時間帯や定期的なダウンタイムはありません。SageMaker API は、Amazon の実績ある高可用性データセンターで実行されます。リージョンごとにサービススタックレプリケーションが 3 施設にまたがって構成されており、サーバー障害やアベイラビリティーゾーンの機能停止が発生した場合に耐障害性を発揮します。
SageMaker はどのようにコードを保護しますか?
SageMaker は、ML ストレージボリュームにコードを保存し、セキュリティグループで保護します。また、必要に応じて保管時に暗号化します。
SageMaker では、どのようなセキュリティ対策がなされていますか?
SageMaker では、ML モデルと他のシステムのアーティファクトが転送中も保管時も暗号化されます。SageMaker の API とコンソールに対するリクエストには、安全な SSL 接続が使用されます。お客様は、AWS Identity and Access Management ロールを SageMaker に渡すことで、お客様に代わってトレーニングとデプロイのリソースにアクセスするための権限を付与します。暗号化された Amazon Simple Storage Service (Amazon S3) バケットをモデルアーティファクトやデータに使用し、AWS Key Management Service (AWS KMS) キーを SageMaker ノートブック、トレーニングジョブ、およびエンドポイントに渡すと、接続されている ML ストレージボリュームを暗号化できます。SageMaker は、Amazon Virtual Private Cloud (Amazon VPC) と AWS PrivateLink もサポートしています。
SageMaker はモデル、トレーニングデータやアルゴリズムを使用または共有しますか?
SageMaker は、顧客モデル、トレーニングデータやアルゴリズムを使用または共有しません。お客様がプライバシーとデータセキュリティについて懸念されるのは当然のことです。このため、AWS ではコンテンツの所有権と管理権をお客様にお渡ししています。簡素化されたパワフルなツールによって、自分のコンテンツをどこに保存するかをお客様に決定していただき、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理できるようにしています。また、お客様のコンテンツに対する不正アクセスや開示を防止するよう設計された技術的および物理的な管理を実践しています。お客様のコンテンツの所有権はお客様が保持します。また、お客様のコンテンツを処理、保存、ホストする AWS のサービスはお客様が選択します。いかなる目的であっても、AWS はお客様の同意を得ることなく、お客様のコンテンツにアクセスすることはありません。
SageMaker に対してどのように課金されますか?
ノートブックのホスティング、モデルのトレーニング、予測の実行、および出力のロギングのためにお客様が使用した ML 計算、ストレージ、およびデータ処理リソースに対してお支払いいただきます。SageMaker では、ホスト型のノートブック、トレーニング、およびモデルホスティングに使用するインスタンスの数とタイプを選択できます。最低使用料金や前払いの義務はなく、実際に使用した分に対してのみお支払いいただきます。詳細については、Amazon SageMaker の料金ページ と Amazon SageMaker の料金計算ツールをご覧ください。
アイドル状態のリソースの検出や停止など、不要な請求を防いで SageMaker のコストを最適化するにはどうすればよいですか?
SageMaker のリソース使用量を最適化するために採用できるベストプラクティスがいくつかあります。構成の最適化を伴うアプローチもあれば、プログラムによるソリューションを伴うアプローチもあります。ビジュアルチュートリアルとコードサンプルを含むこの概念についての完全なガイドは、本ブログ記事にあります。
自分専用のノートブック、トレーニング、またはホスティング環境がある場合はどうなりますか?
SageMaker は十分で完全なエンドツーエンドのワークフローを提供しますが、引き続き既存のツールを SageMaker と共に使用することもできます。ビジネス要件に応じて、簡単に各ステージの結果を SageMaker に転送したり、SageMaker から転送したりできます。
R は SageMaker のサポート対象ですか?
はい。R は、SageMaker ノートブックインスタンス内で使用できます。これには、事前インストールされた R カーネルと reticulate ライブラリが含まれています。Reticulate は、Amazon SageMaker Python SDK 向けの R インターフェイスを提供し、機械学習の専門家が R モデルの構築、トレーニング、調整、デプロイに役立ちます。
モデルの不均衡を確認するにはどうすればよいですか?
Amazon SageMaker Clarify は、機械学習ワークフロー全体で統計的バイアスを検出することにより、モデルの透明性を向上させるのに役立ちます。SageMaker Clarify は、データの準備中、トレーニング後、および時間の経過とともに不均衡をチェックし、ML モデルとその予測を説明するのに役立つツールも備えています。検出結果は、説明可能性レポートを通じて共有できます。
SageMaker Clarify はどのようなバイアスを検出しますか?
ML モデルでバイアスを測定することは、バイアスを軽減するための最初のステップです。バイアスは、トレーニングの前とトレーニングの後に測定されることがあるほか、デプロイされたモデルの推論についても測定されることがあります。バイアスの各測定値は、さまざまな公平性の概念に対応しています。単純な公平性の概念を考慮することによってさえも、さまざまな状況で適用可能な多くの異なる対策を見出すことができます。アプリケーションと調査中の状況に有効なバイアスの概念とメトリクスを選択する必要があります。SageMakerは現在、(SageMaker のデータ準備の一環として) トレーニングデータ、(Amazon SageMaker Experiments の一環として) トレーニングされたモデル、および (Amazon SageMaker Model Monitor の一環として) デプロイされたモデルの推論についてのさまざまなバイアスメトリクスの計算をサポートしています。例えば、トレーニングの前に、トレーニングデータが代表的であるか (つまり、1 つのグループが過小評価されているか)、およびグループ間でラベルの分布に違いがあるかを確認するためのメトリクスを提供します。トレーニング後またはデプロイ中に、モデルのパフォーマンスがグループ間で異なるか (およびどの程度異なるか) を測定するために、メトリクスが役立ちます。例えば、エラー率 (モデルの予測が実際のラベルと異なる確率) を比較することから始めたり、適合率 (正の予測が正しい確率) および再現率 (モデルが正の例に正しくラベルを付ける確率) を示すようにさらに分解したりします。
SageMaker Clarify はモデルの説明可能性をどのように改善しますか?
SageMaker Clarify は SageMaker Experiments と統合されており、トレーニングされた後のモデルの全体的な意思決定プロセスにおける各入力の重要度を詳細に示す特徴の重要度のグラフを提供します。これらの詳細は、特定のモデル入力がモデル全体の動作に必要以上の影響を与えるかどうかを判断するのに役立ちます。また、SageMaker Clarify では、個々の予測結果に対する解説を API を通じて公開しています。
Amazon SageMaker Studio とは何ですか?
Amazon SageMaker Studio には、JupyterLab、Visual Studio をベースにしたコードエディター-コードオープンソース (コード — OSS)、RStudio など、さまざまな統合開発環境 (IDE) が用意されています。データ準備から ML モデルの構築、トレーニング、デプロイまで、あらゆる機械学習 (ML) 開発ステップを実行するための専用ツールにアクセスできる、お好みの IDE を選択できます。お好みの IDE を使用して、データをすばやくアップロードし、ノートブックでモデルを構築し、分散型トレーニングに拡張できます。
RStudio on Amazon SageMaker とは何ですか?
RStudio on SageMaker は初のクラウド展開のフルマネージド RStudio Workbench です。使い慣れた RStudio 統合開発環境 (IDE) をすばやく起動し、作業を中断することなく基盤となるコンピューティングリソースをダイヤルアップ/ダウンできるので、R による機械学習および分析ソリューションを簡単に大規模に構築できます。RStudio IDE と SageMaker Studio ノートブックをシームレスに切り替えて、R および Python 開発を行うことができます。 コード、データセット、リポジトリ、その他のアーティファクトを含むすべての作業は、2 つの環境間で自動的に同期されるため、コンテキストスイッチを減らし、生産性を高めることができます。
SageMaker Studio の料金はどのような仕組みになっていますか?
SageMaker Studio は、追加料金なしでご利用いただけます。SageMaker Studio 内で使用するサービスの基礎となるコンピューティングおよびストレージ料金のみを支払います。
SageMaker Studio はどのリージョンでサポートされていますか?
SageMaker Studio がサポートされているリージョンは、Amazon SageMaker デベロッパーガイドでご覧いただけます。
機械学習ガバナンス
SageMaker が提供する機械学習ガバナンスツールは何ですか?
SageMaker は、機械学習ライフサイクル全体にわたって、目的に応じた機械学習ガバナンスツールを提供します。Amazon SageMaker Role Manager を使用すると、管理者は最小限の権限を数分で定義できます。Amazon SageMaker Model Cards を使用すると、構想からデプロイまで、重要なモデル情報を簡単に取得、検索、共有でき、Amazon SageMaker Model Dashboard を使用すると、本番モデルの動作に関する情報をすべて 1 か所で把握することができます。詳細については、
Amazon SageMaker による 機械学習ガバナンスを参照してください。
SageMaker Role Manager は何をするものですか?
SageMaker Role Manager を使用して、最小限のアクセス許可を数分で定義できます。SageMaker Role Manager は、事前に構築された IAM ポリシーのカタログを使用して、機械学習アクティビティとペルソナのための権限のベースラインセットを提供します。基本的な権限を維持することも、特定のニーズに基づいてさらにカスタマイズすることもできます。ネットワークアクセスの境界や暗号化キーなど、一般的なガバナンスの構成は、いくつかのセルフガイドプロンプトですぐに入力できます。SageMaker Role Manager は、IAM ポリシーを自動的に生成します。生成されたロールと関連するポリシーは、AWS IAM コンソールで確認できます。ユースケースに合わせて権限をさらに調整するには、マネージド IAM ポリシーを、SageMaker Role Manager で作成した IAM ロールにアタッチします。また、タグを追加してロールを識別し、AWS のサービス間で整理することができます。
SageMaker Model Cards は何をするのですか?
SageMaker Model Cards は、モデル情報の単一の情報源を作成することによって、機械学習ライフサイクル全体を通してモデルドキュメントの一元化と標準化を支援します。SageMaker Model Cards は、トレーニングの詳細をオートポピュレートし、ドキュメント化プロセスを加速します。また、モデルの目的やパフォーマンス目標などの詳細を追加することもできます。モデルの評価結果をモデルカードに添付し、モデルのパフォーマンスに関する重要なインサイトを得るための視覚化を提供することができます。SageMaker Model Cards は、PDF 形式でエクスポートすることで、簡単に他の人と共有することができます。
SageMaker Model Dashboard は何をするのですか?
SageMaker Model Dashboard は、デプロイされたモデルとエンドポイントの包括的な概要を提供し、リソースとモデルの動作違反を 1 つのペインで追跡することができます。SageMaker Model Monitor および SageMaker Clarify との統合により、データとモデルの品質、バイアスとフィーチャーアトリビューションドリフトを含む 4 つの次元でモデルの動作をモニタリングすることが可能です。SageMaker Model Dashboard は、モデルモニタリングジョブの欠落や非アクティブ、モデル品質、データ品質、バイアスドリフト、フィーチャーアトリビューションドリフトに関するモデル動作の逸脱に対するアラートを設定および受信するための統合エクスペリエンスも提供します。さらに、個々のモデルを検査し、モデルのパフォーマンスに影響を与える要因を時系列で分析することができます。そして、機械学習実践者のフォローアップを行い、是正措置を講じることができます。
基盤モデル
SageMaker の使用を迅速に開始するにはどのようにすればよいですか?
SageMaker JumpStart は、機械学習をすばやく簡単に開始するのに役立ちます。SageMaker JumpStart は、最も一般的なユースケース向けの一連のソリューションを提供し、数回のステップだけで簡単にデプロイできます。ソリューションは完全にカスタマイズ可能であり、AWS CloudFormation テンプレートとリファレンスアーキテクチャの使用を紹介しているため、ML の導入を加速できます。SageMaker JumpStart は、基盤モデルも提供し、トランスフォーマー、オブジェクト検出、画像分類モデルなど、150 を超える人気のオープンソースモデルのワンステップデプロイと微調整もサポートしています。
SageMaker JumpStart ではどの基盤モデルを利用できますか?
SageMaker JumpStart は専用モデルとパブリックモデルを提供します。利用可能な基盤モデルのリストについては、Amazon SageMaker JumpStart の開始方法を参照してください。
SageMaker JumpStart を使用して基盤モデルの使用を開始するにはどうすればよいですか?
基盤モデルには、SageMaker Studio、SageMaker SDK、および AWS マネジメントコンソールからアクセスできます。独自の基盤モデルの使用を開始するには、AWS Marketplace の販売条件を承諾する必要があります。
SageMaker JumpStart を使用しているお客様に提供される基本モデルを更新するために、私のデータを使用したり共有したりすることはありますか?
いいえ、ご自身の推論およびトレーニングデータは、SageMaker JumpStart がお客様に提供する基本モデルの更新やトレーニングに使用または共有されることはありません。
SageMaker JumpStart で専用モデルのモデルの重みとスクリプトを確認することはできますか?
いいえ、専用モデルでは、お客様がモデルの重みやスクリプトを表示することはできません。
SageMaker JumpStart の基盤モデルはどのリージョンで入手可能ですか?
モデルは SageMaker Studio が利用可能なすべてのリージョンで見つけることができますが、モデルをデプロイできるかどうかは、必要なインスタンスタイプのモデルとインスタンスの可用性によって異なります。AWS Marketplace のモデル詳細ページから AWS リージョンの可用性と必要なインスタンスを参照できます。
SageMaker JumpStart の基盤モデルの料金はどのようになっていますか?
専用モデルの場合は、モデルプロバイダーが決定するソフトウェア価格と、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。公開されているモデルについては、使用したインスタンスに基づいて SageMaker インフラストラクチャ料金が課金されます。詳細については、Amazon SageMaker の料金と AWS Marketplace を参照してください。
SageMaker JumpStart は、どのようにデータの保護とセキュリティに役立ちますか?
AWS ではセキュリティが最優先事項であり、SageMaker JumpStart はセキュリティを考慮して設計されています。このため、SageMaker ではコンテンツの所有権と管理権をお客様に提供しています。簡素化されたパワフルなツールは、お客様が自分のコンテンツをどこに保存するかを決定し、転送中のコンテンツと保管中のコンテンツを保護し、お客様のユーザーの AWS のサービスとリソースに対するアクセスを管理するのに役立ちます。
- カスタマートレーニングや推論情報を AWS Marketplace のモデル出品者と共有することはありません。同様に、出品者のモデルアーティファクト (モデルの重みなど) は購入者と共有されません。
- SageMaker JumpStart は、サービスの向上のために顧客モデル、トレーニングデータ、またはアルゴリズムを使用したり、顧客トレーニングや推論データを第三者と共有したりすることはありません。
- SageMaker JumpStart では、ML モデルのアーティファクトは転送中も保管時も暗号化されます。
- AWS 責任共有モデルでは、 AWS は、すべての AWS で実行されるグローバルインフラストラクチャの保護について責任を負います。お客様は、このインフラストラクチャでホストされているコンテンツの維持について責任を負います。
AWS Marketplace または SageMaker JumpStart のモデルを使用することで、ユーザーはモデル出力の品質について責任を負うものとし、個々のモデルの説明に記載されている機能と制限に同意したものとみなされます。
SageMaker JumpStart でサポートされているオープンソースモデルはどれですか?
SageMaker JumpStart には、PyTorch Hub と TensorFlow Hub の 150 以上の事前にトレーニングされたオープンソースモデルが含まれています。画像分類やオブジェクト検出などの視覚タスクでは、RESNET、MobileNet、Single-Shot Detector (SSD) のようなモデルを使用できます。文の分類、テキストの分類、質問応答などのテキストタスクには、BERT、RoBERTa、DistilBERT のようなモデルを使用できます。
機械学習のアーティファクトを組織内の他の人と共有するにはどうすればよいですか?
SageMaker JumpStart を使用すると、データサイエンティストと機械学習デベロッパーは、ノートブックとモデルを含む機械学習のアーティファクトを組織内で簡単に共有することができます。管理者は、定義された一連のユーザーがアクセスできるリポジトリを設定することができます。リポジトリにアクセスする権限を持つすべてのユーザーは、モデルやノートブック、SageMaker JumpStart 内の公開コンテンツを閲覧、検索、使用することができます。ユーザーは、アーティファクトを選択して、SageMaker JumpStart でモデルのトレーニング、エンドポイントのデプロイ、およびノートブックの実行を行うことができます。
なぜ SageMaker JumpStart を使用して、組織内の他の人と機械学習のアーティファクトを共有する必要があるのですか?
SageMaker JumpStart を使用すると、機械学習アプリケーションを構築する際の市場投入までの時間を短縮することができます。組織内のあるチームが構築したモデルやノートブックを、数回のステップだけで、組織内の他のチームと簡単に共有することができます。内部での知識共有とアセットの再利用により、組織の生産性を大幅に向上させることができます。
基礎モデルを評価して選択するにはどうすればいいですか?
ローコード機械学習
Amazon SageMaker Autopilot とは何ですか?
SageMaker Autopilot は業界初の自動化された機械学習機能で、ユーザーは自分の ML モデルをすべてコントロールし、完全に可視化できます。SageMaker Autopilot は自動的に raw データを検証し、機能プロセッサを適用して、最適なアルゴリズムのセットを選出します。そして、複数のモデルをトレーニングおよび調整し、パフォーマンスを追跡、その後、パフォーマンスに基づいてモデルをランク付けします。これらすべての処理がわずか数クリックで実行できます。その結果、通常ではモデルのトレーニングに要するのと同程度のわずかな時間で、最高のパフォーマンスを備えたモデルをデプロイできます。モデルがどのように作成され、その中身が何かまで完全に見える化でき、SageMaker Autopilot は SageMaker Studio と統合します。SageMaker Studio 内で SageMaker Autopilot によって生成されたモデルを最高 50 種類まで試すことができるので、ユースケースに最適なモデルを簡単に選べます。SageMaker Autopilot はモデルを簡単に作成するために、機械学習の経験のないユーザーにも使用できるほか、経験を積んだデベロッパーが使用してすばやく基盤となるモデルを作成し、それをチームがさらに繰り返し使用することもできます。
SageMaker Autopilot のジョブを手動で停止できますか?
はい。ジョブはいつでも停止できます。SageMaker Autopilot ジョブが停止すると、進行中のすべてのトライアルが停止し、新しいトライアルは開始されません。
Amazon SageMaker Canvas とは何ですか?
SageMaker Canvas は、直感的なポイントアンドクリックインターフェイスを備えたノーコードサービスであり、データから非常に正確な機械学習ベースの予測を作成できます。SageMaker Canvas では、ドラッグアンドドロップ式のユーザーインターフェイスを使用してさまざまなソースからデータにアクセスして組み合わせることができ、自動的にデータをクリーニングして準備するため、手動によるクリーンアップを最小限に抑えることができます。SageMaker Canvas は、さまざまな最先端の機械学習アルゴリズムを適用して高精度な予測モデルを見つけ出し、直感的なインターフェイスで予測を行うことができます。SageMaker Canvas を使用すると、さまざまなビジネスアプリケーションでより正確な予測を行い、モデル、データ、レポートを共有することで、企業内のデータサイエンティストやアナリストと簡単に連携できます。SageMaker Canvas の詳細については、Amazon SageMaker Canvas のよくある質問を参照してください。
SageMaker Canvas の料金はどのような仕組みになっていますか?
SageMaker Canvas では、使用量に応じてお支払いただきます。SageMaker Canvas は、複数のソースからインタラクティブにデータを取り込み、探索、準備することが可能で、データを使って高精度の ML モデルを学習し、予測を生成することができます。請求対象となるのは、SageMaker Canvas の使用時間またはログイン時間に応じたセッション料金と、モデル構築に使用したデータセットのサイズに応じたモデル学習料金の 2 つです。詳細については、Amazon SageMaker Canvas の料金をご覧ください。
機械学習ワークフロー
SageMaker で継続的統合とデリバリー (CI/CD) パイプラインを構築するにはどうすればよいですか?
Amazon SageMaker Pipelines は、データの準備からモデルのデプロイまで、完全に自動化された機械学習ワークフローを作成するのに役立ちます。これにより、本番環境で数千の機械学習モデルにスケールできます。SageMaker Pipelines には SageMaker Studio に接続する Python SDK が含まれているため、ビジュアルインターフェイスを利用してワークフローの各ステップを構築できます。その後、単一の API を使用し、各ステップをつなげて、完全なワークフローを作成できます。SageMaker Pipelines は、ステップ間のデータの管理、コードレシピのパッケージ化、および実行の調整を行い、コーディングに費やす数か月に及ぶ時間を数時間に短縮します。ワークフローが実行されるたびに、処理されたデータと実行されたアクションの完全な記録が保持されるため、データサイエンティストと機械学習デベロッパーは問題をすばやくデバッグできます。
トレーニングされたすべてのモデルを表示して、本番環境に移行するのに最適なモデルを選択するにはどうすればよいですか?
SageMaker Pipelines は、モデルレジストリと呼ばれるトレーニングされたモデルの一元的なリポジトリを提供します。モデルを検出し、SageMaker Studio を介して視覚的に、または Python SDK を介してプログラムでモデルレジストリにアクセスできるため、本番環境にデプロイすることを希望するモデルの選択がより簡単になります。
SageMaker のどのコンポーネントを SageMaker Pipelines に追加できますか?
SageMaker Clarify、Amazon SageMaker Data Wrangler、Amazon SageMaker Feature Store、Amazon SageMaker Experiments、Amazon SageMaker Debugger、および Amazon SageMaker Model Monitor などの SageMaker Studio を通じて利用できるコンポーネントを SageMaker Pipelines に追加できます。
機械学習ワークフロー全体でモデルコンポーネントを追跡するにはどうすればよいですか?
SageMaker Pipelines は、すべてのモデル構成要素を自動的に追跡し、すべての変更の監査証跡を保持することで、手動の追跡を排除し、コンプライアンスの目標を達成するのに役立ちます。SageMaker Pipelines を使用して、データ、コード、トレーニングされたモデルなどを追跡できます。
SageMaker Pipelines の料金体系はどのようになっています?
SageMaker Pipelines は、追加料金なしでご利用いただけます。SageMaker Pipelines 内で使用する基盤となるコンピューティングまたは個別の AWS のサービスに対してのみ料金を支払います。
SageMaker で Kubeflow を使用できますか?
はい。Kubeflow Pipelines 用 Amazon SageMaker コンポーネントは、Kubeflow Pipelines を使用して機械学習ワークフローを定義し、データのラベル付け、トレーニング、推論のステップで SageMaker を使用するためのオープンソースのプラグインです。Kubeflow Pipelines は、ポータブルでスケーラブルな完全な機械学習パイプラインを構築してデプロイできる、Kubeflow のアドオンです。ただし、Kubeflow Pipelines を使用する場合、機械学習運用チームは CPU や GPU インスタンスを使用して Kubernetes クラスターを管理し、常に稼働率を高く保って運用コストを削減する必要があります。データサイエンスチーム全体でクラスターの利用率を最大化することは簡単ではなく、機械学習運用チームに余計な運用経費を負担させることになります。機械学習に最適化された Kubernetes クラスターの代わりに、SageMaker Components for Kubeflow Pipelines を使用できます。これにより、機械学習ジョブを実行するための特別な Kubernetes クラスターの構成や管理をしなくても、データのラベル付け、フルマネージドの大規模なハイパーパラメータ調整、分散トレーニングジョブ、ワンクリックでの安全でスケーラブルなモデルのデプロイ、Amazon Elastic Compute Cloud (Amazon EC2) スポットインスタンスでの費用対効率が高いトレーニングなど、強力な SageMaker の機能を利用できます。
SageMaker Components for Kubeflow Pipelines の料金体系はどのようになっていますか?
SageMaker Components for Kubeflow Pipelines は、追加料金なしで利用できます。
データを準備する
SageMaker は、機械学習用のデータをどのように準備できますか?
SageMaker Data Wrangler は、機械学習用のデータを集約して準備するのにかかる時間を短縮します。SageMaker Studio の単一のインターフェイスでは、Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon SageMaker Feature Store、Snowflake からデータをわずか数回のステップで参照、インポートすることが可能です。また、40 以上のデータソースから転送され、Amazon AppFlow によって AWS Glue データカタログに登録されたデータもクエリを実行してインポートすることが可能です。SageMaker Data Wrangler は、生データを自動的に読み込み、集計し、表示します。SageMaker Data Wrangler にデータをインポートすると、自動生成された列のサマリーやヒストグラムを見ることができます。その後、SageMaker Data Wrangler の Data Quality and Insights レポートを使用して、データをより深く理解し、潜在的なエラーを特定することができます。このレポートでは、要約統計とデータ品質に関する警告が表示されます。また、SageMaker Clarify でサポートされているバイアス分析を SageMaker Data Wrangler から直接実行し、データ準備中に潜在的なバイアスを検出することができます。そこから、SageMaker Data Wrangler の事前構築された変換を使用して、データを準備することができます。データの準備ができたら、Amazon SageMaker Pipelines を使用して完全に自動化された機械学習ワークフローを構築し、そのデータを Amazon SageMaker Feature Store にインポートできます。
SageMaker データラングラーはどのようなデータ型をサポートしていますか?
SageMaker Data Wrangler でモデルの特徴を作成するにはどうすればよいですか?
SageMaker Data Wrangler は、1 行のコードも必要とすることなく、データを新しい特徴に自動的に変換できます。SageMaker Data Wrangler は、設定済みのデータ変換、欠損データの補完、ワンホットエンコーディング、主成分分析 (PCA) による次元削減、および時系列固有トランスフォーマーのセレクションを提供します。例えば、テキストフィールドの列をワンステップで数値の列に変換することができます。また、SageMaker Data Wrangler のスニペットライブラリからコードスニペットをオーサリングすることも可能です。
SageMaker Data Wrangler でデータを視覚化するにはどうすればよいですか?
SageMaker Data Wrangler は、堅牢な事前設定済みの視覚化テンプレートのセットを使用して、データを理解し、潜在的なエラーと極値を特定するのに役立ちます。ヒストグラム、散布図、およびターゲット漏えい検出などの ML 固有の視覚化はすべて、1 行のコードも記述することなく利用できます。独自の視覚的なデータを作成および編集することもできます。
SageMaker Data Wrangler の料金体系はどのようになっていますか?
SageMaker Data Wrangler で準備したデータで機械学習モデルをトレーニングするにはどうすればよいですか?
SageMaker Data Wrangler は、SageMaker Autopilot でデータを準備し、機械学習モデルをシームレスにトレーニングすることができる統一されたエクスペリエンスを提供します。SageMaker Autopilot は、データに基づいて最適な機械学習モデルを自動的に構築、トレーニング、および調整します。SageMaker Autopilot を使用しても、データとモデルの完全な制御と可視性は維持されます。SageMaker Data Wrangler で用意された特徴を、既存のモデルで使用することもできます。ユーザーインターフェイス (UI) でジョブを設定するか、オーケストレーションコードを含むノートブックをエクスポートすることで、SageMaker Data Wrangler の処理ジョブを SageMaker トレーニングパイプラインの一部として実行するように設定することが可能です。
過去のデータで特徴を準備した場合、SageMaker Data Wrangler は新しいデータをどのように扱うのですか?
データ処理ジョブのスケジューリングやデータソースのパラメータ設定など、SageMaker の処理ジョブを SageMaker Data Wrangler UI から直接設定および起動し、新しいデータバッチを簡単に大規模に変換することができます。
SageMaker Data Wrangler は、私の CI/CD プロセスとどのように連携しますか?
データの準備ができたら、SageMaker Data Wrangler は、SageMaker Data Wrangler フローを本番環境に移行するためのさまざまなオプションを提供し、MLOps および CI/CD 機能とシームレスに統合されます。データ処理ジョブのスケジューリングやデータソースのパラメータ設定など、SageMaker の処理ジョブを SageMaker Data Wrangler UI から直接設定および起動し、新しいデータバッチを簡単に大規模に変換することができます。また、SageMaker Data Wrangler は SageMaker 処理およびSageMaker Spark コンテナとシームレスに統合されているため、SageMaker SDK を使用して SageMaker Data Wrangler を本番ワークフローに簡単に統合することができます。
SageMaker Data Wrangler Quick Model は、どのモデルを使用するのですか?
SageMaker Data Wrangler は、数回のステップで、デフォルトのハイパーパラメータを持つ XGBoost モデルを分割し、トレーニングします。問題の種類に基づいて、SageMaker Data Wrangler は、モデル要約、機能要約、混同行列を提供し、データ準備フローを反復することができるように、すばやくインサイトを与えることができます。
SageMaker Data Wrangler はどのようなサイズのデータをサポートしていますか?
SageMaker Data Wrangler は、SageMaker Data Wrangler の UI を使用してデータを迅速に変換できるように、データのインポート時に top-K、ランダム、層別サンプリングなど、さまざまなサンプリング技術をサポートしています。大規模、広範囲のデータセットを使用している場合は、SageMaker Data Wrangler のインスタンスサイズを大きくすることで、パフォーマンスを向上させることができます。フローを作成したら、SageMaker Data Wrangler の処理ジョブを使用してデータセット全体を処理することができます。
SageMaker Data Wrangler は SageMaker Feature Store と連動しますか?
SageMaker Data Wrangler で作成した特徴の宛先として、SageMaker Feature Store を設定することができます。これは、UI で直接行うこともできますし、SageMaker Feature Store を宛先としてデータ処理専用に生成されたノートブックをエクスポートすることも可能です。
機械学習モデルの特徴を保存するにはどうすればよいですか?
SageMaker Feature Store は、読み取りと書き込みのレイテンシーが低い (ミリ秒) データの特徴のための一元的なリポジトリを提供します。特徴は SageMaker Feature Store を介して保存、取得、検出、および共有できるため、安全なアクセスと制御により、モデルやチーム間で簡単に再利用できます。SageMaker Feature Store は、バッチまたはストリーミングパイプラインを介して生成されたオンライン特徴とオフライン特徴の両方をサポートします。特徴のバックフィルをサポートし、モデルトレーニングと推論で使用される特徴間の均衡を維持するために、オンラインストアとオフラインストアの両方を提供します。
オンライン特徴とオフライン特徴の一貫性を維持するにはどうすればよいですか?
SageMaker Feature Store は、追加の管理やコードを必要とせずに、オンライン特徴とオフライン特徴の間の一貫性を自動的に維持します。SageMaker Feature Store はフルマネージド型であり、トレーニング環境と推論環境全体で一貫性を維持します。
特定の時点から特徴を再現するにはどうすればよいですか?
SageMaker Feature Store は、あらゆる時点におけるすべての特徴のタイムスタンプを維持しています。これにより、ビジネス要件またはコンプライアンス要件を満たすために、いつでも特徴を取得できます。特定の時点からモデルを再現することで、最初に作成されてから現在に至るまでのモデルの特徴とその価値を簡単に説明できます。
オフライン特徴とは何ですか?
オフライン特徴はトレーニングに使用されます。これは、長期間にわたって大量にアクセスする必要があるためです。これらの特徴は、高スループット、高帯域幅のリポジトリから提供されます。
オンライン特徴とは何ですか?
オンライン特徴は、リアルタイムの予測を行うために必要なアプリケーションで使用されます。オンライン特徴は、高速予測のために、レイテンシーが 1 桁のミリ秒の高スループットリポジトリから提供されます。
SageMaker Feature Store の料金体系はどうなっていますか?
AWS 無料利用枠の一環として、SageMaker Feature Store の使用を無料で開始できます。SageMaker Feature Store では、特徴ストアへの書き込み、オンライン特徴ストアからの読み取りとストレージの料金をお支払いいただきます。料金の詳細については、Amazon SageMaker の料金をご覧ください。
SageMaker はデータラベリングに何を提供しますか?
SageMaker は、Amazon SageMaker Ground Truth Plus と Amazon SageMaker Ground Truth の 2 つのデータラベリングサービスを提供します。どちらのオプションでも、画像、テキストファイル、動画などの raw データを識別し、有益なラベルを追加して、機械学習モデル用の高品質のトレーニングデータセットを作成できます。詳細については、Amazon SageMaker データラベリングを参照してください。
地理空間データとは
地理空間データは、地表上のフィーチャーやオブジェクトを表します。地理空間データの第一のタイプは、点、線、多角形などの 2 次元の幾何学的形状を用いて、道路や土地などのオブジェクトの境界線を表現するベクトルデータです。2 番目のタイプの地理空間データは、衛星、空中プラットフォーム、またはリモートセンシングデータでキャプチャされた画像などのラスターデータです。このデータタイプは、ピクセルのマトリックスを用いて、フィーチャの場所を定義します。ラスター形式を用いて、変化するデータを保存できます。3 番目のタイプの地理空間データは、ジオタグ付きの位置データです。これには、エッフェル塔などの名所、位置タグが付けられたソーシャルメディアの投稿、緯度と経度の座標、さまざまなスタイルや形式の住所が含まれます。
SageMaker の地理空間機能は何ですか?
SageMaker の地理空間機能により、データサイエンティストや機械学習エンジニアは、地理空間データを用いて機械学習モデルを簡単に構築、トレーニング、デプロイし、予測を行えます。Amazon S3 からの Planet Labs 衛星データなどの独自のデータを持ち込んだり、AWS の Open Data、Amazon Location Service やその他の SageMaker 地理空間データソースからデータを取得したりできます。
なぜ SageMaker で地理空間機械学習を使用する必要があるのですか?
SageMaker 地理空間機能を使用して、自分で行うソリューションよりも高速に地理空間データの予測を行うことができます。SageMaker 地理空間機能により、既存の顧客データレイク、オープンソースデータセット、およびその他の SageMaker 地理空間データソースから地理空間データに簡単にアクセスできます。SageMaker の地理空間機能は、効率的なデータ準備、モデルトレーニング、および推論のための専用アルゴリズムを提供することで、カスタムインフラストラクチャとデータ前処理機能を構築する必要性を最小限に抑えます。また、SageMaker Studio からカスタムの視覚化情報とデータを作成して組織と共有することもできます。SageMaker の地理空間機能には、農業、不動産、保険、金融サービスで一般的に使用される事前トレーニング済みのモデルが含まれています。
モデルの構築
Amazon SageMaker Studio ノートブックとは何ですか?
SageMaker Studio ノートブックは、クイックスタート、コラボレーション、マネージド Jupyter Notebook です。SageMaker Studio ノートブックは、SageMaker 内の専用機械学習ツールやその他の AWS のサービスと統合して、機械学習用の完全な IDE である SageMaker Studio で完全な機械学習開発を実現します。
SageMaker Studio ノートブックは、インスタンスベースのノートブック製品とどう違いますか?
SageMaker Studio ノートブックは、インスタンスベースのノートブックとは異なるいくつかの重要な機能を提供します。Studio ノートブックでは、インスタンスを手動でプロビジョニングして操作可能になるのを待つ必要なく、ノートブックをすばやく起動できます。ノートブックを読み取って実行するために UI を起動する起動時間は、インスタンスベースのノートブックよりも高速です。
また、いつでも UI 内からインスタンスタイプの大規模なコレクションを柔軟に選択できます。新しいインスタンスを起動したり、ノートブックに移植したりするために、AWS マネジメントコンソールにアクセスする必要はありません。
各ユーザーには、特定のインスタンスに依存しない独立したホームディレクトリがあります。このディレクトリは、起動時にすべてのノートブックサーバーとカーネルに自動的にマウントされるため、インスタンスを切り替えてノートブックを表示して実行する場合でも、ノートブックやその他のファイルにアクセスできます。
SageMaker Studio ノートブックは AWS IAM アイデンティティセンター (AWS SSO の後継) と統合されているため、組織の認証情報を使用してノートブックにアクセスするのがより簡単になります。ノートブックの共有は、SageMaker Studio ノートブックに統合された機能です。ワンステップでノートブックを仲間と共有したり、1 つのノートブックを同時に共同編集することも可能です。
SageMaker Studio ノートブックはどのように機能しますか?
SageMaker Studio ノートブックは、ワンステップで Jupyter Notebook に素早くスピンできます。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。SageMaker ではまた、ワンステップでノートブックを共有することもできます。ノートブックを他の人と簡単に共有できます。また、全員が同じ場所に保存された同じノートブックを入手できます。
SageMaker Studio ノートブックでは、 IAM アイデンティティセンターを使用して企業の認証情報でサインインできます。チーム内およびチーム間でノートブックを共有するのは簡単ですが、ノートブックを実行するのに必要な依存関係は、ノートブックを共有するときにカプセル化された作業イメージで自動的に追跡されるからです。
SageMaker の共有スペースとは何ですか?
機械学習の実践者は、チームメイトが SageMaker Studio ノートブックを一緒に読んだり編集したりできる共有ワークスペースを作成することができます。共有スペースを使用することで、チームメイトは同じノートブックファイルを共同編集し、ノートブックコードを同時に実行し、その結果を一緒にレビューすることで、行き違いをなくし、共同作業を効率化することができます。共有スペースでは、BitBucket や AWS CodeCommit のようなサービスのサポートが組み込まれており、機械学習チームは、異なるバージョンのノートブックを簡単に管理し、時間の経過とともに変更点を比較できるようになります。実験や機械学習モデルなど、ノートブック内から作成されたすべてのリソースは自動的に保存され、これが作成された特定のワークスペースに関連付けられるため、チームはより簡単に整理され、機械学習モデル開発を加速させることができます。
SageMaker Studio ノートブックは他の AWS のサービスとどのように連携していますか?
SageMaker Studio ノートブックを使用すると、分散トレーニング、バッチ変換、ホスティング、実験管理など、SageMaker のすべての機能にアクセスできます。SageMaker ノートブックから、Simple Storage Service (Amazon S3) のデータセット、Amazon Redshift、AWS Glue、Amazon EMR、AWS Lake Formation などの他のサービスにアクセスできます。
SageMaker Studio ノートブックの料金はどのような仕組みになっていますか?
SageMaker Studio ノートブックを使用すると、コンピューティングとストレージの両方の料金が発生します。コンピューティングインスタンスタイプ別の料金については、Amazon SageMaker Pricing を参照してください。ノートブックおよびデータファイルやスクリプトなどの関連するアーティファクトは、Amazon Elastic File System (Amazon EFS) で保持されます。ストレージの料金については、Amazon EFS の料金を参照してください。AWS 無料利用枠内で、SageMaker Studio ノートブックの使用を無料で開始できます。
SageMaker Studio で作成し、実行する個々のノートブックは、別々に課金されますか?
いいえ。同じコンピューティングインスタンスで複数のノートブックを作成し、実行できます。料金は、個々のアイテムではなく、使用したコンピューティングに対してのみ発生します。詳細については、Usage Metering を参照してください。
SageMaker Studio では、ノートブックに加え、同じコンピューティングインスタンスで、ターミナルおよび対話型シェルを開始して実行することも可能です。各アプリケーションは、コンテナまたはイメージ内で実行されます。SageMaker Studio では、データサイエンスおよび機械学習専用に事前設定された組み込みイメージがいくつか用意されています。SageMaker Studio のデベロッパー環境の詳細については、SageMaker Studio ノートブックの使用のガイドを参照してください。
ノートブックで使用するリソースのモニタリングとシャットダウンは、どのように行えばよいですか?
SageMaker Studio ノートブックを実行しています。ブラウザやノートブックのタブを閉じた場合、またはブラウザを開いたままにしておいた場合、料金は発生しますか?
はい。コンピューティング料金が引き続き発生します。これは、 AWS マネジメントコンソールで Amazon EC2 インスタンスを作成し、その後ブラウザを閉じた場合と同様です。Amazon EC2 インスタンスの実行は継続され、明示的にシャットダウンしない限り、料金が発生します。
SageMaker Studio ドメインの作成および設定に対して料金は発生しますか?
いいえ、ユーザープロファイルの追加、更新、削除などを含め、SageMaker Studio ドメインの作成および設定に対しては料金が発生しません。
SageMaker Studio ノートブックやその他の SageMaker サービスに対する料金の明細は、どのように確認できますか?
管理者は、SageMaker Studio を含む SageMaker の料金の明細を AWS 請求コンソールで確認できます。SageMaker の AWS マネジメントコンソールで、トップメニューの [Services (サービス)] を選択し、検索ボックスに「billing (請求)」と入力して、ドロップダウンから [Billing (請求)] を選択します。その後、左側のパネルで [Bills (請求書)] を選択します。[Details] (詳細) セクションで、[SageMaker] を選択してリージョンの一覧を展開し、料金の明細を確認できます。
Amazon SageMaker Studio Lab とは何ですか?
SageMaker Studio Lab は、無料の機械学習開発環境であり、コンピューティング、ストレージ (最大 15 GB)、セキュリティをすべて無料で提供し、誰でも機械学習を学んで実験できます。開始するために必要なのは有効な E メール ID だけです。インフラストラクチャを設定したり、ID とアクセスを管理したり、AWS アカウントにサインアップしたりする必要はありません。SageMaker Studio Lab は、GitHub 統合を通じてモデル構築を加速し、最も人気のある機械学習ツール、フレームワーク、およびライブラリが事前設定されているため、すぐに開始できます。SageMaker Studio Lab は作業内容を自動的に保存するため、セッションの合間に再起動する必要はありません。ノートパソコンを閉じて後で戻ってくるのと同じくらい簡単です。
SageMaker Studio Lab を使用する必要があるのはなぜですか?
SageMaker Studio Lab は、機械学習のクラスや実験にセットアップを必要としない無料のノートブック開発環境を必要とする学生、研究者、データサイエンティスト向けです。SageMaker Studio Lab は、本番環境を必要としないが、機械学習スキルを向上させるために SageMaker 機能のサブセットが必要なユーザーに最適です。SageMaker セッションは自動的に保存され、ユーザーが各ユーザーセッションで中断したところから再開するのに役立ちます。
SageMaker Studio Lab は他の AWS のサービスとどのように連携していますか?
SageMaker Studio Lab は AWS 上に構築されたサービスであり、Simple Storage Service (Amazon S3) や Amazon EC2 などの Amazon SageMaker Studio と同じコアサービスの多くを使用しています。他のサービスとは異なり、お客様は AWS アカウントを必要としません。代わりに、E メールアドレスを使用して SageMaker Studio Lab 固有のアカウントを作成します。これにより、ユーザーは機械学習ノートブックを実行するための限られた環境 (15 GB のストレージと 12 時間のセッション) にアクセスできるようになります。
SageMaker Canvas とは何ですか?
SageMaker Canvas は、ビジネスアナリストがコードの記述や機械学習の専門知識を必要とせずに、機械学習モデルを構築し、正確な予測を生成できるようにする、視覚的なドラッグアンドドロップサービスです。SageMaker Canvas を使用すると、さまざまなソースからのデータにアクセスして結合し、データを自動的にクリーンアップしてさまざまなデータ調整を適用し、機械学習モデルを構築してワンステップで正確な予測を生成するのがより簡単になります。また、結果を簡単に公開し、モデルを説明および解釈し、組織内の他のユーザーとモデルを共有してレビューすることもできます。
SageMaker Canvas はどのデータソースをサポートしていますか?
SageMaker Canvas は、Simple Storage Service (Amazon S3) や Amazon Redshift など、アカウントがアクセスできる AWS データソースをシームレスに検出するのに役立ちます。SageMaker Canvas のビジュアル、ドラッグアンドドロップインターフェイスを使用して、データを参照およびインポートできます。さらに、ローカルディスクからファイルをドラッグアンドドロップし、構築済みのコネクタを使用して、Snowflake などのサードパーティーソースからデータをインポートできます。
SageMaker Canvas で正確な予測を生成するための機械学習モデルはどのように構築すればよいですか?
ソースを接続し、データセットを選択し、データを準備したら、予測するターゲット列を選択してモデル作成ジョブを開始できます。SageMaker Canvas は、問題のタイプを自動的に識別して関連性の高い新しい特徴量を生成し、線形回帰、ロジスティック回帰、深層学習、時系列予測、勾配ブースティングなどの ML 技術を使用して広範囲にわたる予測モデルをテストし、データセットに基づいて正確な予測を行うモデルを構築することができます。
SageMaker Canvas でモデルを構築するには、どれくらいの時間がかかりますか? モデル作成中の進行状況をモニタリングするにはどうすればよいですか?
モデルの構築にかかる時間は、データセットのサイズによって異なります。小さなデータセットは 30 分未満、大きなデータセットは数時間かかる場合があります。モデル作成ジョブが進行すると、SageMaker Canvas は、ジョブ完了率やジョブ完了までの残り時間など、詳細な視覚的更新情報を提供します。
モデルのトレーニング
Amazon SageMaker HyperPod とは何ですか?
Amazon SageMaker Experiments とは何ですか?
SageMaker Experiments は機械学習モデルへの繰り返し処理を調整および追跡するのに役立ちます。SageMaker Experiments は入力パラメータ、構成、結果などを自動的に捕捉し、こうした内容を「実験結果」として保存することで、繰り返し作業を管理しやすくします。ユーザーは SageMaker Studio の視覚的なインターフェイス上で作業できます。ここでは、アクティブな実験結果を参照したり、性質別に前回の実験結果を検索したり、あるいは、その結果とともに前回の実験を検証、または実験結果を視覚的に比較できます。
SageMaker ハイパーポッドはいつ使うべきですか?
Amazon SageMaker Debugger とは何ですか?
SageMaker Debugger はモデルの精度を改善するために、混同行列、学習勾配といったリアルタイムのメトリクスをトレーニング中に自動取得します。SageMaker Debugger から取得したメトリクスは、容易に理解できるよう SageMaker Studio で視覚化できます。SageMaker Debugger は一般的なトレーニングの問題が検出されたときに、警告や修復のアドバイスを生成することもできます。SageMaker Debugger は、CPU、GPU、ネットワーク、メモリなどのシステムリソースをリアルタイムで自動的にモニタリングおよびプロファイリングし、これらのリソースの再割り当てに関する推奨事項を提供します。これは、トレーニング中にリソースを効率的に使用して、費用とリソースを削減するのに役立ちます。
SageMaker は分散トレーニングをサポートしていますか?
はい。SageMaker は、これらの配布戦略を手動で構築して最適化するのにかかる時間の何分の 1 かで、深層学習モデルと大規模なトレーニングセットを AWS の GPU インスタンス全体に自動的に配布できます。SageMaker が適用する 2 つの分散トレーニング手法とは、データの並列処理とモデルの並列処理です。データの並列処理は、データを複数の GPU インスタンスに均等に分割し、各インスタンスが同時にトレーニングできるようにすることで、トレーニング速度を向上させるために適用されます。モデルの並列処理は、モデルが大きすぎて単一の GPU に格納できず、複数の GPU に分散する前にモデルを小さな部分にパーティション化する必要がある場合に役立ちます。PyTorch および TensorFlow トレーニングスクリプトに数行の追加コードを追加するだけで、SageMaker はデータの並列処理またはモデルの並列処理を自動的に適用し、モデルの開発とデプロイをより迅速に行えるようにします。SageMaker は、グラフ分割アルゴリズムを使用して各 GPU 計算のバランスを取りながら、GPU インスタンス間の通信を最小限に抑えることで、モデルを分割するための最良のアプローチを決定します。SageMaker はまた、AWS コンピューティングとネットワークを完全に活用するアルゴリズムを通じて分散トレーニングジョブを最適化し、ほぼリニアなスケーリング効率を実現します。これにより、手動のオープンソース実装よりも速くトレーニングを完了できます。
Amazon SageMaker Training Compiler とは何ですか?
SageMaker Training Compiler は深層学習 (DL) コンパイラであり、GPU をより効率的に使用するために、グラフレベルおよびカーネルレベルの最適化を通じて DL モデルトレーニングを最大 50% 高速化します。SageMaker Training Compiler は、SageMaker のバージョンの TensorFlow および PyTorch と統合されているため、最小限のコード変更で、これらの一般的なフレームワークでのトレーニングを高速に行えます。
SageMaker Training Compiler の仕組みを教えてください。
SageMaker Training Compiler は、DL モデルを高水準言語表現から、ネイティブフレームワークを使用したジョブよりも高速にトレーニングするハードウェアに最適化された命令に変換することで、トレーニングジョブを加速します。より具体的には、SageMaker Training Compiler は、ハードウェアリソースをより効率的に使用する最適化されたモデルトレーニングジョブを生成し、その結果、より高速にトレーニングするために、グラフレベルの最適化 (演算子の融合、メモリ計画、および代数の単純化)、データフローレベルの最適化 (レイアウト変換、共通部分式除去)、ならびにバックエンドの最適化 (メモリレイテンシー隠蔽、ループ指向の最適化) を実行します。
SageMaker Training Compiler を使用するにはどうすればよいですか?
SageMaker Training Compiler は、SageMaker Python SDK および SageMaker Hugging Face Deep Learning Containers に組み込まれています。スピードアップの利点を享受するためにワークフローを変更する必要はありません。SageMaker ノートブックインスタンス、SageMaker Studio、AWS SDK for Python (Boto3)、AWS コマンドラインインターフェイス (AWS CLI) のいずれかの SageMaker インターフェイスを使用して、これまでと同じ方法でトレーニングジョブを実行できます。フレームワークエスティメータオブジェクトを作成するときにパラメータとして TrainingCompilerConfig クラスを追加することで、SageMaker Training Compiler を有効にできます。実際には、これは、1 つの GPU インスタンスの既存のトレーニングジョブスクリプトに数行のコードが追加されることを意味します。最新の詳細なドキュメント、サンプルノートブック、および例は、ドキュメントで入手できます。
SageMaker Training Compiler の料金はいくらですか?
SageMaker Training Compiler は SageMaker のトレーニング機能であり、SageMaker のお客様のみに追加料金なしで提供されます。トレーニング時間が短縮されるため、お客様は SageMaker Training Compiler を使用して実際にコストを削減することができます。
マネージドスポットトレーニングとは何ですか?
SageMaker を使ったマネージドスポットトレーニングでは、Amazon EC2 スポットインスタンスを使用して機械学習モデルをトレーニングでき、モデルのトレーニングコストを最大 90% 削減します。
マネージドスポットトレーニングはどのように使用するのですか?
トレーニングジョブを送信する際にマネージドスポットトレーニングのオプションを有効にし、スポット容量の待機時間も指定します。これで、SageMaker が Amazon EC2 スポットインスタンスを使ってジョブを実行し、スポット容量を管理します。トレーニングジョブの実行中や容量を待機中に、トレーニングジョブのステータスを完全に把握できます。
マネージドスポットトレーニングはいつ使用したらいいですか?
マネージドスポットトレーニングは、トレーニングの実行に柔軟性があり、トレーニングジョブのコストを最小限に抑えたい場合に適しています。マネージドスポットトレーニングを使用すれば、機械学習モデルのトレーニングコストを最大 90% 削減することができます。
マネージドスポットトレーニングの仕組みを教えてください?
マネージドスポットトレーニングは、トレーニングに Amazon EC2 スポットインスタンスを使用します。これらのインスタンスは AWS が容量を必要とする場合に、前もって取得しておくことができます。そのため、容量が使用可能になったとき、マネージドスポットトレーニングジョブを少しずつ実行できます。SageMaker は最新のモデルチェックポイントを使ってトレーニングジョブを再開できるため、中断があっても、トレーニングジョブを最初から再開する必要はありません。SageMaker のビルトインフレームワークとビルトインコンピュータービジョンアルゴリズムにより、定期的なチェックポイントを有効にできます。あるいはカスタムモデルでチェックポイントを有効にできます。
マネージドスポットトレーニングに定期的なチェックポイントを行う必要はありますか?
長期的なトレーニングジョブには、普通、定期的なチェックポイントをお勧めします。これにより、容量を前もって取得しておいた場合でも、マネージドスポットトレーニングジョブが再開されないようになります。チェックポイントを有効にすると、SageMaker はマネージドスポットトレーニングジョブを最後のチェックポイントから再開します。
マネージドスポットトレーニングジョブでのコスト削減をどのように計算するのですか?
マネージドスポットトレーニングジョブを完了すると、AWS マネジメントコンソールで節約額を確認できます。また、トレーニングジョブを実行した期間と課金された期間との差の割合を出して、いくらコスト削減が可能かを計算できます。
マネージドスポットトレーニングジョブが中断された回数に関係なく、データがダウンロードされた時間に対してのみ、課金されます。
マネージドスポットトレーニングではどのインスタンスを使用できますか?
マネージドスポットトレーニングは、SageMaker でサポートされているすべてのインスタンスで使用できます。
マネージドスポットトレーニングではどのリージョンがサポートされていますか?
マネージドスポットトレーニングは、SageMaker が現在利用可能なすべてのリージョンでサポートされています。
トレーニングで使えるデータセットのサイズに制限はありますか?
SageMaker でモデルのトレーニングに使用できるデータセットのサイズに決まった制限はありません。
SageMaker ではモデルの生成にどのようなアルゴリズムを使用していますか?
SageMaker には、線形回帰、ロジスティック回帰、K 平均法クラスタリング、主成分分析、Factorization Machines、ニューラルトピックモデリング、潜在的ディリクレ配分法、勾配ブースティング木、sequence2sequence、時系列予測、word2vec、および画像分類のためのアルゴリズムが組み込まれています。SageMaker は、最適化された Apache MXNet、Tensorflow、Chainer、PyTorch、Gluon、Keras、Horovod、Scikit-learn、および Deep Graph Library コンテナも提供します。さらに、SageMaker では、文書化された仕様に準拠した Docker イメージで提供されるカスタムのトレーニングアルゴリズムもサポートしています。
自動モデルチューニングとは何ですか?
多くの機械学習のアルゴリズムでは、基盤となるアルゴリズムの動作方法を制御するための多様なパラメータに触れることができます。このようなパラメータは、一般的にハイパーパラメータと呼ばれ、その値はトレーニング後のモデルの品質に影響を与えます。自動モデルチューニングは、アルゴリズムで最適なモデルを作成できるような、ハイパーパラメータの組み合わせを見つけるプロセスです。
自動モデルチューニングでチューニングできるのは、どのようなモデルですか?
SageMaker の自動モデルチューニングは、科学的な観点から現実的であれば、あらゆるアルゴリズムで行うことができます。これには SageMaker の組み込みアルゴリズム、深層ニューラルネットワーク、Docker イメージの形で SageMaker に持ち込まれる任意のアルゴリズムも含まれます。
自動モデルチューニングは SageMaker の外でも使用できますか?
現時点では使用できません。モデルチューニングで最大のパフォーマンスとエクスペリエンスを得るには、SageMaker の中で行う必要があります。
自動モデルチューニングの基盤となるチューニングアルゴリズムは何ですか?
ハイパーパラメータのチューニングアルゴリズムには、現在、ベイズ最適化のカスタム実装が使用されています。このアルゴリズムでは、チューニングプロセスを通じて、ユーザーが指定した目標メトリクスを最適化することを目指します。具体的には、完了したトレーニングジョブの目標メトリクスを確認し、その知識を使用して、次のトレーニングジョブで使用するハイパーパラメータの組み合わせを推論します。
自動モデルチューニングは、チューニングのために特定のハイパーパラメータをレコメンドしますか?
いいえ、ハイパーパラメータがモデルのパフォーマンスにどの程度の影響を与えるかは、さまざまな要因により異なるため、あるハイパーパラメータが他のものより重要であると断定することはできません。これが、チューニングを必要とする理由です。SageMaker の組み込みアルゴリズムについては、ハイパーパラメータをチューニングできるかどうか明示しています。
ハイパーパラメータのチューニングジョブには、どのくらいの時間がかかりますか?
ハイパーパラメータのチューニングジョブにかかる時間は、複数の要因により異なります。これにはデータのサイズ、基盤とするアルゴリズム、ハイパーパラメータの値が含まれます。また、トレーニングジョブの同時実行数およびトレーニングジョブの合計数は、ユーザーが選択することができます。このような指定の違いすべてにより、ハイパーパラメータのチューニングジョブの実行にかかる時間が変わります。
速さと正確さを両立させるようモデルを最適化するなど、複数の目標値を同時に最適化することはできますか?
現時点では使用できません。指定できる最適化の目標メトリクスは、現在 1 つのみです。また、アルゴリズムのコードを変更できる場合、複数の有用なメトリクスの加重平均を新しいメトリクスとして出力し、それをチューニングプロセスの目標メトリクスに向けて最適化することができます。
自動モデルチューニングの料金はいくらですか?
ハイパーパラメータのチューニングジョブ自体には料金がかかりません。料金は、ハイパーパラメータのチューニングジョブによって開始されたトレーニングジョブに対し、モデルトレーニングの料金に基づいて請求されます。
SageMaker Autopilot または Automatic Model Tuning の使用は、どのように判断すればよいですか?
SageMaker Autopilot は、特に分類および回帰のユースケースに焦点を当てながら、機能の前処理、アルゴリズムの選択、ハイパーパラメータの調整など、典型的な機械学習ワークフローのすべてを自動化します。一方、組み込みアルゴリズム、深層学習フレームワーク、またはカスタムコンテナのいずれに基づいていても、自動モデルチューニングは、任意のモデルを調整するように設計されています。柔軟性と引き換えに、特定のアルゴリズム、調整するハイパーパラメータ、対応する検索範囲を手動で選択しなければなりません。
強化学習とは何ですか?
強化学習とは、エージェントがインタラクティブな環境において、自身のアクションやエクスペリエンスからのフィードバックを使用した試行錯誤によって学習できる機械学習技術です。
SageMaker で強化学習モデルをトレーニングできますか?
はい、SageMaker では従来の教師あり/教師なし学習モデルに加え、強化学習モデルをトレーニングできます。
強化学習と教師あり学習の違いは何ですか?
教師あり学習と強化学習はどちらも出入力間のマッピングを使用しますが、エージェントに提供されるフィードバックがタスクを実行するための適切な一連のアクションである教師あり学習とは異なり、強化学習は遅延フィードバックを使用します。遅延フィードバックではアクションのシーケンスを通じて長期的な目標を実現するために報酬信号が最適化されます。
強化学習はどのような場合に使用すればよいですか?
教師あり学習技術の目標がトレーニングデータのパターンに基づいて正しい答えを見つけることであるのに対して、教師なし学習技術の目標はデータポイント間の類似点や相違点を見つけることです。一方、強化学習技術 (RL) の目標は、期待する成果を実現する方法が明確でない場合でもその成果を達成することです。そのため、RL はエージェントが自律的決定を下すことのできる、ロボティクス、自動運転車、HVAC、産業用コントロールなどのインテリジェントなアプリケーションを実現するのにより適しています。
RL モデルのトレーニングにはどのようなタイプの環境が使用できますか?
Amazon SageMaker RL は RL モデルをトレーニングできるさまざまな環境をサポートしています。AWS RoboMaker などの AWS のサービス、Open AI Gym インターフェイスを使用して開発されたカスタム環境またはオープンソース環境、MATLAB や SimuLink のような市販のシミュレーション環境などが使用できます。
RL モデルのトレーニングのために独自の RL エージェントアルゴリズムを書く必要がありますか?
いいえ、SageMaker RL には、DQN、PPO、A3C、その他多くの RL エージェントアルゴリズムを実装する、Coach や Ray RLLib などの RL ツールキットが含まれています。
独自の RL ライブラリやアルゴリズム実装を持ち込んで SageMaker RL でそれらを実行することはできますか?
はい、独自の RL ライブラリやアルゴリズム実装を Docker コンテナに持ち込み、それらを SageMaker RL で実行できます。
SageMaker RL を使用して分散型ロールアウトを行うことはできますか?
はい。トレーニングを 1 つの GPU インスタンスで実行し、シミュレーションを複数の CPU インスタンスで実行する異種クラスターを選択することもできます。
モデルのデプロイ
SageMaker はどのようなデプロイのオプションを提供していますか?
モデルを構築してトレーニングした後、SageMaker は、予測を開始できるようにそれらをデプロイするための 3 つのオプションを提供します。リアルタイム推論は、ミリ秒のレイテンシー要件、最大 6MB のペイロードサイズ、最大 60 秒の処理時間のワークロードに適しています。バッチ変換は、事前に入手可能な大きなデータのバッチに対するオフライン予測に最適です。非同期推論は、サブセカンドレイテンシーを必要としないワークロード向けに設計されており、ペイロードサイズは 1GB まで、処理時間は 15 分までとなっています。
Amazon SageMaker 非同期推論とは何ですか?
SageMaker 非同期推論は、受信したリクエストをキューに入れて、非同期に処理します。このオプションは、ペイロードサイズが大きいリクエスト、および/または処理時間が長く、到着すると同時に処理する必要があるリクエストに最適です。オプションとして、アクティブにリクエストを処理していないときは、コストを節約するためにインスタンス数をゼロにスケールダウンするようにオートスケーリング設定を構成することができます。
アクティブにリクエストを処理していないときに、インスタンス数をゼロにスケールダウンするために、オートスケーリング設定をどのように構成したらいいですか?
アクティブにリクエストを処理していないときにコストを節約するため、SageMaker 非同期推論エンドポイントのインスタンス数をゼロにスケールダウンすることができます。「ApproximateBacklogPerInstance」カスタムメトリクスでスケールするスケーリングポリシーを定義し、「MinCapacity」値をゼロに設定する必要があります。ステップバイステップの説明については、デベロッパーガイドの非同期のエンドポイントをオートスケールするセクションをご覧ください。
Amazon SageMaker Serverless Inference とは何ですか?
SageMaker Serverless Inference は、機械学習モデルのデプロイとスケーリングを容易にする、専用のサーバーレスモデル提供オプションです。SageMaker Serverless Inference エンドポイントは、コンピューティングリソースを自動的に開始し、トラフィックに応じてスケールインおよびスケールアウトするため、インスタンスタイプを選択したり、プロビジョニングされた容量を実行したり、スケーリングを管理したりする必要がなくなります。オプションで、Serverless Inference エンドポイントのメモリ要件を指定できます。推論コードの実行時間と処理されたデータの量の料金のみをお支払いいただきます。アイドル時間については料金がかかりません。
SageMaker Serverless Inference を使用する必要があるのはなぜですか?
SageMaker Serverless Inference は、容量を事前にプロビジョニングしてスケーリングポリシーを管理する必要をなくすことにより、デベロッパーのエクスペリエンスを簡素化します。SageMaker Serverless Inference は、使用パターンに基づいて数十から数千回の推論に瞬時に拡張できるため、断続的または予測不可能なトラフィックを伴う機械学習アプリケーションに最適です。例えば、給与処理サービスを提供する会社が使用する chatbot サービスでは月末に問い合わせが増加しますが、それ以外の期間はトラフィックは断続的です。このようなシナリオで 1 か月の全期間にわたってインスタンスをプロビジョニングすることは、アイドル期間の料金を支払うことになるため、費用対効果は高くありません。SageMaker Serverless Inference は、トラフィックを事前に予測したり、スケーリングポリシーを管理したりすることなく、すぐに使用できる自動で高速なスケールアウトを行うことで、このようなタイプのユースケースに対処するのに役立ちます。さらに、推論コードを実行するためのコンピューティング時間 (ミリ秒単位で請求されます) とデータ処理についての料金のみをお支払いいただくため、断続的なトラフィックを伴うワークロードについては費用対効果の高いオプションです。
SageMaker Serverless Inference の Provisioned Concurrency とは何ですか?
Provisioned Concurrency を使用すると、指定された数の同時リクエストに対してエンドポイントを温存することで、予測可能なパフォーマンスと高いスケーラビリティを備えたサーバーレスエンドポイントにモデルをデプロイすることができます。
Provisioned Concurrency を使用する必要があるのはなぜですか?
エンドポイントがしばらくトラフィックを受信せず、その後エンドポイントが突然新しいリクエストを受信する場合があります。この場合、オンデマンドのサーバーレスエンドポイントでは、エンドポイントがコンピューティングリソースを起動してリクエストを処理するまでに時間がかかることがあります。これはコールドスタートと呼ばれます。コールドスタートは、同時リクエストが現在の同時リクエストの使用量を超える場合にも発生する可能性があります。コールドスタート時間は、モデルサイズ、モデルのダウンロードにかかる時間、およびコンテナの起動時間によって異なります。
レイテンシープロファイルの変動性を低減するために、オプションでサーバーレスエンドポイント向けに、Provisioned Concurrency を有効にできます。Provisioned Concurrency を使用することで、サーバーレスエンドポイントはいつでも準備が整い、コールドスタートなしで大量のトラフィックを瞬時に処理できます。
Provisioned Concurrency の料金はどう請求されますか?
オンデマンドのサーバーレス推論と同様に、Provisioned Concurrency が有効になっている場合は、推論リクエストの処理に使用されたコンピューティング容量 (ミリ秒単位) と処理されたデータ量に対して料金が発生します。また、設定されたメモリ、プロビジョニングされた期間、有効になっている同時実行の量に基づいて、Provisioned Concurrency の使用量に対しても支払いが発生します。詳細については、Amazon SageMaker の料金をご覧ください。
SageMaker のシャドウテストとは何ですか?
SageMaker は、新しい機械学習モデルを本番リリース前に評価するために、現在デプロイされているモデルに対してそのパフォーマンスをテストするシャドーテストの実行を支援します。SageMaker は新しいモデルをシャドーモードで現在の本番モデルと共にデプロイし、ユーザーが指定した本番トラフィックの一部を新しいモデルにミラーリングします。オプションとして、オフラインでの比較のためにモデルの推論をログに記録します。また、本番モデルとシャドーモデルのレイテンシーやエラー率などの主要なパフォーマンスメトリクスを比較するライブダッシュボードを提供し、新しいモデルを本番環境に移行させるかどうかを決定するのに役立ちます。
なぜシャドウテストに SageMaker を使用する必要があるのですか?
SageMaker は、シャドーバリアントのセットアップとモニタリングのプロセスを簡素化し、新しい機械学習モデルのパフォーマンスをライブの本番トラフィックで評価することができます。SageMaker を使用すると、シャドーテストのためのインフラストラクチャをオーケストレーションする必要がありません。シャドーバリアントにミラーリングするトラフィックの割合やテスト時間などのテストパラメータを制御することができます。その結果、小規模から始めて、モデルパフォーマンスに確信が持てた後に、新しいモデルへの推論要求を増やすことができます。SageMaker は、主要なメトリクスにおけるパフォーマンスの違いを表示するライブダッシュボードを作成するため、モデルパフォーマンスを簡単に比較して、新しいモデルが本番モデルとどのように異なるかを評価することができます。
Amazon SageMaker Inference Recommender とは何ですか?
SageMaker Inference Recommender は、SageMaker 機械学習インスタンス全体でパフォーマンスのベンチマークを自動化し、モデルのパフォーマンスを調整することで、機械学習モデルを本番環境で取得するために必要な時間を短縮します。SageMaker Inference Recommender を使用して、最高のパフォーマンスを提供し、コストを最小限に抑えるエンドポイントにモデルをデプロイできるようになりました。インスタンスタイプを選択しながら SageMaker Inference Recommender を数分で開始し、最適なエンドポイント設定のレコメンデーションを数時間以内に取得できるため、数週間の手動テストとチューニング時間をなくすことができます。SageMaker Inference Recommender を使用すると、負荷テスト中に使用された SageMaker 機械学習インスタンスに対してのみ料金が発生し、追加料金は発生しません。
SageMaker Inference Recommender を使用する必要があるのはなぜですか?
パフォーマンスを向上させ、コストを削減するために適切なエンドポイント設定のレコメンデーションが必要な場合は、SageMaker Inference Recommender をご利用ください。以前は、モデルをデプロイしたいデータサイエンティストは、適切なエンドポイント設定を選択するために手動でベンチマークを実行する必要がありました。モデルとサンプルペイロードのリソース要件に基づいて、70 以上の利用可能なインスタンスタイプから適切な機械学習インスタンスタイプを最初に選択し、次に異なるハードウェアを考慮してモデルを最適化する必要がありました。次に、レイテンシーとスループットの要件が満たされていること、およびコストが低いことを検証するために、広範な負荷テストを実施する必要がありました。SageMaker Inference Recommender は、次のこと1) インスタンスのレコメンデーションを数分で開始し、2) インスタンスタイプ全体で負荷テストを実施して、数時間以内にエンドポイント設定に関するレコメンデーションを取得し、3) コンテナとモデルサーバーのパラメータを自動的に調整し、特定のインスタンスタイプのモデルの最適化を実行するのを簡単に行えるようにすることで、この複雑さを解消します。
SageMaker Inference Recommender は他の AWS のサービスとどのように連携しますか?
データサイエンティストは、SageMaker Studio、AWS SDK for Python (Boto3)、または AWS CLI から SageMaker Inference Recommender にアクセスできます。データサイエンティストは、登録されたモデルバージョンの SageMaker モデルレジストリの SageMaker Studio 内でデプロイのレコメンデーションを取得できます。データサイエンティストは、SageMaker Studio、AWS SDK、または AWS CLI を介してレコメンデーションを検索およびフィルタリングできます。
SageMaker Inference Recommender はマルチモデルエンドポイントまたはマルチコンテナエンドポイントをサポートできますか?
いいえ。現在、エンドポイントごとに 1 つのモデルのみをサポートしています。
SageMaker Inference Recommendationr はどのタイプのエンドポイントをサポートしていますか?
現在、リアルタイムエンドポイントのみをサポートしています。
SageMaker Inference Recommender を 1 つのリージョンで使用し、ベンチマークを異なるリージョンで使用できますか?
AWS 中国リージョンを除き、Amazon SageMaker が提供されているすべてのリージョンがサポートされます。
SageMaker Inference Recommender は Amazon EC2 Inf1 インスタンスをサポートしていますか?
はい、すべてのタイプのコンテナをサポートしています。AWS Inferentia チップに基づく Amazon EC2 Inf1 には、Neuron コンパイラまたは Amazon SageMaker Neo のいずれかを使用してコンパイルされたモデルアーティファクトが必要です。Inferentia ターゲットと関連するコンテナイメージ URI のコンパイル済みモデルを取得したら、SageMaker Inference Recommender を使用してさまざまな Inferentia インスタンスタイプのベンチマークを実行できます。
Amazon SageMaker Model Monitor とは何ですか?
SageMaker Model Monitor によって、デベロッパーがコンセプトドリフトを検出し、修復できるようになります。SageMaker Model Monitor はデプロイ済みのモデルでコンセプトドリフトを検出し、問題の原因を特定するのに役立つ詳細なアラートを出します。SageMaker でトレーニングされたすべてのモデルは、SageMaker Studio で収集と表示が可能な主要メトリクスを出します。SageMaker Studio の中で、収集するデータや、その表示方法、アラートを受信するタイミングなどを構成できます。
SageMaker が実行されているインフラストラクチャにアクセスできますか?
いいえ、SageMaker はお客様に代わってコンピューティングインフラストラクチャを運用し、ヘルスチェックの実行、セキュリティパッチの適用、その他の定期的なメンテナンスを担当します。また、専用のホスティング環境でカスタムの推論コードを使用して、トレーニングされたモデルアーティファクトをにデプロイすることもできます。
本番環境では SageMaker モデルのサイズとパフォーマンスをスケールするにはどうすればよいですか?
SageMaker のホスティングでは、Application Auto Scaling を使用して、アプリケーションに必要なパフォーマンスに自動的にスケールします。また、エンドポイント構成を変更することで、ダウンタイムを発生させることなくインスタンスの数とタイプを手動で変更できます。
SageMaker の本番環境をモニタリングするにはどうすればよいですか?
SageMaker は、Amazon CloudWatch Metrics にパフォーマンスメトリクスを発行することで、お客様がメトリクスを追跡し、アラームを設定し、本番用トラフィックの変更に自動的に対応できるようにします。また、SageMaker は Amazon CloudWatch Logs にログを書き込んで、お客様が本番環境のモニタリングとトラブルシューティングを行えるようにします。
SageMaker ではどのようなモデルをホストできますか?
SageMaker では、推論 Docker イメージ用の文書化された仕様に準拠しているモデルをすべてホストできます。これには、SageMaker のモデルアーティファクトや推論コードから作成されたモデルが含まれます。
SageMaker で同時に送信できるリアルタイム API リクエストは何件ですか?
SageMaker は、1 秒あたり多数のトランザクションに対応できるように設計されています。正確な数は、デプロイされたモデル、モデルがデプロイされるインスタンスの数とタイプに基づいて変わります。
SageMaker はフルマネージドモデルのホスティングと管理をどのようにサポートしていますか?
バッチ変換とは何ですか?
バッチ変換により、大小のバッチデータに対する予測を実行できます。データセットを複数のチャンクに分けたりリアルタイムのエンドポイントを管理したりする必要はありません。シンプルな API を使って、多数のデータレコードの予測をリクエストし、そのデータを迅速かつ簡単に変換できます。
Amazon SageMaker Edge Manager とは何ですか?
SageMaker Edge Manager は、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、および維持することをより簡単にします。SageMaker Edge Manager は、ML デベロッパーがさまざまなエッジデバイスで ML モデルを大規模に操作するのに役立ちます。
SageMaker はどのようなデプロイメントエンドポイントオプションをサポートしていますか?
SageMaker Edge Manager の使用を開始するにはどのようにすればよいですか?
SageMaker Edge Manager の使用を開始するには、トレーニングされた ML モデルをクラウドでコンパイルおよびパッケージ化し、デバイスを登録し、SageMaker Edge Manager SDK を使用してデバイスを準備する必要があります。モデルをデプロイする準備をするために、SageMaker Edge Manager は SageMaker Neo を使用して、ターゲットエッジハードウェア用にモデルをコンパイルします。モデルがコンパイルされると、SageMaker Edge Manager は AWS で生成されたキーを使用してモデルに署名し、ランタイムと必要な資格情報とともにモデルをパッケージ化して、デプロイに備えます。デバイス側では、デバイスを SageMaker Edge Manager に登録し、SageMaker Edge Manager SDK をダウンロードしてから、指示に従って SageMaker Edge Manager エージェントをデバイスにインストールします。チュートリアルノートブックは、モデルを準備してエッジデバイス上のモデルを SageMaker Edge Manager に接続する方法についてのステップバイステップの例を提供します。
伸縮自在性を実現するためのオートスケーリングとは?
SageMaker Edge Manager でサポートされているデバイスは何ですか?
SageMaker Edge Manager は、Linux および Windows オペレーティングシステムで一般的な CPU (ARM、x86) および GPU (ARM、Nvidia) ベースのデバイスをサポートします。将来的には、SageMaker Edge Manager は、SageMaker Neo でもサポートされるより多くの組み込みプロセッサおよびモバイルプラットフォームをサポートするように拡張される予定です。
SageMaker Edge Manager を使用するには、SageMaker でモデルをトレーニングする必要がありますか?
いいえ、必要ありません。モデルを他の場所でトレーニングすることも、オープンソースまたはモデルベンダーから提供される事前にトレーニングされたモデルを使用することもできます。
SageMaker Edge Manager を使用するには、SageMaker Neo でモデルをコンパイルする必要がありますか?
はい、必要です。SageMaker Neo は、モデルを実行可能ファイルに変換およびコンパイルします。その後、それをパッケージ化してエッジデバイスにデプロイできます。モデルパッケージがデプロイされると、SageMaker Edge Manager エージェントはモデルパッケージを解凍し、デバイス上でモデルを実行します。
モデルをエッジデバイスにデプロイするにはどうすればよいですか?
SageMaker Edge Manager は、指定された Simple Storage Service (Amazon S3) バケットにモデルパッケージを保存します。AWS IoT Greengrass が提供する無線通信 (OTA) デプロイ機能、またはその他の任意のデプロイメカニズムを使用して、モデルパッケージを S3 バケットからデバイスにデプロイできます。
SageMaker Edge Manager SDK は SageMaker Neo ランタイム (dlr) とどのように異なりますか?
Neo dlr は、SageMaker Neo サービスによってコンパイルされたモデルのみを実行するオープンソースランタイムです。オープンソースの dlr と比較すると、SageMaker Edge Manager SDK には、追加のセキュリティ、モデル管理、およびモデル提供機能を備えたエンタープライズグレードのオンデバイスエージェントが含まれています。SageMaker Edge Manager SDK は、大規模な本番環境へのデプロイに適しています。
SageMaker Edge Manager は AWS IoT Greengrass とどのように関連していますか?
SageMaker Edge Manager と AWS IoT Greengrass は、お客様の IoT ソリューションで連携できます。ML モデルが SageMaker Edge Manager でパッケージ化されると、AWS IoT Greengrass の OTA 更新機能を使用して、モデルパッケージをデバイスにデプロイできます。AWS IoT Greengrass を使用すると、IoT デバイスをリモートでモニタリングでき、SageMaker Edge Manager は、デバイス上の ML モデルをモニタリングおよび維持するのに役立ちます。
SageMaker Edge Manager は AWS Panorama とどのように関連していますか? AWS Panorama と対比して、SageMaker Edge Manager はどのような場合に使用すべきですか?
AWS は、エッジデバイスでモデルを実行するための最も幅広い機能を提供します。コンピュータビジョン、音声認識、予知保全など、幅広いユースケースをサポートするサービスを提供しています。
カメラやアプライアンスなどのエッジデバイスでコンピュータビジョンを実行しようとしている企業の場合は、AWS Panorama を使用できます。AWS Panorama は、エッジデバイス用にすぐデプロイできるコンピュータビジョンアプリケーションを備えています。クラウドコンソールにログインし、Simple Storage Service (Amazon S3) または SageMaker で使用するモデルを指定してから、ビジネスロジックを Python スクリプトとして記述することで、AWS Panorama の使用を簡単に開始できます。AWS Panorama は、ターゲットデバイスのモデルをコンパイルし、アプリケーションパッケージを作成して、数回クリックするだけでデバイスにデプロイできるようにします。さらに、独自のカスタムアプリケーションを構築することを希望する独立系ソフトウェアベンダーは AWS Panorama SDK を使用でき、デバイスメーカーは Device SDK を使用してデバイスを AWS Panorama 用に認定できます。
独自のモデルを構築し、モデルの特徴をより細かく制御することを希望するお客様は、SageMaker Edge Manager を使用できます。SageMaker Edge Manager は、自然言語処理、不正検出、予知保全など、あらゆるユースケースにおいて、スマートカメラ、スマートスピーカー、ロボットなどのエッジデバイスのフリート全体で機械学習モデルを準備、実行、モニタリング、および更新するためのマネージドサービスです。SageMaker Edge Manager は、モデルを制御し (さまざまなモデルの特徴のエンジニアリングを含む)、モデルのドリフトをモニタリングすることを希望する ML エッジデベロッパー向けです。ML エッジデベロッパーは誰でも、SageMaker コンソールと SageMaker API を介して SageMaker Edge Manager を使用できます。SageMaker Edge Manager は、SageMaker の機能を提供して、クラウド内のモデルを構築、トレーニング、およびエッジデバイスにデプロイします。
どのリージョンで SageMaker Edge Manager を利用ですか?
SageMaker Edge Manager は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、欧州 (アイルランド)、欧州 (フランクフルト)、アジアパシフィック (東京) の 6 つのリージョンで使用できます。詳細については、AWS リージョン別のサービス表をご覧ください。
Amazon SageMaker Neo とは何ですか?
SageMaker Neo では、機械学習モデルを一度トレーニングすれば、それをどこでも、クラウドでも、エッジでも実行可能にします。SageMaker Neo は、複数のハードウェアプラットフォームにデプロイするのに使用できる一般的な深層学習フレームワークで構築されたモデルを自動的に最適化します。最適化されたモデルは、一般的な機械学習モデルと比較して最大 25 倍の速度で実行でき、10 分の 1 未満のリソースしか消費しません。
SageMaker Neo の使用を開始するにはどうすればよいですか?
SageMaker Neo の使用を開始するには、SageMaker コンソールにサインインしてトレーニング済みのモデルを選択し、例に従ってモデルをコンパイルし、得られたモデルを目的のハードウェアプラットフォームにデプロイします。
SageMaker Neo の主要なコンポーネントは何ですか?
SageMaker Neo には、コンパイラとランタイムという 2 つの主要なコンポーネントが含まれます。はじめに、SageMaker Neo コンパイラがさまざまなフレームワークからエクスポートされたモデルを読み込みます。その後、フレームワーク特有の機能や動作をフレームワーク非依存の中間表現に変換します。次に、一連の最適化を実行します。その後、コンパイラが最適化された動作のバイナリコードを生成し、それらを共有のオブジェクトライブラリに書き込みます。コンパイラはまた、モデルの定義とパラメータをそれぞれ別のファイルに保存します。実行時には、SageMaker Neo ランタイムがコンパイラによって生成されたアーティファクト (モデルの定義、パラメータ、共有のオブジェクトライブラリ) を取り込み、モデルを実行します。
モデルの変換に SageMaker Neo を使用するには、SageMaker モデルをトレーニングする必要がありますか?
いいえ、他の場所でモデルをトレーニングし、SageMaker Neo を使用してそれらを SageMaker ML インスタンスまたは AWS IoT Greengrass でサポートされているデバイスに最適化できます。
SageMaker Neo ではどのモデルがサポートされていますか?
現在、SageMaker Neo はコンピュータビジョンアプリケーションを強化する最も一般的な DL モデルや、今日 SageMaker で使用される最も一般的な決定木モデルをサポートしています。SageMaker Neo は、MXNet および TensorFlow でトレーニングされた AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet、DenseNet などのモデルや、XGBoost でトレーニングされたランダムカットフォレストモデルおよび分類モデルのパフォーマンスを最適化します。
SageMaker Neo ではどのハードウェアプラットフォームがサポートされていますか?
サポートされているクラウドインスタンス、エッジデバイス、およびフレームワークのバージョンのリストは、SageMaker Neo のドキュメントでご確認いただけます。
SageMaker Neo はどのリージョンで利用できますか?
サポートされるリージョンの一覧は、AWS リージョン別のサービス表をご覧ください。
Amazon SageMaker Savings Plans
Amazon SageMaker Savings Plans とは何ですか?
SageMaker Savings Plans は、1 年または 3 年の期間で一貫したコンピューティング使用量 (USD/時間で測定) を契約するかわりに、SageMaker に柔軟な使用量ベースの料金モデルを提供します。SageMaker Savings Plans は、最も優れた柔軟性を提供し、コストを最大 64% 削減するのに役立ちます。これらのプランは、インスタンスファミリー、サイズ、リージョンに関係なく、SageMaker Studio ノートブック、SageMaker On-Demand ノートブック、SageMaker Processing、SageMaker Data Wrangler、SageMaker Training、SageMaker Real-Time Inference、SageMaker Batch Transform などの対象となる SageMaker 機械学習インスタンスの使用量に自動的に適用されます。例えば、米国東部 (オハイオ) で実行されている CPU インスタンス ml.c5.xlarge から米国西部 (オレゴン) の ml.Inf1 インスタンスにいつでも推論ワークロードの使用量を変更し、自動的に Savings Plans の料金を引き続き支払うことができます。
SageMaker Savings Plans を使用する必要があるのはなぜですか?
SageMaker インスタンスの使用量が一定で (USD/時間で測定)、複数の SageMaker コンポーネントを使用している場合、またはテクノロジー設定 (インスタンスファミリーやリージョンなど) が時間の経過とともに変化すると予想される場合、SageMaker Savings Plans により、アプリケーションのニーズや新しいイノベーションに基づいて基盤となるテクノロジー設定を変更する柔軟性をもたらしながら、節約を実現できます。Savings Plans の料金は、手動で変更することなく、対象となるすべての機械学習インスタンスの使用量に自動的に適用されます。
SageMaker Savings Plans の使用を開始するにはどうすればよいですか?
Savings Plans の使用は、AWS マネジメントコンソールの AWS Cost Explorer から、または API/CLI を使用して開始することができます。Savings Plans への契約は、最大節約額を実現するため、AWS Cost Explorer で提案される推奨事項を使用することによって簡単に行うことができます。推奨される 1 時間あたりの契約量は、履歴的なオンデマンド使用量と、プランタイプ、期間、および支払いオプションの選択に基づいています。Savings Plan にサインアップすると、コンピューティング使用量については割引された Savings Plans 料金で自動的に課金され、契約量を超える使用については通常のオンデマンドレートで課金されます。
SageMaker の Savings Plans は Amazon EC2 の Compute Savings Plans とどのように異なりますか?
SageMaker の Savings Plans と Amazon EC2 の Savings Plans の違いはそれらに含まれるサービスにあります。SageMaker Savings Plans は、SageMaker 機械学習インスタンスの使用量にのみ適用されます。
Savings Plans は AWS Organizations/一括請求 (コンソリデーティッドビリング) とどのように連携しますか?
Savings Plans は、AWS Organizations/一括請求 (コンソリデーティッドビリング) ファミリー内の任意のアカウントで購入できます。デフォルトでは、Savings Plans によって提供される恩恵は、AWS Organization/一括請求 (コンソリデーティッドビリング) ファミリー内のすべてのアカウントでの使用量に適用されます。ただし、Savings Plans の恩恵を購入したアカウントのみに制限することもできます。