
Amazon SageMaker を使用すれば、IT エンジニアは ML モデルを本番環境に簡単にデプロイできます。スケーラブルなインフラストラクチャと継続的インテグレーションおよび継続的デリバリー (CI/CD) パイプラインを使用し、ワークフローを作成および自動化して、数千にもおよぶモデルの開発をサポートできます。

トレーニングデータの収集と準備
Amazon SageMaker には、機械学習の準備を整えるために、異なるデータソースからのデータを集約する際に必要なすべてのものが備わっています。
データソースに簡単に接続する
Amazon SageMaker Data Wrangler を使用すると、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon S3 などのデータソースに接続し、CSV ファイル、非構造化 JSON ファイル、データベーステーブルなどのさまざまなファイル形式のデータを SageMaker に直接かつ簡単にインポートできます。また、数回クリックするだけでデータパイプラインを簡単に作成できます。

セキュア
Amazon SageMaker を使用すると、最初から完全に安全な ML 環境で操作できます。インフラストラクチャのセキュリティ、アクセスコントロール、データ保護、さまざまな業界にわたる最新のコンプライアンス認定など、一連の包括的なセキュリティ機能を使用できます。

モデルの構築
ビジネスユニット間で機械学習が急増するにつれて、Amazon SageMaker は、インフラストラクチャが数百、数千のモデルの構築に対応できるように拡張を支援します。
ワンクリック Jupyter ノートブック
Amazon SageMaker Studio ノートブックは、ワンクリックですばやくスピンアップができる Jupyter ノートブックです。根本となるコンピューティングリソースは完全に伸縮自在であるため、使用可能なリソースの量を簡単に増減させることができ、変更は作業を中断することなくバックグラウンドで自動的に反映されます。ノートブックはワンクリックで共有でき、同僚は同一の場所に保存されるまったく同じノートブックを取得できます。

モデルのトレーニングと調整
Amazon SageMaker は、トレーニングデータの指数関数的増加を管理する場合に役に立ち、ペタバイト規模のデータを効率的か費用対効率よく管理するためのスケーリングを簡単に行えます。
ワンクリックトレーニング
Amazon SageMaker でトレーニングを開始するには、Amazon S3 中のデータの位置を指定し、必要とする SageMaker ML インスタンスのタイプと量を示したら、後は 1 回クリックをするだけです。SageMaker は分散型コンピュータクラスターをセットアップし、トレーニングを行い、結果を Amazon S3 に出力し、完了後クラスターを解体します。

マネージドスポットトレーニング
Amazon SageMaker はトレーニングコストを最大で 90% 削減できるようマネージドスポットトレーニングを提供します。この機能は Amazon EC2 スポットインスタンスを使用します。これは、AWS コンピューティング性能を節約します。トレーニングジョブはコンピューティング性能に空きができた時点で自動的に実行され、空き状況の変化によって処理が中断しても復帰できるように作成されています。そのため、トレーニングジョブを実行するタイミングを柔軟に調整できるので、コストの削減が可能になります。

モデルを本番環境にデプロイする
Amazon SageMaker には、拡張性があり、安全なワークフローを作成するために必要なすべてのツールが用意されています。
自動ワークフロー
Amazon SageMaker Pipelines は、CI/CD プラクティスを使用して、エンドツーエンドの ML ワークフローを大規模に作成、自動化、および管理する場合に役に立ちます。ワークフローが作成されると、SageMaker Studio で可視化および管理できます。SageMaker Pipelines は、ML ワークフローの各ステップ間の依存関係を管理する際に伴うすべての面倒な作業を処理します。更新されたデータを使用すると、いつでも完全なワークフローを再実行してモデルを正確に保ち、ワークフローを他のチームと共有してプロジェクト上の共同作業を行うことができます。

Kubernetes との統合
パイプラインの調整と管理に引き続き Kubernetes を使用しながら、Amazon SageMaker のフルマネージド機能を機械学習に使用することができます。SageMaker を使用することで、ユーザーは SageMaker の Kubernetes Operators を使用してモデルをトレーニングし、それらをデプロイできます。さらに、Kubeflow Pipelines 用 Amazon SageMaker コンポーネントを使用できます。それにより、機械学習ジョブを実行するための特別な Kubernetes クラスターの構成や管理をしなくても、データのラベル付け、フルマネージドの大規模なハイパーパラメータ調整、分散トレーニングジョブ、ワンクリックでの安全でスケーラブルなモデルのデプロイなど、強力な SageMaker の機能を利用できます。
推論のための追加コンピューティング
Amazon Elastic Inference を使用することで、コードの変更を必要とせずに、Amazon SageMaker のインスタンスタイプに適切な量の GPU による推論アクセラレーションをアタッチすることが可能になります。アプリケーションの全体的な CPU とメモリのニーズに最も適したインスタンスタイプを選択し、リソースを効率的に使用して推論実行コストを削減するために必要な推論アクセラレーションの程度を個別に設定できます。
ワンクリックデプロイ
Amazon SageMaker を本番稼働用環境に簡単にデプロイして、リアルタイムデータやバッチデータに対する予測の生成を開始できます。Amazon ML インスタンスは複数のアベイラビリティーゾーン間で Auto Scaling されます。お客様は、1 回クリックするだけで、この冗長性に優れたインスタンスにモデルをデプロイできます。インスタンスの作成、モデルのデプロイ、アプリケーションと安全に通信するための HTTPS エンドポイントのセットアップも SageMaker によって自動的に行われます。
マルチモデルエンドポイント
Amazon SageMaker では、多数のカスタム機械学習モデルをデプロイするためのスケーラブルで費用対効果の高い方法を提供します。SageMaker マルチモデルエンドポイントを使用すると、1 つのエンドポイントを 1 回クリックするだけで複数のモデルをデプロイし、1 つの提供コンテナを使用してサービスを提供できます。