Amazon SageMaker のご紹介 – 機械学習の加速
投稿日:
2023年10月19日
本日、AWS Secret Region で Amazon SageMaker が利用可能になりました。Amazon SageMaker は、データサイエンティスト、開発者、機械学習の専門家が機械学習モデルを大規模に、迅速かつ簡単に構築、トレーニング、ホストできるようにするフルマネージド型のエンドツーエンド機械学習サービスです。これにより、機械学習に関連する作業が飛躍的に迅速化し、本番環境のアプリケーションに機械学習をすばやく組み込めるようになります。
Amazon SageMaker の次の 5 つの主要コンポーネントが利用可能になりました。
- オーサリング: データ探索、クリーニング、および前処理のためのセットアップ不要のホスティング済み Jupyter Notebook IDE。これらは一般的なインスタンスタイプまたは GPU 搭載インスタンスで実行できます。
- モデルトレーニング: 分散型のモデル構築、トレーニング、検証サービス。組み込みの一般的な教師付き/教師なし学習アルゴリズムとフレームワークを使用することも、Docker コンテナを使用して独自のトレーニングを作成することもできます。トレーニングは数十のインスタンスまで拡張できるため、より迅速なモデル構築が可能になります。トレーニングデータは S3 から読み込まれ、モデルアーティファクトは S3 に保存されます。モデルアーティファクトはデータに依存するモデルパラメータであり、モデルから推論を行うためのコードではありません。このように懸念事項を分離することで、Amazon SageMaker のトレーニング済みモデルを他のプラットフォームに簡単にデプロイできます。
- モデルホスティング: HTTPS エンドポイントを備えたモデルホスティングサービスで、モデルを呼び出してリアルタイムで推論を行います。これらのエンドポイントはトラフィックをサポートするように拡張でき、複数のモデルに対して同時に A/B テストを実行できます。繰り返しになりますが、組み込み SDK を使用してこれらのエンドポイントを構築することも、Docker イメージを使用して独自の構成を提供することもできます。Amazon SageMaker Neo: モデルを 1 回トレーニングするだけで、そのモデルはどこでも実行可能となり、パフォーマンスも最大 7 倍にまで向上します。インターネットに接続されたエッジデバイス上で実行されるアプリケーションは、機械学習モデルのパフォーマンスに強く影響されます。モデルは処理決定までのレイテンシーを低く抑えることを求められるほか、膨大な数の異なるハードウェアプラットフォームでデプロイされることも多々あります。
- Amazon SageMaker Neo では、特定のハードウェアプラットフォーム向けにモデルをコンパイルすることにより、モデルのパフォーマンスを自動で最適化し、最大 7 倍のパフォーマンスで実行できるようになります。精度が損なわれることもありません。その結果、トレーニングしたモデルをハードウェアプラットフォームごとにハンドチューニングする必要はなくなり、時間とコストを節約できます。SageMaker Neo では、NVIDIA、Intel、Xilinx、Cadence、Arm が提供するハードウェアプラットフォームをサポートしているほか、Tensorflow、Apache MXNet、PyTorch などの主要なフレームワークもサポートしています。
- Amazon SageMaker GroundTruth: 独自のデータラベリングワークフローやワークフォースを柔軟に構築および管理したい場合は、SageMaker Ground Truth を使用できます。SageMaker Ground Truth は、データのラベル付けを簡単に行うことができるデータラベリングサービスで、サードパーティーベンダー、または独自のプライベートワークフォースを使用するオプションを提供します。また、実世界のデータを手動で収集、ラベル付けすることなく、ラベル付き合成データを生成することができます。SageMaker Ground Truth は、お客様に代わって何十万もの自動ラベル付けされた合成画像を生成することができます。
この投稿の内容は情報提供のみを目的としています。Secret Cloud での Amazon Sagemaker の詳細については、お問い合わせください。