投稿日: Nov 29, 2023
基盤モデル (FM) を含む機械学習 (ML) モデルを Amazon SageMaker for Inference に大規模にデプロイするまでの時間を数日から数時間に短縮できる新しいツールと改善を発表できることをうれしく思います。これには、SageMaker で ML モデルをパッケージ化してデプロイするプロセスを 7 つのステップから 1 つのステップ (ローカルでの推論も選択可能) に簡素化する新しい Python SDK ライブラリが含まれています。さらに、Amazon SageMaker は Amazon SageMaker Studio での新しいインタラクティブな UI エクスペリエンスを提供します。これにより、お客様はトレーニング済みの ML モデルや FM を、パフォーマンスとコストが最適化された構成を使用して、わずか 3 回のクリックですばやくデプロイできます。
新しい Amazon SageMaker Python SDK ライブラリを使用すると、お客様は任意のフレームワークのモデルアーティファクトやパブリック FM を、デプロイ可能な ML モデルに関数を一度呼び出すだけで簡単に変換できます。さらに、ローカルの IDE またはノートブックを使用して、数分のうちに ML モデルを検証、最適化し、Amazon SageMaker にデプロイできます。SageMaker Studio の新しいインタラクティブエクスペリエンスでは、お客様は任意のフレームワークバージョンを選択し、事前にトレーニングされたモデルアーティファクトをアップロードすることで、デプロイ可能な ML モデルを簡単に作成できます。さらに、デプロイ可能な ML モデルまたは FM を 1 つ以上選択して、わずか数回のクリックでそれらをデプロイできます。
Amazon SageMaker Inference が利用可能な AWS リージョンの詳細については、AWS リージョンのリストをご覧ください。
詳細については、Amazon SageMaker ModelBuilder の Python インターフェイスに関するドキュメントと、Studio のガイド付きデプロイワークフローをご覧ください。