投稿日: Apr 21, 2022

本日、SageMaker が一般的に利用可能なすべての AWS リージョン (AWS 中国リージョンを除く) において、Amazon SageMaker Serverless Inference の一般提供の開始を発表できることを嬉しく思います。SageMaker Serverless Inference を使用すると、基盤となるインフラストラクチャを設定または管理することなく、推論用の機械学習 (ML) モデルを迅速にデプロイすることができます。ML モデルをデプロイするときにサーバーレスオプションを選択するだけで、Amazon SageMaker は推論リクエストのボリュームに基づいてコンピューティング性能の自動的なプロビジョンやスケールを実行したり、コンピューティング性能をオフにしたりします。SageMaker Serverless Inference では、推論リクエストの処理に使用されるコンピューティング性能 (ミリ秒単位で請求)、および処理されるデータ量に対してのみ料金を支払い、アイドル時間に対する支払いはありません。SageMaker Serverless Inference は、トラフィックが断続的または予測できないアプリケーションに最適です。

re:Invent 2021でのプレビュー開始以降、モデルのデプロイを簡略化する抽象化を提供する Amazon SageMaker Python SDK のサポートと、サーバーレス推論エンドポイントを MLOps ワークフローと統合することを許可する Model Registry のサポートを追加しました。また、エンドポイントあたりの最大同時呼び出し数の制限を 200 に増やし(プレビュー中の 50 から)、高トラフィックのワークロードに SageMaker Serverless Inference を使用することを許可しました。

SageMaker Serverless Inference のエンドポイントは、AWS コンソール、AWS SDK for Python (Boto3)、SageMaker Python SDK、AWS CloudFormation、またはAWS Command Line Interface (AWS CLI) から作成できます。SageMaker Serverless Inference は、現在、次の 21 の AWS リージョンで一般に利用できるようになりました:米国東部 (オハイオ)、米国東部 (バージニア北部)、米国西部 (北カリフォルニア)、米国西部 (オレゴン)、アフリカ (ケープタウン)、アジアパシフィック (香港)、アジアパシフィック (ムンバイ)、アジアパシフィック (大阪)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (アイルランド)、欧州 (ロンドン)、欧州 (ミラノ)、欧州 (パリ)、欧州 (ストックホルム)、中東 (バーレーン)、南米 (サンパウロ)

使用スタート: