SageMaker Canvas から基盤モデルを本番環境に移行する
Amazon SageMaker Canvas が SageMaker リアルタイム推論エンドポイントへの基盤モデル (FM) のデプロイをサポートするようになりました。これにより、生成 AI 機能を本番環境にデプロイし、Canvas ワークスペースの外部で利用できるようになりました。SageMaker Canvas は、アナリストや市民データサイエンティストが正確な ML 予測を生成したり生成 AI 機能を利用したりできるようにする、コーディング不要のワークスペースです。
SageMaker Canvas では、Amazon Bedrock と SageMaker JumpStart を活用した FM にアクセスでき、RAG ベースのカスタマイズや FM の微調整がサポートされています。本日より、Falcon-7B、Llama-2 などの SageMaker JumpStart を活用した FM を SageMaker エンドポイントにデプロイできるようになりました。これにより、SageMaker Canvas ワークスペースの外部にあるアプリケーションに生成 AI 機能を簡単に統合できるようになります。Amazon Bedrock を活用した FM には、SageMaker ワークスペースの外部で単一の API を使用してアクセスできます。SageMaker Canvas でデプロイプロセスを簡素化することで、価値創出までの時間を短縮し、実験から実稼働へのスムーズな移行を確実に実施できます。
開始するには、SageMaker Canvas にログインして、SageMaker JumpStart を活用した FM にアクセスしてください。任意のモデルを選択し、無期限や特定の期間など、適切なエンドポイント設定でデプロイします。SageMaker 推論料金はデプロイされたモデルに適用されます。新しいユーザーの場合は、AWS コンソールから SageMaker Canvas を直接起動すると、最新バージョンを使用できます。既存ユーザーの場合は、[ログアウト] をクリックして再度ログインすると、最新バージョンの SageMaker Canvas を使用できます。
この拡張された機能は現在、SageMaker Canvas がサポートされているすべての AWS リージョンで利用できます。詳細については、SageMaker Canvas の製品マニュアルを参照してください。