メインコンテンツに移動

AWS ソリューションライブラリ

Amazon SageMaker を使用してパーソナライズされたアバターを作成するためのガイダンス

概要

このガイダンスは、Stable Diffusion モデルのキャリブレーションとデプロイを行い、簡単なテキストプロンプトでパーソナライズされたアバターを生成する方法を示します。Stable Diffusion は、機械学習の最新の進歩を活用するあるタイプの人工知能 (AI) が生成したテキストから画像への変換モデルです。ここでは、モデルは Amazon SageMaker によって構築され、DreamBooth アプローチで調整されます。Amazon SageMaker は、ユーザーの画像を 10~15 枚使用して被写体の詳細を正確にキャプチャします。このモデルは、ソーシャルメディア、ゲーム、バーチャルイベントなど、さまざまな用途で使用できるパーソナライズされたアバターを生成します。ガイダンスには、ユーザーが特定のテキスト入力に基づいてアバターを生成できるテキストプロンプト機能も含まれています。この機能により活用範囲が広がり、メディアおよびエンターテインメント組織がユーザーに合わせてパーソナライズされたコンテンツを開発するための数多くの方法を提供できるようになります。

このガイダンスは、メディアおよびエンターテインメント組織がパーソナライズされカスタマイズされたコンテンツを大規模に開発するための AI ベースのアプローチを提供します。ただし、このガイダンスのユーザーは、これらの AI 機能が悪用されたり操作されたりしないように予防策を講じる必要があります。適切なモデレーションメカニズムによるコンテンツの保護については、Amazon AI コンテンツモデレーションサービスによる安全な画像生成と拡散モデルをご覧ください

仕組み

これらの技術的詳細には、このソリューションを効果的に使用する方法を示すアーキテクチャ図が掲載されています。アーキテクチャ図は、主要なコンポーネントとその相互作用を示し、アーキテクチャの構造と機能の概要を段階的に示しています。

Well-Architected の柱

上記のアーキテクチャ図は、Well-Architected のベストプラクティスを念頭に置いて作成されたソリューションの例です。完全に Well-Architected であるためには、可能な限り多くの Well-Architected ベストプラクティスに従う必要があります。

SageMaker マルチモデルエンドポイントと Amazon CloudWatch は、本ガイダンスを通じて活用され、運用上の優位性を高めるように設計されています。まず、SageMaker のマルチモデルエンドポイントでは、単一のエンドポイントの背後に多数のモデルをデプロイできるため、管理が必要なエンドポイントの数を削減できます。SageMaker は、トラフィックパターンに基づいてモデルの読み込みとキャッシュを管理します。エンドポイントを再デプロイせずにモデルを追加または更新できます。必要な操作は SageMaker が管理する Amazon S3 ロケーションにモデルをアップロードすることだけです。さらに、SageMaker は、モデルからメトリクス、イベント、ログファイルを追跡してモデルのパフォーマンスのインサイトを取得できる CloudWatch に自動的に統合します。また、アラームを設定して、カスタマーエクスペリエンスに影響が及ぶ前に問題を事前にモニタリングすることもできます。

オペレーショナルエクセレンスに関するホワイトペーパーを読む

API Gateway は、API リクエストを認証および承認する組み込みのメカニズムを提供するため、サービス拒否攻撃や、バックエンドリソースに過負荷をかける可能性のあるその他の不正行為を防止できます。Amazon Cognito ユーザープール、OAuth 2.0、または IAM ロールを使用して API へのアクセスを制御することもできます。また、データ保護のため、API Gateway では、エンドポイントに送信されるデータが SSL/TLS で暗号化されます。また、API スロットリングもサポートされており、過剰なトラフィックや悪用から API を保護できます。 また、ウェブベースの攻撃や悪用からアプリケーションを保護するために、 API Gateway の前にウェブアプリケーションファイアウォールである AWS WAF を追加することを検討してください。最後に、分散型サービス拒否 (DDoS) 攻撃からワークロードを保護するために、 AWS Shield を検討してください。

セキュリティに関するホワイトペーパーを読む

このガイダンス全体では、ワークロードの信頼性を強化するために API GatewayLambdaSageMaker がデプロイされています。まず、API Gateway は、トラフィックのスパイクを処理する組み込みの耐障害性と自動スケーリングを提供します。また、Lambda および SageMaker と統合しているため、スケーラブルなサーバーレス API を簡単に構築できます。さらに、SageMaker は、機械学習ワークロードを実行し、機械学習モデルを提供する際に、高い信頼性と可用性を確保するように設計されています。マネージド型の自動スケーリング、耐障害性、ヘルスチェック、モニタリング、診断が提供されます。SageMaker は、複数のアベイラビリティーゾーンに分散された分散型インフラストラクチャ上で動作するため、高い可用性を確保できます。これにより、モデルトレーニングと推論の信頼性が保証されます。

信頼性に関するホワイトペーパーを読む

ここでは SageMaker を使用してパフォーマンス効率を高め、機械学習モデルのホストに使用できる高性能で低レイテンシーの推論サービスを提供します。インスタンスのタイプ、数、その他のデプロイを簡単に設定して、推論ワークロードを適切なサイズにし、レイテンシー、スループット、コストを最適化できます。

パフォーマンス効率に関するホワイトペーパーを読む

SageMaker のマルチモデルエンドポイントを使用すると、多くのモデルをスケーラブルかつコスト効率の高い方法でデプロイできます。これらのエンドポイントは同じコンテナを使用してすべてのモデルをホストするため、個別のエンドポイントを管理するオーバーヘッドを削減できます。一部のモデルがあまり利用されていない状況では、リソースを共有することで、個別のエンドポイントを使用する場合に比べてインフラストラクチャの利用率を最大化し、コストを削減できます。 

コスト最適化に関するホワイトペーパーを読む

SageMaker 非同期推論は、受信したリクエストをキューに入れ、それらのリクエストを非同期的に処理する機能です。したがって、SageMaker は、未使用のインスタンスをゼロまで自動的にスケールダウンできるため、アイドリング時のコンピューティングリソースを節約し、クラウドワークロードの実行環境への影響を最小限に抑えることができます。 

持続可能性に関するホワイトペーパーを読む

実装リソース

サンプルコードは出発点です。これは業界で検証済みであり、規範的ではありますが決定的なものではなく、内部を知ることができ、開始に役立ちます。
GitHub でサンプルコードを開く

関連コンテンツ

AWS 機械学習 | ブログ

Safe image generation and diffusion models with Amazon AI content moderation services

この投稿では、AWS の AI サービスである Amazon Rekognition と Amazon Comprehend を他の手法とともに使用して、Stable Diffusion モデルで生成されたコンテンツをほぼリアルタイムで効果的にモデレートする方法について説明します。

免責事項

サンプルコード、ソフトウェアライブラリ、コマンドラインツール、概念の実証、テンプレート、またはその他の関連技術 (私たちの担当者から提供される前述のものを含む) は、AWS カスタマーアグリーメント、またはお客様と AWS との間の関連文書契約 (いずれか該当する方) に基づき、AWS コンテンツとしてお客様に提供されるものです。お客様は、この AWS コンテンツを、お客様の本番アカウント、または本番データもしくはその他の重要なデータで使用すべきではありません。お客様は、サンプルコードなどの AWS コンテンツを、お客様固有の品質管理手法および基準に基づいて、本番グレードでの使用に適したテスト、セキュリティ確保、および最適化を行う責任を負います。AWS コンテンツのデプロイには、Amazon EC2 インスタンスの実行や Amazon S3 ストレージの使用など、AWS の課金対象リソースを作成または使用するための AWS 料金が発生する場合があります。

今日お探しの情報は見つかりましたか?

ぜひご意見をお寄せください。ページのコンテンツ品質の向上のために役立てさせていただきます