[文字]
本指引展示如何校準和部署 Stable Diffusion 模型,以透過簡單的文字提示產生個人化虛擬人物。Stable Diffusion 是一種文字到影像的模型,由一種利用機器學習最新進展的人工智慧 (AI) 產生。本指引中,模型由 Amazon SageMaker 建置,並使用 DreamBooth 方法進行調校,該方法使用 10-15 張使用者影像來捕捉主體的精確細節。此模型產生可用於各種應用的個人化虛擬人物,包括用於社交媒體、遊戲和虛擬活動。本指引還包含文字提示功能,讓使用者可以根據特定的文字輸入產生虛擬人物。此功能擴展了應用程式的功能,並為媒體和娛樂組織提供了更多方法來製作針對受眾的個人化內容。
本指引提供了一種以 AI 為基礎的方法,協助媒體和娛樂組織大規模製作個人化、客製化的內容。然而,本指引的使用者應採取預防措施,以確保這些 AI 功能不被濫用或操縱。閱讀使用 Amazon AI 內容審核服務的安全影像生成和傳播模型一文,了解如何藉助適當的審核機制保護內容。
請注意:[免責聲明]
架構圖
[文字]
步驟 1
使用 AWS Identity and Access Management (IAM) 驗證,透過呼叫 Amazon API Gateway RESTful API 端點來啟動訓練。
步驟 2
AWS Lambda 函數打包使用者影像和訓練組態檔案,並將其上傳到 Amazon Simple Storage Service (Amazon S3) 儲存貯體。然後它調用訓練任務。
步驟 3
Amazon SageMaker 非同步推論管理訓練過程。訓練任務在執行影像準備、校準和後處理步驟之前會自動排隊。
步驟 4
SageMaker 透過 Amazon Simple Notification Service (Amazon SNS) 主題發佈任務狀態。
步驟 5
使用者應用程式訂閱 Amazon Simple Queue Service (Amazon SQS),以便在訓練任務完成收到訊息。
步驟 6
模型成品上傳到 Amazon S3 模型託管儲存貯體。
步驟 7
使用 IAM 驗證透過呼叫 API Gateway RESTful API 端點來啟動推論。
步驟 8
Lambda 函數調用模型端點。
步驟 9
SageMaker 多模型端點 (MME) 根據每個模型的流量模式,從 Amazon S3 模型託管儲存貯體中動態載入和快取的個人化模型進行推斷。
Well-Architected 支柱
AWS Well-Architected Framework 可協助您了解在雲端建立系統時所做決策的利弊。該架構的六根支柱讓您能夠學習設計和操作可靠、安全、高效、經濟高效且永續的系統的架構最佳實務。使用 AWS Well-Architected Tool (在 AWS 管理主控台中免費提供),您可以透過回答每根支柱的一組問題來針對這些最佳實務審查您的工作負載。
上方的架構圖是一個考量到 Well-Architected 最佳實務而建立的的解決方案的範例。若要完全實現 Well-Architected,您應該盡可能地多遵循 Well-Architected 的最佳實務。
-
卓越營運
本指引中使用了 SageMaker 多模型端點和 Amazon CloudWatch,旨在提高卓越營運能力。首先,SageMaker 多模型端點可讓您在單一端點中部署多個模型,從而減少需要管理的端點數量。SageMaker 根據流量模式管理模型的載入和快取。您可以新增或更新模型,而無需重新部署端點。只需將模型上傳到 SageMaker 管理的 Amazon S3 位置即可。此外,SageMaker 會自動與 CloudWatch 整合,您可以在其中追蹤模型的指標、事件和日誌檔案,並深入了解模型的效能。您還可以設定警報,及時發現問題,以免問題影響客戶體驗。
-
安全性
API Gateway 提供內建機制來驗證和授權 API 請求,防止拒絕服務攻擊或其他可能導致後端資源過載的濫用行為。您也可以使用 Amazon Cognito 使用者集區、OAuth 2.0 或 IAM 角色來控制對 API 的存取。為了保護資料,API Gateway 可確保傳入您端點的資料經過 SSL/TLS 加密。它還支援 API 限流,防止 API 接收過多流量或被濫用。 此外,您還可以考慮在 API Gateway 前面新增 AWS WAF (一種 Web 應用程式防火牆),以保護應用程式免受以 Web 為基礎的攻擊和利用。最後,請考慮使用 AWS Shield 來保護工作負載免受分散式阻斷服務 (DDoS) 攻擊。
-
可靠性
本指引中部署了 API Gateway、Lambda 和 SageMaker,以增強工作負載的可靠性。首先,API Gateway 提供內建容錯和自動擴展功能,以因應流量尖峰。它還與 Lambda 和 SageMaker 整合,讓您可以輕鬆建立可擴展的無伺服器 API。此外,SageMaker 提供高可靠性和可用性,讓機器學習工作負載和機器學習模型執行得更順暢。它提供受管自動擴展、容錯、運作狀態檢查、監控和診斷功能。它在跨多個可用區域的分散式基礎設施上執行,從而實現高可用性。這些功能確保了模型訓練和推論的可靠性。
-
效能達成效率
SageMaker 在本指引中用於提高效能效率,提供可用於託管機器學習模型的高效能、低延遲推論服務。您可以輕鬆設定執行個體類型、數量和其他部署組態,以調整推論工作負載的大小,最佳化延遲、輸送量和成本。
-
成本最佳化
SageMaker 多模型端點為部署大量模型提供了一種可擴展且符合成本效益的方法。這些端點使用相同的容器來託管所有模型,從而減少管理不同單獨端點的開銷。與擁有不同的單獨端點相比,在某些模型未充分利用的情況下,您可以藉助資源共用,最大化基礎設施使用率並節省成本。
-
永續發展
SageMaker 非同步推論是對傳入請求進行排隊,並以非同步的方式處理這些請求的一項功能。這意味著,SageMaker 可以在不使用時自動縮減至零個執行個體,從而在空閒時節省運算資源,並有助於最大限度地減少執行雲端工作負載對環境的影響。
相關內容
使用 Amazon AI 內容審核服務的安全影像生成和擴散模型
免責聲明
範例程式碼、軟體庫、命令列工具、概念驗證、範本或其他相關技術 (包括我們的人員提供的任何上述技術) 依據 AWS 客戶協議或您與 AWS 之間的相關書面協議 (以適用者為準) 作為 AWS 內容提供給您。您不得在您的生產帳戶、生產或其他關鍵資料中使用此 AWS 內容。您有責任根據您的特定品質控制實務和標準,依生產級用途來測試、保護和最佳化 AWS 內容 (如範例程式碼)。部署 AWS 內容可能會因建立或使用 AWS 收費資源 (如執行 Amazon EC2 執行個體或使用 Amazon S3 儲存) 而產生 AWS 費用。
本指引中對第三方服務或組織的參考並不意味著 Amazon 或 AWS 與第三方之間的認可、贊助或聯繫。AWS 的指引是技術起點,您可以在部署架構時自訂與第三方服務的整合。