[texte]
Le présent guide explique comment calibrer et déployer un modèle de diffusion stable pour générer des avatars personnalisés à l'aide d'un simple énoncé textuel. La diffusion stable est un modèle texte-image, généré par un type d'intelligence artificielle (IA) qui tire parti des dernières avancées en matière de machine learning. Dans ce cadre, les modèles sont créés par Amazon SageMaker et calibrés grâce à l'approche DreamBooth. Cette dernière utilise 10 à 15 images de l'utilisateur pour capturer les détails précis du sujet. Le modèle génère ensuite un avatar personnalisé qui peut être utilisé dans diverses applications, notamment les réseaux sociaux, les jeux vidéo et les événements virtuels. Ce guide inclut également une fonctionnalité d'invite textuelle permettant aux utilisateurs de générer des avatars en fonction de descriptions spécifiques. Cette fonctionnalité étend les fonctionnalités des applications et offre aux organisations des médias et du divertissement davantage de moyens de développer du contenu personnalisé et sur mesure, adapté aux consommateurs.
Le présent guide propose une approche basée sur l'IA pour permettre aux organisations des médias et du divertissement de développer du contenu personnalisé et adapté à grande échelle. Cependant, les utilisateurs du présent guide doivent prendre des précautions pour garantir que ces capacités d'IA ne soient pas détournées ou manipulées. Reportez-vous à Modèles de génération et de diffusion d'images sécurisés avec les services de modération de contenu Amazon AI pour en savoir plus sur la protection du contenu grâce à un mécanisme de modération approprié.
Veuillez noter : [Clause de non-responsabilité]
Diagramme d'architecture
[texte]
Étape 1
Démarrez la formation en lançant un appel à un point de terminaison d'API RESTful Amazon API Gateway, en utilisant l'authentification de la gestion des identités et des accès AWS (AWS IAM).
Étape 2
Une fonction AWS Lambda regroupe des images utilisateur et des fichiers de configuration de formation, puis les télécharge dans un compartiment Amazon Simple Storage Service (Amazon S3). Elle invoque ensuite le poste de formation.
Étape 3
Une inférence asynchrone Amazon SageMaker gère le processus de formation. Les tâches de formation sont automatiquement mises en file d'attente avant de passer aux étapes de préparation, d'étalonnage et de post-traitement de l'image.
Étape 4
SageMaker publie l'état des tâches à partir des rubriques Amazon Simple Notification Service (Amazon SNS).
Étape 5
L'application utilisateur s'abonne à Amazon Simple Queue Service (Amazon SQS) pour être mise à jour lorsqu'une tâche de formation est terminée.
Étape 6
Les artefacts du modèle sont chargés dans le compartiment d'hébergement du modèle Amazon S3.
Étape 7
Lancez l'inférence à partir d'un appel à un point de terminaison d'API RESTful API Gateway à l'aide de l'authentification IAM.
Étape 8
La fonction Lambda invoque le point final du modèle.
Étape 9
Les points de terminaison multimodèles (MME) de SageMaker fournissent des inférences à partir de modèles personnalisés chargés dynamiquement et mis en cache à partir du compartiment d'hébergement du modèle Amazon S3, en fonction du modèle de trafic vers chaque modèle.
Piliers AWS Well-Architected
Le cadre AWS Well-Architected vous permet de comprendre les avantages et les inconvénients des décisions que vous prenez lors de la création de systèmes dans le cloud. Les six piliers du cadre vous permettent d'apprendre les bonnes pratiques architecturales pour concevoir et exploiter des systèmes fiables, sécurisés, efficaces, rentables et durables. Grâce à l'outil AWS Well-Architected Tool, disponible gratuitement dans la console de gestion AWS, vous pouvez examiner vos charges de travail par rapport à ces bonnes pratiques en répondant à une série de questions pour chaque pilier.
Le diagramme d'architecture ci-dessus est un exemple de solution créée en tenant compte des bonnes pratiques Well-Architected. Pour être totalement conforme à Well-Architected, vous devez suivre autant de bonnes pratiques Well-Architected que possible.
-
Excellence opérationnelle
Les points de terminaison multimodèles de SageMaker et Amazon CloudWatch sont utilisés tout au long du présent guide et conçus pour améliorer votre excellence opérationnelle. Tout d'abord, les points de terminaison multimodèles SageMaker vous permettent de déployer une multitude de modèles derrière un seul point de terminaison, ce qui réduit le nombre de points de terminaison que vous devez gérer. SageMaker gère les modèles de chargement et de mise en cache en fonction de vos modèles de trafic. Vous pouvez ajouter ou mettre à jour le modèle sans redéployer le point de terminaison. Il vous suffit de charger les modèles sur le site Amazon S3 géré par SageMaker. En outre, SageMaker s'intègre automatiquement à CloudWatch, qui vous permet de suivre les mesures, les événements et les fichiers journaux à partir du modèle et d'obtenir des informations sur les performances de vos modèles. Vous pouvez également configurer des alarmes et surveiller les problèmes de manière proactive avant qu'ils n'aient un impact sur l'expérience client.
-
Sécurité
API Gateway fournit des mécanismes intégrés pour authentifier et autoriser les demandes d'API, empêchant ainsi les attaques par déni de service ou d'autres types d'abus susceptibles de surcharger les ressources de votre backend. Vous pouvez également utiliser les groupes d'utilisateurs Amazon Cognito, OAuth 2.0 ou les rôles IAM pour contrôler l'accès à vos API. Par ailleurs, pour protéger les données, API Gateway garantit que les données qui arrivent sur votre point de terminaison sont cryptées SSL/TLS. Il prend également en charge la limitation des API, ce qui contribue à protéger vos API contre un trafic excessif ou des abus. Pensez également à ajouter AWS WAF, un pare-feu pour applications Web, devant API Gateway afin de protéger les applications contre les attaques et les exploits Web. Enfin, pensez à AWS Shield pour protéger vos charges de travail contre les attaques par déni de service distribué (DDoS).
-
Fiabilité
API Gateway, Lambda et SageMaker sont déployés tout au long du présent guide pour améliorer la fiabilité de vos charges de travail. Tout d'abord, API Gateway fournit une tolérance aux pannes intégrée et un autoscaling pour gérer les pics de trafic. Il s'intègre également à Lambda et SageMaker pour vous permettre de créer facilement des API évolutives et sans serveur. De plus, SageMaker est conçu pour fournir une fiabilité et une disponibilité élevées pour exécuter des charges de travail de machine learning et servir des modèles de machine learning. Il fournit un autoscaling géré, une tolérance aux pannes, des surveillances de l'état, une surveillance et des diagnostics. Il fonctionne sur une infrastructure distribuée répartie sur plusieurs zones de disponibilité, garantissant une haute disponibilité. La fiabilité de l'entraînement et des inférences de votre modèle est ainsi garantie.
-
Efficacité des performances
SageMaker est utilisé ici pour améliorer l'efficacité des performances, en fournissant un service d'inférence performant et à faible latence qui peut être utilisé pour héberger des modèles de machine learning. Vous pouvez facilement configurer le type d'instance, le nombre d'instances et d'autres configurations de déploiement pour dimensionner correctement votre charge de travail d'inférence, en optimisant la latence, le débit et les coûts.
-
Optimisation des coûts
Les points de terminaison multimodèles SageMaker constituent un moyen évolutif et rentable de déployer un grand nombre de modèles. Ces points de terminaison utilisent le même conteneur pour héberger tous vos modèles, ce qui vous permet de réduire les frais liés à la gestion de points de terminaison distincts. Dans un contexte où certains modèles ne sont pas sollicités en permanence, le partage de ressources vous permet d'optimiser l'utilisation de l'infrastructure et de réduire les coûts par rapport à des points de terminaison distincts.
-
Développement durable
L'inférence asynchrone SageMaker est une fonctionnalité qui met en file d'attente les demandes entrantes et les traite de manière asynchrone. En d'autres termes, SageMaker peut réduire à zéro automatiquement les instances lorsqu'elles ne sont pas utilisées, ce qui permet d'économiser des ressources de calcul en cas d'inactivité et de réduire au minimum l'impact environnemental de l'exécution de vos charges de travail dans le cloud.
Ressources d'implémentation
L'exemple de code est un point de départ. Il s'agit d'un document validé par l'industrie, prescriptif mais non définitif, et d'un aperçu pour vous aider à commencer.
Contenu connexe
Modèles de génération et de diffusion d'images sécurisés avec les services de modération de contenu Amazon AI
Clause de non-responsabilité
Les exemples de code, les bibliothèques de logiciels, les outils de ligne de commande, les preuves de concept, les modèles ou toute autre technologie connexe (y compris tout ce qui précède qui est fourni par notre personnel) vous sont fournis en tant que contenu AWS en vertu du contrat client AWS ou de l'accord écrit pertinent entre vous et AWS (selon le cas). Vous ne devez pas utiliser ce contenu AWS dans vos comptes de production, ni sur des données de production ou autres données critiques. Vous êtes responsable des tests, de la sécurisation et de l'optimisation du contenu AWS, tel que les exemples de code, comme il convient pour une utilisation en production, en fonction de vos pratiques et normes de contrôle de qualité spécifiques. Le déploiement de contenu AWS peut entraîner des frais AWS pour la création ou l'utilisation de ressources payantes AWS, telles que l'exécution d'instances Amazon EC2 ou l'utilisation du stockage Amazon S3.
Les références à des services ou organisations tiers dans ce guide n'impliquent pas une approbation, un parrainage ou une affiliation entre Amazon ou AWS et le tiers. Les conseils fournis par AWS constituent un point de départ technique, et vous pouvez personnaliser votre intégration avec des services tiers lorsque vous déployez l'architecture.