- Bibliothèque de solutions AWS›
- Guide pour créer un avatar personnalisé avec Amazon SageMaker
Guide pour créer un avatar personnalisé avec Amazon SageMaker
Présentation
Le présent guide explique comment calibrer et déployer un modèle de diffusion stable pour générer des avatars personnalisés à l’aide d’un simple énoncé textuel. La diffusion stable est un modèle texte-image, généré par un type d'intelligence artificielle (IA) qui tire parti des dernières avancées en matière de machine learning. Dans ce cadre, les modèles sont créés par Amazon SageMaker et calibrés grâce à l'approche DreamBooth. Cette dernière utilise 10 à 15 images de l'utilisateur pour capturer les détails précis du sujet. Le modèle génère ensuite un avatar personnalisé qui peut être utilisé dans diverses applications, notamment les réseaux sociaux, les jeux vidéo et les événements virtuels. Ce guide inclut également une fonctionnalité d'invite textuelle permettant aux utilisateurs de générer des avatars en fonction de descriptions spécifiques. Cette fonctionnalité étend les fonctionnalités des applications et offre aux organisations des médias et du divertissement davantage de moyens de développer du contenu personnalisé et sur mesure, adapté aux consommateurs.
Le présent guide propose une approche basée sur l'IA pour permettre aux organisations des médias et du divertissement de développer du contenu personnalisé et adapté à grande échelle. Cependant, les utilisateurs du présent guide doivent prendre des précautions pour garantir que ces capacités d'IA ne soient pas détournées ou manipulées. Consultez la section Modèles de génération et de diffusion d'images sécurisés avec les services de modération de contenu Amazon AI pour en savoir plus sur la protection du contenu grâce à un mécanisme de modération approprié.
Fonctionnement
Ces détails techniques comportent un schéma d'architecture pour illustrer comment utiliser efficacement cette solution. Le schéma d'architecture montre les composants clés et leurs interactions, fournissant une vue d'ensemble de la structure et des fonctionnalités de l'architecture étape par étape.
Piliers Well-Architected
Le diagramme d'architecture ci-dessus est un exemple de solution créée en tenant compte des bonnes pratiques Well-Architected. Pour être totalement conforme à Well-Architected, vous devez suivre autant de bonnes pratiques Well-Architected que possible.
Les terminaux multimodèles SageMaker et Amazon CloudWatch sont utilisés tout au long de ce guide et conçus pour améliorer votre excellence opérationnelle. Tout d'abord, les points de terminaison multimodèles SageMaker vous permettent de déployer une multitude de modèles derrière un seul point de terminaison, ce qui réduit le nombre de points de terminaison que vous devez gérer. SageMaker gère les modèles de chargement et de mise en cache en fonction de vos modèles de trafic. Vous pouvez ajouter ou mettre à jour le modèle sans redéployer le point de terminaison. Il vous suffit de charger les modèles sur le site Amazon S3 géré par SageMaker. En outre, SageMaker s'intègre automatiquement à CloudWatch, qui vous permet de suivre les mesures, les événements et les fichiers journaux à partir du modèle et d'obtenir des informations sur les performances de vos modèles. Vous pouvez également configurer des alarmes et surveiller les problèmes de manière proactive avant qu'ils n'aient un impact sur l'expérience client.
API Gateway fournit des mécanismes intégrés pour authentifier et autoriser les demandes d'API, empêchant ainsi les attaques par déni de service ou d'autres types d'abus susceptibles de surcharger les ressources de votre backend. Vous pouvez également utiliser les groupes d'utilisateurs Amazon Cognito, OAuth 2.0 ou les rôles IAM pour contrôler l'accès à vos API. Par ailleurs, pour protéger les données, API Gateway garantit que les données qui arrivent sur votre point de terminaison sont cryptées SSL/TLS. Il prend également en charge la limitation des API, ce qui contribue à protéger vos API contre un trafic excessif ou des abus. Pensez également à ajouter AWS WAF, un pare-feu pour applications Web, devant l'API Gateway afin de protéger les applications contre les attaques et les exploits Web. Enfin, pensez à AWS Shield pour protéger vos charges de travail contre les attaques par déni de service distribué (DDoS).
API Gateway, Lambda et SageMaker sont déployés tout au long du présent guide pour améliorer la fiabilité de vos charges de travail. Tout d'abord, API Gateway fournit une tolérance aux pannes intégrée et un autoscaling pour gérer les pics de trafic. Il s'intègre également à Lambda et SageMaker pour vous permettre de créer facilement des API évolutives et sans serveur. De plus, SageMaker est conçu pour fournir une fiabilité et une disponibilité élevées pour exécuter des charges de travail de machine learning et servir des modèles de machine learning. Il fournit un autoscaling géré, une tolérance aux pannes, des surveillances de l'état, une surveillance et des diagnostics. Il fonctionne sur une infrastructure distribuée répartie sur plusieurs zones de disponibilité, garantissant une haute disponibilité. La fiabilité de l'entraînement et des inférences de votre modèle est ainsi garantie.
SageMaker est utilisé ici pour améliorer l'efficacité des performances, en fournissant un service d'inférence performant et à faible latence qui peut être utilisé pour héberger des modèles de machine learning. Vous pouvez facilement configurer le type d'instance, le nombre d'instances et d'autres configurations de déploiement pour dimensionner correctement votre charge de travail d'inférence, en optimisant la latence, le débit et les coûts.
Les points de terminaison multimodèles SageMaker constituent un moyen évolutif et rentable de déployer un grand nombre de modèles. Ces points de terminaison utilisent le même conteneur pour héberger tous vos modèles, ce qui vous permet de réduire les frais liés à la gestion de points de terminaison distincts. Dans un contexte où certains modèles ne sont pas sollicités en permanence, le partage de ressources vous permet d'optimiser l'utilisation de l'infrastructure et de réduire les coûts par rapport à des points de terminaison distincts.
L'inférence asynchrone de SageMaker est une fonctionnalité qui met en file d'attente les demandes entrantes et les traite de manière asynchrone. En d'autres termes, SageMaker peut réduire à zéro automatiquement les instances lorsqu'elles ne sont pas utilisées, ce qui permet d'économiser des ressources de calcul en cas d'inactivité et de réduire au minimum l'impact environnemental de l'exécution de vos charges de travail dans le cloud.
Ressources d'implémentation
Contenu connexe
Le présent article explore l'utilisation des services d'IA AWS, Amazon Rekognition et Amazon Comprehend, ainsi que d'autres techniques, pour modérer efficacement et en temps quasi réel le contenu généré par le modèle de diffusion stable.
Clause de non-responsabilité
Avez-vous trouvé les informations que vous recherchiez ?
Faites-nous part de vos commentaires afin que nous puissions améliorer le contenu de nos pages