[Text]
Diese Anleitung zeigt, wie Sie ein Stable-Diffusion-Modell kalibrieren und einsetzen, um personalisierte Avatare mit einem einfachen Text-Prompt zu generieren. Stable Diffusion ist ein Text-zu-Bild-Modell, generiert durch einen Typ von künstlicher Intelligenz (KI), der die neuesten Fortschritte im Machine Learning nutzt. Dabei werden die Modelle von Amazon SageMaker erstellt und mit dem DreamBooth-Ansatz kalibriert, der 10–15 Bilder des Benutzers verwendet, um die genauen Details des Motivs zu erfassen. Das Modell generiert einen personalisierten Avatar, der in einer Vielzahl von Anwendungen verwendet werden kann, darunter soziale Medien, Spiele und virtuelle Veranstaltungen. Die Anleitung enthält auch ein Text-Prompt-Feature, mit dem Benutzer Avatare basierend auf bestimmten Texteingaben generieren können. Dieses Feature erweitert die Möglichkeiten der Anwendungen und bietet Medien- und Unterhaltungsorganisationen mehr Möglichkeiten, personalisierte Inhalte zu entwickeln, die auf den Verbraucher zugeschnitten sind.
Diese Anleitung bietet einen KI-basierten Ansatz zur Unterstützung von Medien- und Unterhaltungsorganisationen bei der Entwicklung personalisierter, maßgeschneiderter Inhalte im großen Maßstab. Nutzer dieser Anleitung sollten jedoch Vorkehrungen treffen, um sicherzustellen, dass diese KI-Funktionen nicht missbraucht oder manipuliert werden. Besuchen Sie Sichere Bildgenerierung und Diffusionsmodelle mit Amazon-KI-Services zur Inhaltsmoderation, um mehr über den Schutz von Inhalten durch einen geeigneten Moderationsmechanismus zu erfahren.
Bitte beachten: [Haftungsausschluss]
Architekturdiagramm
[text]
Schritt 1
Initiieren Sie das Training durch einen Aufruf eines RESTful-API-Endpunkts in Amazon API Gateway mithilfe von AWS Identity and Access Management (IAM)-Authentifizierung.
Schritt 2
Eine Funktion von AWS Lambda bündelt Benutzerbilder und Trainings-Konfigurationsdateien und lädt sie in einen Bucket von Amazon Simple Storage Service (Amazon S3) hoch. Sie ruft dann den Trainingsauftrag auf.
Schritt 3
Eine asynchrone Inferenz von Amazon SageMaker verwaltet den Trainingsprozess. Trainingsaufträge werden automatisch in eine Warteschlange gestellt, bevor sie die Schritte der Bildvorbereitung, Kalibrierung und Nachbearbeitung durchlaufen.
Schritt 4
SageMaker veröffentlicht den Auftragsstatus über Amazon Simple Notification Service (Amazon SNS)-Themen.
Schritt 5
Die Benutzeranwendung abonniert Amazon Simple Queue Service (Amazon SQS) zur Aktualisierung, wenn ein Trainingsauftrag abgeschlossen ist.
Schritt 6
Modellartefakte werden in den Modell-Hosting-Bucket von Amazon S3 hochgeladen.
Schritt 7
Initiieren Sie die Inferenz durch einen Aufruf an einen RESTful-API-Endpunkt der API Gateway mithilfe der IAM-Authentifizierung.
Schritt 8
Die Lambda-Funktion ruft den Modellendpunkt auf.
Schritt 9
Multimodell-Endpunkte (MME) SageMaker bieten Schlussfolgerungen aus dynamisch geladenen und zwischengespeicherten personalisierten Modellen aus dem Modell-Hosting-Bucket von Amazon S3, basierend auf dem Datenverkehrsmuster zu jedem Modell.
Well-Architected-Säulen
Das AWS-Well-Architected-Framework hilft Ihnen, die Vor- und Nachteile der Entscheidungen zu verstehen, die Sie beim Aufbau von Systemen in der Cloud treffen. Die sechs Säulen des Frameworks ermöglichen es Ihnen, architektonische bewärhte Methoden für die Entwicklung und den Betrieb zuverlässiger, sicherer, effizienter, kostengünstiger und nachhaltiger Systeme zu erlernen. Mit dem AWS-Well-Architected-Tool, das kostenlos in der AWS-Managementkonsole verfügbar ist, können Sie Ihre Workloads anhand dieser bewährten Methoden überprüfen, indem Sie eine Reihe von Fragen für jede Säule beantworten.
Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.
-
Betriebliche Exzellenz
SageMaker-Multimodell-Endpunkte und Amazon CloudWatch werden in dieser Anleitung verwendet und sind darauf ausgelegt, Ihre betriebliche Exzellenz zu verbessern. Erstens können Sie mit den Multi-Modell-Endpunkten von SageMaker eine Vielzahl von Modellen hinter einem einzigen Endpunkt bereitstellen, wodurch die Anzahl der zu verwaltenden Endpunkte reduziert wird. SageMaker verwaltet die Lade- und Zwischenspeichermodelle auf der Grundlage Ihrer Datenverkehrsmuster. Sie können das Modell hinzufügen oder aktualisieren, ohne den Endpunkt erneut bereitzustellen. Laden Sie die Modelle einfach an den von SageMaker verwalteten Amazon-S3-Speicherort hoch. Darüber hinaus lässt sich SageMaker automatisch in CloudWatch integrieren, wo Sie Metriken, Ereignisse und Protokolldateien des Modells nachverfolgen und Einblicke in die Leistung Ihrer Modelle gewinnen können. Sie können auch Warnungen einrichten und Probleme proaktiv überwachen, bevor sie sich auf das Kundenerlebnis auswirken.
-
Sicherheit
API Gateway bietet integrierte Mechanismen zur Authentifizierung und Autorisierung von API-Anfragen und verhindert so Denial-of-Service-Angriffe oder andere Arten von Missbrauch, die Ihre Backend-Ressourcen überlasten können. Sie können auch Amazon-Cognito-Benutzerpools, OAuth 2.0 oder IAM-Rollen verwenden, um den Zugriff auf Ihre APIs zu steuern. Und zum Schutz der Daten stellt API Gateway sicher, dass die an Ihren Endpunkt gelangenden Daten SSL/TLS-verschlüsselt sind. Es unterstützt auch die API-Drosselung und trägt so dazu bei, Ihre APIs vor übermäßigem Datenverkehr oder Missbrauch zu schützen. Erwägen Sie auch, AWS WAF, eine Firewall für Web-Anwendungen, vor dem API Gateway hinzuzufügen, um Anwendungen vor webbasierten Angriffen und Missbrauch zu schützen. Schließlich sollten Sie AWS Shield in Betracht ziehen, um Ihre Workloads vor DDoS-Angriffen (Distributed Denial of Service) zu schützen.
-
Zuverlässigkeit
API Gateway, Lambda und SageMaker werden in dieser Anleitung eingesetzt, um die Zuverlässigkeit Ihrer Workloads zu verbessern. Erstens bietet API Gateway eine integrierte Fehlertoleranz und automatische Skalierung, um Datenverkehrsspitzen zu bewältigen. Es lässt sich auch in Lambda und SageMaker integrieren, um das Entwickeln skalierbarer, Serverless APIs zu vereinfachen. Darüber hinaus ist SageMaker so konzipiert, dass es eine hohe Zuverlässigkeit und Verfügbarkeit für die Ausführung von Machine-Learning-Workloads und die Bereitstellung von Machine-Learning-Modellen bietet. Es bietet verwaltete automatische Skalierung, Fehlertoleranz, Zustandsprüfungen, Überwachung und Diagnose. Es wird in einer verteilten Infrastruktur ausgeführt, die über mehrere Availability Zones verteilt ist und so eine hohe Verfügbarkeit gewährleistet. Diese garantieren die Zuverlässigkeit Ihres Modelltrainings und Ihrer Inferenzen.
-
Leistung und Effizienz
SageMaker wird hier zur Steigerung der Leistungseffizienz verwendet. Es bietet einen leistungsstarken Inferenz-Service mit niedriger Latenzzeit, der zum Hosten von Machine-Learning-Modellen verwendet werden kann. Sie können den Instance-Typ, die Anzahl der Instances und andere Bereitstellungskonfigurationen einfach konfigurieren, um Ihren Workload richtig zu dimensionieren und für Latenz, Durchsatz und Kosten zu optimieren.
-
Kostenoptimierung
Multimodell-Endpunkte von SageMakerbieten eine skalierbare und kostengünstige Möglichkeit, eine große Anzahl von Modellen bereitzustellen. Diese Endpunkte verwenden denselben Container zum Hosten aller Ihrer Modelle, sodass Sie den Aufwand für die Verwaltung separater Endpunkte reduzieren können. In einer Situation, in der einige der Modelle nicht so häufig genutzt werden, können Sie die Ressourcen gemeinsam nutzen, um die Infrastrukturauslastung zu maximieren und Kosten im Vergleich zu separaten Endpunkten zu sparen.
-
Nachhaltigkeit
Die asynchrone Inferenz von SageMaker ist eine Funktion, die eingehende Anfragen in die Warteschlange stellt und diese Anfragen asynchron verarbeitet. Dies bedeutet, dass SageMaker bei Nichtgebrauch automatisch auf Null Instances herunterskaliert werden kann. Dadurch werden Rechenressourcen im Leerlauf eingespart und die Umweltauswirkungen der Ausführung Ihrer Cloud-Workloads minimiert.
Implementierungsressourcen
Der Beispielcode dient als Ausgangspunkt. Er ist in der Branche erprobt, präskriptiv, aber nicht endgültig, und ein Blick unter die Haube, der Ihnen den Einstieg erleichtert.
Ähnliche Inhalte
Sichere Bildgenerierung und Diffusionsmodelle mit Amazon-KI-Services zur Inhaltsmoderation
Haftungsausschluss
Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.
Verweise auf Services oder Organisationen von Drittanbietern in diesen Leitlinien bedeuten nicht, dass Amazon oder AWS eine Billigung, Förderung oder Zugehörigkeit zwischen Amazon oder AWS und dem Drittanbieter darstellt. Die Beratung durch AWS ist ein technischer Ausgangspunkt, und Sie können Ihre Integration mit Services von Drittanbietern anpassen, wenn Sie die Architektur bereitstellen.