Diese Anleitung zeigt, wie Sie anhand von Beiträgen in sozialen Medien, Kundenrezensionen oder anderen Kurzforminhalten Einblicke wie Stimmungen, Unternehmen, Standorte und Themen gewinnen können. Mit dem beiliegenden Beispielcode erhalten Sie eine Codebasis, die als Informationsextraktionssystem dient. Dieses System extrahiert mithilfe eines großen Sprachmodells (LLM) Informationen aus verschiedenen Plattformen von sozialen Medien, darunter X, Facebook und Instagram, und bietet Ihnen so umsetzbare Einblicke in Ihre Produkte und Dienstleistungen.

Architekturdiagramm

Architektur-Diagramm als PDF herunterladen 

Well-Architected-Säulen

Das AWS-Well-Architected-Framework hilft Ihnen, die Vor- und Nachteile der Entscheidungen zu verstehen, die Sie beim Aufbau von Systemen in der Cloud treffen. Die sechs Säulen des Frameworks ermöglichen es Ihnen, architektonische bewärhte Methoden für die Entwicklung und den Betrieb zuverlässiger, sicherer, effizienter, kostengünstiger und nachhaltiger Systeme zu erlernen. Mit dem AWS-Well-Architected-Tool, das kostenlos in der AWS-Managementkonsole verfügbar ist, können Sie Ihre Workloads anhand dieser bewährten Methoden überprüfen, indem Sie eine Reihe von Fragen für jede Säule beantworten.

Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.

  • Amazon CloudWatch führt Protokolle der im Textverarbeitungs-Workflow ausgeführten Vorgänge und ermöglicht so eine effiziente Überwachung des Anwendungsstatus. Amazon CloudFormation ermöglicht die Reproduzierbarkeit der Bereitstellung und kann auch auf einen stabilen Zustand zurückgesetzt werden, falls die Bereitstellung fehlschlägt. Darüber hinaus ist Amazon Bedrock ein verwalteter Service zur Verwendung von LLMs über eine einfache Benutzeroberfläche. Diese Kombination aus Überwachung, reproduzierbaren Bereitstellungen und der Nutzung von AWS-verwalteten LLMs bietet leistungsstarke Funktionen zur Verarbeitung natürlicher Sprache, ohne dass die zugrunde liegende Infrastruktur verwaltet werden muss.

    Whitepaper zur operativen Exzellenz lesen 
  • Die in Amazon S3 gespeicherten Daten werden im Ruhezustand mithilfe von AWS Key Management Service (AWS KMS)-Schlüsseln verschlüsselt, und AWS Identity and Access Management (IAM) wird verwendet, um den Zugriff auf die Daten zu kontrollieren. Insbesondere hilft AWS KMS bei der Erstellung und Verwaltung der Verschlüsselungsschlüssel, die zur sicheren Verschlüsselung der in Amazon S3 gespeicherten Daten verwendet werden. IAM hingegen bietet die Möglichkeit, granulare Berechtigungen auf der Grundlage von Rollen für die Zugriffskontrolle mit den geringsten Berechtigungen auf diese Daten zu konfigurieren.

    Whitepaper zur Sicherheit lesen 
  • Die Daten werden in Amazon S3 gespeichert, einem Objektspeicher-Service, der eine Beständigkeit von 99,999999999 % (11 Neunen) bietet. Die LLMs werden mit Amazon Bedrock über eine einfache und effiziente API-Schnittstelle aufgerufen, die automatisch nach oben und unten skaliert werden kann. Athena, QuickSight und AWS Glue werden verwendet, um die Daten in großem Maßstab abzufragen und zu visualisieren, ohne dass eine Infrastruktur bereitgestellt werden muss.

    Whitepaper zur Zuverlässigkeit lesen 
  • Durch den Einsatz verschiedener Serverless- und verwalteter AWS-Services ist diese Empfehlung für Ihre Workloads so konzipiert, dass eine hohe Leistungseffizienz erreicht wird, die Ressourcen automatisch skaliert werden, um den Anforderungen der Workloads gerecht zu werden, und Ihnen ein nahtloses Erlebnis für den Zugriff auf Einblicke aus Ihren Plattformen von sozialen Medien geboten wird. Lambda, ein Serverless-Compute-Service, skaliert zum Beispiel automatisch hoch und runter, je nach Bedarf, und stellt sicher, dass die Rechenkapazität für den Workload optimiert ist. Mit Amazon Bedrock können Sie LLMs aus einem umfangreichen Katalog aufrufen, ohne die zugrunde liegenden Server bereitstellen und verwalten zu müssen.

    Whitepaper zur Leistung und Effizienz lesen 
  • Lambda wird in dieser Architektur verwendet, um Ereignisse zu verarbeiten und die Batch-Transformationsanalyse einzuleiten, sodass kein kontinuierlich laufender Server erforderlich ist. Darüber hinaus werden AWS-Glue-Aufträge verwendet, um Stapel von Benutzerdaten und nicht einzelne Datensätze zu extrahieren, zu transformieren, zu laden (ETL). Durch die Aggregation der Daten und die Verarbeitung in größeren Blöcken werden die gesamten Rechen- und Speicheranforderungen reduziert, was im Vergleich zur Einzelbehandlung jedes Datensatzes zu niedrigeren Kosten führt. Schließlich ermöglicht Amazon Bedrock die Verwendung des LLN, das Ihren Budgetanforderungen am besten entspricht, sodass Ihnen keine unnötigen Ausgaben im Zusammenhang mit leistungsfähigeren, aber möglicherweise überschüssigen Modellen entstehen.

    Whitepaper zur Kostenoptimierung lesen 
  • Lambda, AWS Glue, Athena und QuickSight sind allesamt Serverless-Services, die auf Abruf betrieben werden und ihre Ressourcennutzung an den aktuellen Workload anpassen. Dies trägt dazu bei, dass die Leistung und Nutzung der Ressourcen maximiert werden, da die Dienste automatisch hoch- und herunterskaliert werden, um der erforderlichen Nachfrage gerecht zu werden. Durch die Verwendung dieser Serverless-Angebote kann diese Architektur die erforderlichen Ressourcen effizient nutzen und so eine Über- oder Unterauslastung von Rechen-, Speicher- und anderen Infrastrukturkomponenten vermeiden.

    Whitepaper zur Nachhaltigkeit lesen 
AWS Machine Learning
Blog

Ein nachrichtenbasiertes Echtzeit-Warnsystem mit Twitter, Amazon SageMaker und Hugging Face entwickeln

Dieser Beitrag zeigt, wie ein Echtzeit-Warnsystem entwickelt wird, das Nachrichten von Twitter verarbeitet und die Tweets mithilfe eines vorab trainierten Modells des Hugging Face Hub klassifiziert. 

Haftungsausschluss

Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.

War diese Seite hilfreich?