Überspringen zum Hauptinhalt

AWS-Lösungsportfolio

Leitfaden für Einblicke in soziale Medien in AWS

Übersicht

Diese Anleitung zeigt, wie Sie anhand von Beiträgen in sozialen Medien, Kundenrezensionen oder anderen Kurzforminhalten Einblicke wie Stimmungen, Unternehmen, Standorte und Themen gewinnen können. Mit dem beiliegenden Beispielcode erhalten Sie eine Codebasis, die als Informationsextraktionssystem dient. Dieses System extrahiert mithilfe eines großen Sprachmodells (LLM) Informationen aus verschiedenen Plattformen von sozialen Medien, darunter X, Facebook und Instagram, und bietet Ihnen so umsetzbare Einblicke in Ihre Produkte und Dienstleistungen.

Funktionsweise

Diese Anleitung hilft Ihnen dabei, einen Einblick in das zu erhalten, was Ihre Kunden auf Social-Media-Websites wie X, Facebook und Instagram über Ihre Produkte und Dienstleistungen sagen. Anstatt Beiträge manuell herauszufiltern, können Sie ein Warnsystem einrichten, das Daten aus sozialen Medien verarbeitet und mithilfe eines großen Sprachmodells (LLM) in Amazon Bedrock Erkenntnisse wie Themen, Entitäten, Stimmung und Standort extrahiert.

Mit Zuversicht bereitstellen

Bereit zum Bereitstellen? Sehen Sie sich den Beispielcode in GitHub an, um detaillierte Bereitstellungsanweisungen zu erhalten, mit denen Sie den Code unverändert bereitstellen oder an Ihre Anforderungen anpassen können.

Zum Beispielcode

Well-Architected-Säulen

Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.

Amazon CloudWatch führt Protokolle der im Textverarbeitungs-Workflow ausgeführten Vorgänge und ermöglicht so eine effiziente Überwachung des Anwendungsstatus. Amazon CloudFormation ermöglicht die Reproduzierbarkeit der Bereitstellung und kann auch auf einen stabilen Zustand zurückgesetzt werden, falls die Bereitstellung fehlschlägt. Darüber hinaus ist Amazon Bedrock ein verwalteter Dienst zur Verwendung von LLMs über eine einfache Oberfläche. Diese Kombination aus Überwachung, reproduzierbaren Bereitstellungen und der Nutzung von AWS-verwalteten LLMs bietet leistungsstarke Funktionen zur Verarbeitung natürlicher Sprache, ohne dass die zugrunde liegende Infrastruktur verwaltet werden muss.

Whitepaper zur betrieblichen Exzellenz lesen

Die in Amazon S3 gespeicherten Daten werden im Ruhezustand mithilfe von AWS Key Management Service (AWS KMS) -Schlüsseln verschlüsselt, und AWS Identity and Access Management (IAM) wird verwendet, um den Zugriff auf die Daten zu kontrollieren. Insbesondere hilft AWS KMS bei der Erstellung und Verwaltung der Verschlüsselungsschlüssel, die zur sicheren Verschlüsselung der in Amazon S3 gespeicherten Daten verwendet werden. IAM hingegen bietet die Möglichkeit, granulare Berechtigungen auf der Grundlage von Rollen für die Zugriffskontrolle mit den geringsten Rechten auf diese Daten zu konfigurieren.

Whitepaper zur Sicherheit lesen

Die Daten werden in Amazon S3 gespeichert, einem Objektspeicherdienst, der eine Haltbarkeit von 99,999999999% (11 Neunen) bietet. Die LLMs werden mit Amazon Bedrock über eine einfache und effiziente API-Schnittstelle aufgerufen, die automatisch nach oben und unten skaliert werden kann. Athena, QuickSight und AWS Glue werden verwendet, um die Daten in großem Maßstab abzufragen und zu visualisieren, ohne dass eine Infrastruktur bereitgestellt werden muss.

Whitepaper zur Zuverlässigkeit lesen

Durch den Einsatz verschiedener Serverless- und verwalteter AWS-Services ist diese Empfehlung für Ihre Workloads so konzipiert, dass eine hohe Leistungseffizienz erreicht wird, die Ressourcen automatisch skaliert werden, um den Anforderungen der Workloads gerecht zu werden, und Ihnen ein nahtloses Erlebnis für den Zugriff auf Einblicke aus Ihren Plattformen von sozialen Medien geboten wird. Lambda , ein serverloser Rechendienst, skaliert beispielsweise je nach Bedarf automatisch hoch- und herunterskaliert und stellt so sicher, dass die Rechenkapazität für die jeweilige Arbeitslast optimiert ist. Mit Amazon Bedrock können Sie LLMs aus einem umfangreichen Katalog aufrufen, ohne die zugrunde liegenden Server bereitstellen und verwalten zu müssen.

Whitepaper zur Leistung und Effizienz lesen

Lambda wird in dieser Architektur verwendet, um Ereignisse zu verarbeiten und die Batch-Transformationsanalyse einzuleiten, sodass kein kontinuierlich laufender Server erforderlich ist. Darüber hinaus werden AWS Glue-Jobs verwendet, um Stapel von Benutzerdaten und nicht einzelne Datensätze zu extrahieren, zu transformieren, zu laden (ETL). Durch die Aggregation der Daten und die Verarbeitung in größeren Blöcken werden die gesamten Rechen- und Speicheranforderungen reduziert, was im Vergleich zur Einzelbehandlung jedes Datensatzes zu niedrigeren Kosten führt. Schließlich ermöglicht Amazon Bedrock die Verwendung des LLN, das Ihren Budgetanforderungen am besten entspricht, sodass Ihnen keine unnötigen Ausgaben im Zusammenhang mit leistungsfähigeren, aber möglicherweise zu viel bereitgestellten Modellen entstehen.

Whitepaper zur Kostenoptimierung lesen

Lambda , AWS Glue , Athena und QuickSight sind allesamt serverlose Services, die auf Abruf betrieben werden und ihre Ressourcennutzung an die aktuelle Arbeitslast anpassen. Dies trägt dazu bei, dass die Leistung und Nutzung der Ressourcen maximiert werden, da die Dienste automatisch hoch- und herunterskaliert werden, um der erforderlichen Nachfrage gerecht zu werden. Durch die Verwendung dieser Serverless-Angebote kann diese Architektur die erforderlichen Ressourcen effizient nutzen und so eine Über- oder Unterauslastung von Rechen-, Speicher- und anderen Infrastrukturkomponenten vermeiden.

Whitepaper zur Nachhaltigkeit lesen

Ähnliche Inhalte

AWS-Blog zum maschinellen Lernen

Ein nachrichtenbasiertes Echtzeit-Warnsystem mit Twitter, Amazon SageMaker und Hugging Face entwickeln

Dieser Beitrag zeigt, wie ein Echtzeit-Warnsystem entwickelt wird, das Nachrichten von Twitter verarbeitet und die Tweets mithilfe eines vorab trainierten Modells des Hugging Face Hub klassifiziert.

Haftungsausschluss

Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.