[SEO-Zwischenüberschrift]
Wichtig: Dieser Leitfaden erfordert die Verwendung von AWS CodeCommit, das für Neukunden nicht mehr verfügbar ist. Bestehende Kunden von AWS CodeCommit können diesen Leitfaden weiterhin wie gewohnt verwenden und anwenden.
Diese Anleitung hilft Spieleentwicklern bei der Implementierung einer kodifizierten, modularen und Serverless-Analysepipeline, die Telemetrieereignisse von Spielclients und Backend-Services aufnimmt. Der Leitfaden befasst sich sowohl mit Anwendungsfällen für Analytik nahezu in Echtzeit als auch mit Batch-Analytik. Mit dem AWS Cloud Development Kit (AWS CDK) können Sie die Pipeline kontinuierlich über mehrere AWS-Konten und -Regionen hinweg integrieren und bereitstellen. Darüber hinaus bieten die Serverless-Services in diesem Leitfaden einen kosteneffizienten Ansatz für die Spieleentwicklung. Nachdem Sie diese Leitfaden-Vorlage bereitgestellt haben, sind Sie bereit, Spielerdaten zu sammeln und abzufragen, Erkenntnisse zu sammeln und Ihr Spiel zu verbessern.
Bitte beachten Sie: [Disclaimer]
Architekturdiagramm
-
Architektur
-
DataOps-CI/CD
-
Architektur
-
Dieses Architekturdiagramm zeigt einen Überblick über eine modernisierte DataOps-Pipeline. Öffnen Sie für die DataOps-Pipeline für kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) die andere Registerkarte.
Schritt 1
Senden Sie Spieltelemetrie-Ereignisse von Datenproduzenten an die AWS Cloud.Schritt 2
Erfassen Sie Streaming-Daten aus dem Spiel mit Amazon Kinesis Data Streams und verarbeiten Sie Daten nahezu in Echtzeit mit Amazon Kinesis Data Firehose und Amazon Managed Service für Apache Flink.Schritt 3
Stellen Sie REST-API-Endpunkte mit Amazon API Gateway bereit, um Datenproduzenten zu registrieren. Speichern Sie Spielkonfigurationen und API-Zugriffsschlüssel in Amazon DynamoDB.Schritt 4
Erfassen Sie Streaming-Ereignisdaten in Amazon Managed Service für Apache Flink. Veröffentlichen Sie benutzerdefinierte Metriken in Amazon CloudWatch.Schritt 5
Erstellen Sie operative Dashboards und Alarme aus benutzerdefinierten Metriken in CloudWatch.Schritt 6
Senden Sie wichtige Alarmbenachrichtigungen an Datenverbraucher mit Amazon Simple Notification Service (Amazon SNS).Schritt 7
Verarbeiten Sie Batch-Telemetriedaten mit Kinesis Data Firehose.Schritt 8
Speichern Sie sowohl rohe als auch verarbeitete Telemetriedaten in Amazon Simple Storage Service (Amazon S3).Schritt 9
Extract, Transform, Load (ETL) gespeicherter Telemetriedaten zur Analyse mit AWS Glue.Schritt 10
Fragen Sie interaktiv mit Amazon Athena vorbereitete Daten ab und analysieren Sie sie.Schritt 11
Visualisieren Sie Business Intelligence (BI)-Daten mit Amazon QuickSight.Schritt 12
Stellen Sie die kodifizierte Anwendung mithilfe einer Continuous Integration and Continuous Deployment (CI/CD)-Pipeline bereit und operationalisieren Sie sie.Schritt 13
Stellen Sie LiveOps mit BI, Datenvisualisierungen und Machine Learning (ML)-Funktionen aus Spieltelemetriedaten zur Verfügung, um wichtige Geschäftseinblicke zu gewinnen. -
DataOps-CI/CD
-
Dieses Architekturdiagramm zeigt eine DataOps-CI/CD-Pipeline. Um einen Überblick über die modernisierte DataOps-Pipeline zu erhalten, öffnen Sie die andere Registerkarte.
Schritt 1
Erstellen und testen Sie die kodifizierte Infrastruktur mithilfe des AWS Cloud Development Kit (AWS CDK), um eine AWS-CloudFormation-Vorlage zu synthetisieren.Schritt 2
Initiieren Sie die CI/CD-Pipeline, wenn Änderungen am Infrastrukturcode in das AWS-CodeCommit-Repository übertragen werden.Schritt 3
Speichern Sie kompilierte Infrastrukturressourcen wie einen Docker-Container und CloudFormation-Vorlagen in Amazon Elastic Container Registry (Amazon ECR) und Amazon S3.Schritt 4
Stellen Sie mithilfe des CloudFormation-Stacks die Infrastruktur für Integrations- und Systemtests im AWS-Konto für Qualitätssicherung (QA) bereit.Schritt 5
Führen Sie automatisierte Testskripts aus, um zu überprüfen, ob die bereitgestellte Infrastruktur innerhalb eines AWS-CodeBuild-Projekts funktionsfähig ist.Schritt 6
Stellen Sie die getestete Infrastruktur mithilfe des CloudFormation-Stacks im AWS-Konto Production (PROD) bereit.
Erste Schritte
Diese Anleitung anwenden
Well-Architected-Säulen
Das AWS-Well-Architected-Framework hilft Ihnen, die Vor- und Nachteile der Entscheidungen zu verstehen, die Sie beim Aufbau von Systemen in der Cloud treffen. Die sechs Säulen des Frameworks ermöglichen es Ihnen, architektonische bewärhte Methoden für die Entwicklung und den Betrieb zuverlässiger, sicherer, effizienter, kostengünstiger und nachhaltiger Systeme zu erlernen. Mit dem AWS-Well-Architected-Tool, das kostenlos in der AWS-Managementkonsole verfügbar ist, können Sie Ihre Workloads anhand dieser bewährten Methoden überprüfen, indem Sie eine Reihe von Fragen für jede Säule beantworten.
Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.
-
Operative Exzellenz
AWS-Entwicklertools, insbesondere CodeBuild, CodeCommit und AWS CodePipeline, ermöglichen das CI/CD der gesamten Architektur als kodifizierte Anwendung. Dies bedeutet, dass alle Operationen durch Codeänderungen ausgeführt werden können. Darüber hinaus führt die CI/CD-Pipeline automatisierte Systemtests dieser Änderungen innerhalb der QA-Phase durch, um sicherzustellen, dass potenzielle Fehler vorab überprüft werden können, bevor sie in die Produktion eingeführt werden. Die Betriebsprotokollierung aller Architekturkomponenten wird zusammen mit SNS-Benachrichtigungen an CloudWatch übermittelt, um Administratoren über Bereitstellungs- und Betriebsprobleme zu informieren.
Diese Tools wurden ausgewählt, um den Anbietern nicht nur einen Einblick in die Architektur zu geben, sondern auch eine detaillierte Kontrolle über den ersten Einsatz des Guidance sowie über spätere Änderungen zu ermöglichen. Das bedeutet, dass Anbieter Änderungen überwachen können, bestätigen können, dass sie produktionsbereit sind, und alle Änderungen rückgängig machen können, die sich auf die Produktion auswirken – ohne dass dies Auswirkungen auf ihre Benutzer hat.
-
Sicherheit
Jeder Telemetrieanbieter (Datenproduzent) erhält einen Authentifizierungsschlüssel (in DynamoDB gespeichert), um auf Telemetriedaten zuzugreifen und sie an API Gateway zu senden. Das bedeutet, dass nur autorisierten Datenproduzenten Zugriffsschlüssel zur Verfügung gestellt werden. Durch die Bereitstellung einer einzigen Quelle für die Speicherung von Authentifizierungsschlüsseln können Sie sich bei der Verwaltung der von Guidance bereitgestellten API- und AWS-Ressourcen auf denselben Authentifizierungsprozess verlassen. Backend-Anwendungen können mithilfe temporärer AWS-Anmeldeinformationen sicher mit der Guidance-API interagieren.
Darüber hinaus werden alle Telemetrieereignisse, die über API Gateway gesendet werden, während der Übertragung verschlüsselt, und alle Telemetrie-Ereignisdaten, die letztendlich in Amazon S3 gespeichert werden, werden im Ruhezustand verschlüsselt.
-
Zuverlässigkeit
Dieser Leitfaden bietet zwei Ebenen der Resilienz: auf regionaler und auf globaler Ebene. Alle regionalen Komponenten der Architektur verwenden Serverless-AWS-Funktionen. Serverless-Funktionen stellen sicher, dass jeder Service weiterhin die erforderliche Funktionalität in mehreren Availability Zones (AZs) bereitstellt, sofern kein regionaler Fehler vorliegt. Sollte ein regionaler Fehler auftreten, können Sie die Guidance erneut in einer anderen AWS-Region oder sogar in einem anderen AWS-Konto bereitstellen.
-
Leistung und Effizienz
Serverless-Komponenten wie API Gateway tragen dazu bei, dass diese Leitlinien ausreichend elastisch und skalierbar sind, um die Leistungsanforderungen von Telemetrieanbietern zu erfüllen. Darüber hinaus bietet Amazon Kinesis nahezu in Echtzeit Leistung für Streaming-Analysen. Darüber hinaus ermöglicht die Implementierung der Guidance als kodifizierte Anwendung Benutzerexperimente durch die Möglichkeit, automatisch DEV-, TEST- und QA-Stufen hinzuzufügen.
-
Kostenoptimierung
AWS Glue ermöglicht das automatische Crawling von Datenschemas, wodurch die zeitaufwändige Strukturierung des richtigen Schemas für die Analyse ausgeglichen wird. Darüber hinaus können Sie durch die Strukturierung der Leitlinien als kodifizierte Anwendung die richtigen Module an unterschiedliche Anwendungsfälle anpassen, was zur Kostenreduzierung beiträgt.
-
Nachhaltigkeit
Sowohl Amazon S3 als auch AWS Glue unterstützen ein ereignisgesteuertes Serverless-Datenerfassungsmuster. AWS Glue Jobs verlagerte die Verantwortung für die Infrastrukturverwaltung und die Optimierung zu AWS. Amazon S3 implementiert Richtlinien für den Datenlebenszyklus sowie eine effiziente Dateiformatierung und -komprimierung, da alle aufgenommenen Daten im Parquet-Format gespeichert werden. Da Daten transformiert und in einem komprimierten Parquet-Format gespeichert werden, werden die Datenscans pro Abfrage reduziert, was bedeutet, dass Sie weniger Datenverarbeitungsressourcen für den Guidance-Workload benötigen.
Ähnliche Inhalte
Notorious Studios entwickelt eine skalierbare Spieleanalyse-Pipeline für Spielerforschung in AWS
Haftungsausschluss
Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.
Verweise auf Services oder Organisationen von Drittanbietern in diesen Leitlinien bedeuten nicht, dass Amazon oder AWS eine Billigung, Förderung oder Zugehörigkeit zwischen Amazon oder AWS und dem Drittanbieter darstellt. Die Beratung durch AWS ist ein technischer Ausgangspunkt, und Sie können Ihre Integration mit Services von Drittanbietern anpassen, wenn Sie die Architektur bereitstellen.