[Sous-titre SEO]
Important : afin d’appliquer les instructions décrites dans ce guide, il est nécessaire d’utiliser AWS CodeCommit, qui n’est plus disponible pour les nouveaux clients. Les clients existants d’AWS CodeCommit peuvent suivre les instructions normalement.
Ce guide aide les développeurs de jeux à mettre en œuvre un pipeline d'analyse codifié, modulaire et sans serveur qui intègre les événements de télémétrie provenant des clients des jeux et des services dorsaux. Le guide aborde à la fois les cas d'utilisation analytiques en temps quasi réel et par lots. Avec AWS Cloud Development Kit (AWS CDK), vous pouvez intégrer et déployer le pipeline en continu sur plusieurs comptes et régions AWS. De plus, les services sans serveur présentés dans ce guide offrent une approche rentable du développement de jeux. Après avoir déployé ce modèle de guide, vous serez prêt à collecter et à interroger les données des joueurs, à recueillir des informations et à améliorer votre jeu.
Veuillez noter : [Clause de non-responsabilité]
Diagramme d'architecture
-
Architecture
-
CI/CD DataOps
-
Architecture
-
Ce schéma d'architecture présente une vue d'ensemble d'un pipeline DataOps modernisé. Pour le pipeline d'intégration continue et de déploiement continu (CI/CD) DataOps, ouvrez l'autre onglet.
Étape 1
Envoyez des événements de télémétrie de jeu vers le cloud AWS depuis les producteurs de données.Étape 2
Capturez les données de streaming du jeu avec Amazon Kinesis Data Streams et traitez les données en temps quasi réel avec Amazon Kinesis Data Firehose et Service géré Amazon pour Apache Flink.Étape 3
Fournissez des points de terminaison d'API REST avec Amazon API Gateway pour enregistrer les producteurs de données. Stockez les configurations de jeu et les clés d'accès aux API dans Amazon DynamoDB.Étape 4
Capturez les données relatives aux événements de streaming dans Service géré Amazon pour Apache Flink. Publication de métriques personnalisées dans Amazon CloudWatch.Étape 5
Créez des tableaux de bord opérationnels et des alarmes à partir de métriques personnalisées dans CloudWatch.Étape 6
Envoyez des notifications d'alarme critiques aux consommateurs de données avec Amazon Simple Notification Service (Amazon SNS).Étape 7
Traitez des données de télémétrie par lots avec Kinesis Data Firehose.Étape 8
Stockez les données de télémétrie brutes et traitées dans Amazon Simple Storage Service (Amazon S3).Étape 9
Extraction, transformation et chargement (ETL) les données de télémétrie stockées à des fins d'analyse avec AWS Glue.Étape 10
Interrogez et analysez de manière interactive les données préparées avec Amazon Athena.Étape 11
Visualisez les données d'informatique décisionnelle (BI) avec Amazon QuickSight.Étape 12
Déployez et opérationnalisez l'application codifiée à l'aide d'un pipeline d'intégration et de déploiement continus (CI/CD).Étape 13
Fournissez à LiveOps des fonctionnalités de BI, de visualisation de données et de machine learning (ML) à partir des données de télémétrie des jeux afin de générer des informations commerciales clés. -
CI/CD DataOps
-
Ce schéma d'architecture montre un pipeline CI/CD DataOps. Pour obtenir un aperçu du pipeline DataOps modernisé, ouvrez l'autre onglet.
Étape 1
Créez et testez l'infrastructure codifiée à l'aide d'AWS Cloud Development Kit (AWS CDK) pour synthétiser un modèle AWS CloudFormation.Étape 2
Lancez le pipeline CI/CD lorsque les modifications du code d'infrastructure sont validées dans le référentiel AWS CodeCommit.Étape 3
Stockez les actifs d'infrastructure compilés, tels qu'un conteneur Docker et des modèles CloudFormation, dans Amazon Elastic Container Registry (Amazon ECR) et Amazon S3.Étape 4
Déployez l'infrastructure pour l'intégration et les tests du système dans le compte AWS d'assurance qualité (QA) à l'aide de la pile CloudFormation.Étape 5
Exécutez des scripts de test automatisés pour vérifier que l'infrastructure déployée est fonctionnelle au sein d'un projet AWS CodeBuild.Étape 6
Déployez l'infrastructure testée dans le compte AWS de production (PROD) à l'aide de la pile CloudFormation.
Démarrer
Piliers Well-Architected
Le cadre AWS Well-Architected vous permet de comprendre les avantages et les inconvénients des décisions que vous prenez lors de la création de systèmes dans le cloud. Les six piliers du cadre vous permettent d'apprendre les bonnes pratiques architecturales pour concevoir et exploiter des systèmes fiables, sécurisés, efficaces, rentables et durables. Grâce à l'outil AWS Well-Architected Tool, disponible gratuitement dans la console de gestion AWS, vous pouvez examiner vos charges de travail par rapport à ces bonnes pratiques en répondant à une série de questions pour chaque pilier.
Le diagramme d'architecture ci-dessus est un exemple de solution créée en tenant compte des bonnes pratiques Well-Architected. Pour être totalement conforme à Well-Architected, vous devez suivre autant de bonnes pratiques Well-Architected que possible.
-
Excellence opérationnelle
Les outils de développement AWS, en particulier CodeBuild, CodeCommit et AWS CodePipeline, permettent le CI/CD de l'architecture en tant qu'application codifiée. Cela signifie que toutes les opérations peuvent être effectuées par le biais de modifications de code. En outre, le pipeline CI/CD effectue des tests système automatisés de ces modifications, au cours de la phase d'assurance qualité, afin de garantir que toute défaillance potentielle peut être prévérifiée avant d'être déployée en production. La journalisation opérationnelle de chaque composant architectural est transmise à CloudWatch avec des notifications SNS pour avertir les administrateurs de tout problème de déploiement et d'exploitation.
Ces outils ont été sélectionnés non seulement pour permettre aux opérateurs d'avoir un aperçu de l'architecture, mais également pour fournir un contrôle granulaire sur le déploiement initial du Guide, ainsi que sur les modifications ultérieures. Cela signifie que les opérateurs peuvent surveiller les modifications, confirmer qu'elles sont prêtes pour la production et annuler toute modification ayant un impact sur la production, sans affecter leurs utilisateurs.
-
Sécurité
Chaque fournisseur de télémétrie (producteur de données) reçoit une clé d'authentification (stockée dans DynamoDB) pour accéder aux données de télémétrie et les envoyer à API Gateway, ce qui signifie que seuls les producteurs de données autorisés reçoivent des clés d'accès. La fourniture d'une source unique pour le stockage des clés d'authentification vous permet de vous appuyer sur le même processus d'authentification pour gérer l'API et les ressources AWS déployées par le Guide. Les applications dorsales peuvent interagir en toute sécurité avec l'API Guidance à l'aide d'informations d'identification AWS temporaires.
En outre, tous les événements de télémétrie envoyés via API Gateway sont chiffrés en transit, et toutes les données d'événements de télémétrie qui sont finalement stockées dans Amazon S3 sont chiffrées au repos.
-
Fiabilité
Ce guide fournit deux niveaux de résilience : au niveau régional et au niveau mondial. Tous les composants régionaux de l'architecture utilisent les fonctionnalités sans serveur d'AWS. Les fonctionnalités sans serveur permettent de garantir que chaque service continue de fournir les fonctionnalités requises dans plusieurs zones de disponibilité (AZ), à condition qu'il n'y ait aucune défaillance régionale. En cas de défaillance régionale, vous pouvez redéployer le guide dans une autre région AWS ou même dans un autre compte AWS.
-
Efficacité des performances
Les composants sans serveur, tels que API Gateway, contribuent à ce guide à être suffisamment élastique et évolutif pour répondre aux exigences de performance des fournisseurs de télémétrie. De plus, Amazon Kinesis fournit des performances en temps quasi réel pour les analyses de streaming. De plus, la mise en œuvre du Guide en tant qu'application codifiée permet aux utilisateurs d'expérimenter grâce à la possibilité d'ajouter automatiquement des étapes DEV, TEST et QA.
-
Optimisation des coûts
AWS Glue permet l'indexation automatique de site web, ce qui évite de devoir structurer le schéma approprié pour l'analyse, qui prend beaucoup de temps. En outre, la structuration du Guide sous la forme d'une application codifiée vous permet de faire correspondre les bons modules à divers cas d'utilisation, ce qui contribue à rationaliser les coûts.
-
Développement durable
Amazon S3 et AWS Glue prennent tous deux en charge un modèle d'ingestion de données sans serveur et piloté par les événements. AWS Glue Jobs a délégué à AWS la responsabilité de gestion et d'optimisation de l'infrastructure. Amazon S3 met en œuvre des politiques de cycle de vie des données ainsi qu'un formatage et une compression efficaces des fichiers, car toutes les données ingérées sont stockées au format Parquet. Les données étant transformées et stockées dans un format Parquet compressé, les analyses de données par requête sont réduites, ce qui signifie que vous aurez besoin de moins de ressources informatiques pour la charge de travail de Guidance.
Contenu connexe
Notorious Studios développe un pipeline évolutif analytique des jeux pour la recherche sur les joueurs sur AWS
Avis de non-responsabilité
Les exemples de code, les bibliothèques de logiciels, les outils de ligne de commande, les preuves de concept, les modèles ou toute autre technologie connexe (y compris tout ce qui précède qui est fourni par notre personnel) vous sont fournis en tant que contenu AWS en vertu du contrat client AWS ou de l'accord écrit pertinent entre vous et AWS (selon le cas). Vous ne devez pas utiliser ce contenu AWS dans vos comptes de production, ni sur des données de production ou autres données critiques. Vous êtes responsable des tests, de la sécurisation et de l'optimisation du contenu AWS, tel que les exemples de code, comme il convient pour une utilisation en production, en fonction de vos pratiques et normes de contrôle de qualité spécifiques. Le déploiement de contenu AWS peut entraîner des frais AWS pour la création ou l'utilisation de ressources payantes AWS, telles que l'exécution d'instances Amazon EC2 ou l'utilisation du stockage Amazon S3.
Les références à des services ou organisations tiers dans ce guide n'impliquent pas une approbation, un parrainage ou une affiliation entre Amazon ou AWS et le tiers. Les conseils fournis par AWS constituent un point de départ technique, et vous pouvez personnaliser votre intégration avec des services tiers lorsque vous déployez l'architecture.