[Subtítulo SEO]
Importante: Esta guía requiere el uso de AWS CodeCommit, que ya no está disponible para los nuevos clientes. Los clientes actuales de AWS CodeCommit pueden seguir usando e implementando esta guía con normalidad.
Esta guía ayuda a los desarrolladores de juegos a implementar un canal de análisis codificado, modular y sin servidor que incorpore los eventos de telemetría de los clientes del juego y los servicios de backend. La guía aborda los casos de uso de análisis casi en tiempo real y análisis por lotes. Con AWS Cloud Development Kit (AWS CDK), puede integrar e implementar continuamente la canalización en varias cuentas y regiones de AWS. Además, los servicios sin servidor de esta guía ofrecen un enfoque rentable para el desarrollo de juegos. Tras implementar esta plantilla de orientación, estará listo para recopilar y consultar los datos de los jugadores, recopilar información y mejorar tu juego.
Tenga en cuenta: [Descargo de responsabilidad]
Diagrama de la arquitectura
-
Arquitectura
-
CI/CD de DataOps
-
Arquitectura
-
Este diagrama de arquitectura muestra una descripción general de una canalización de DataOps modernizada. Para la canalización de integración continua e implementación continua (CI/CD) de DataOps, abra la otra pestaña.
Paso 1
Envíe eventos de telemetría de juegos a la nube de AWS desde los productores de datos.Paso 2
Capture datos de streaming del juego con Amazon Kinesis Data Streams y procese los datos casi en tiempo real con Amazon Kinesis Data Firehose y Amazon Managed Service para Apache Flink.Paso 3
Proporcione puntos de conexión API de REST con Amazon API Gateway para registrar a los productores de datos. Almacene las configuraciones de juegos y las claves de acceso a la API en Amazon DynamoDB.Paso 4
Capture datos de eventos de streaming en Amazon Managed Service para Apache Flink. Publique métricas personalizadas en Amazon CloudWatch.Paso 5
Cree paneles operativos y alarmas a partir de métricas personalizadas en CloudWatch.Paso 6
Envíe notificaciones de alarmas críticas a los consumidores de datos con Amazon Simple Notification Service (Amazon SNS).Paso 7
Procese datos de telemetría por lotes con Kinesis Data Firehose.Paso 8
Almacene datos de telemetría sin procesar y procesados en Amazon Simple Storage Service (Amazon S3).Paso 9
Extraiga, transforme y cargue (ETL) los datos de telemetría almacenados para analizarlos con AWS Glue.Paso 10
Consulte y analice de forma interactiva los datos preparados con Amazon Athena.Paso 11
Visualice los datos de inteligencia empresarial (BI) con Amazon QuickSight.Paso 12
Implemente y ponga en funcionamiento la aplicación codificada mediante una canalización de integración y despliegue continuos (CI/CD).Paso 13
Proporcione a LiveOps capacidades de BI, visualizaciones de datos y machine learning (ML) a partir de datos de telemetría de juegos para generar información empresarial clave. -
CI/CD de DataOps
-
Este diagrama de arquitectura muestra una canalización de CI/CD de DataOps. Para obtener una descripción general de la canalización de DataOps modernizada, abra la otra pestaña.
Paso 1
Cree y pruebe la infraestructura codificada con el AWS Cloud Development Kit (AWS CDK) para sintetizar una plantilla de AWS CloudFormation.Paso 2
Inicie la canalización de CI/CD cuando los cambios en el código de la infraestructura se confirmen en el repositorio de AWS CodeCommit.Paso 3
Almacene los activos de infraestructura compilados, como un contenedor Docker y plantillas de CloudFormation, en Amazon Elastic Container Registry (Amazon ECR) y Amazon S3.Paso 4
Implemente la infraestructura para la integración y las pruebas del sistema en la cuenta de AWS de garantía de calidad (QA) mediante CloudFormation Stack.Paso 5
Ejecute scripts de prueba automatizados para verificar que la infraestructura implementada funcione dentro de un proyecto de AWS CodeBuild.Paso 6
Implemente la infraestructura probada en la cuenta de AWS de producción (PROD) mediante el CloudFormation Stack.
Introducción
Pilares de AWS Well-Architected Framework
AWS Well-Architected Framework le permite comprender las ventajas y desventajas de las decisiones que tome durante la creación de sistemas en la nube. Los seis pilares de este marco permiten aprender las prácticas recomendadas arquitectónicas para diseñar y explotar sistemas confiables, seguros, eficientes, rentables y sostenibles. Con la Herramienta de AWS Well-Architected, que se encuentra disponible gratuitamente en la Consola de administración de AWS, puede revisar sus cargas de trabajo con respecto a estas prácticas recomendadas al responder a un conjunto de preguntas para cada pilar.
El diagrama de arquitectura mencionado es un ejemplo de una solución que se creó teniendo en cuenta las prácticas recomendadas de una buena arquitectura. Para tener completamente una buena arquitectura, debe seguir todas las prácticas recomendadas de buena arquitectura posibles.
-
Excelencia operativa
Las herramientas para desarrolladores de AWS, específicamente CodeBuild, CodeCommit y AWS CodePipeline, permiten la CI/CD de toda la arquitectura como una aplicación codificada. Esto significa que todas las operaciones se pueden realizar mediante cambios en el código. Además, la canalización de CI/CD realiza pruebas automatizadas del sistema de estos cambios, dentro de la etapa de control de calidad, para ayudar a garantizar que cualquier posible falla se pueda comprobar previamente antes de implementarla en producción. El registro operativo de cada componente arquitectónico se entrega a CloudWatch junto con notificaciones de SNS para alertar a los administradores de cualquier problema operativo y de implementación.
Estas herramientas se han seleccionado no solo para permitir a los operadores conocer la arquitectura, sino también para proporcionar un control granular sobre la implementación inicial de la Guía, además de los cambios posteriores. Esto significa que los operadores pueden supervisar los cambios, confirmar que están listos para la producción y anular cualquier cambio que afecte a la producción, sin afectar a sus usuarios.
-
Seguridad
Cada proveedor de telemetría (productor de datos) recibe una clave de autenticación (almacenada en DynamoDB) para acceder a los datos de telemetría y enviarlos a la puerta de enlace API, lo que significa que solo los productores de datos autorizados reciben claves de acceso. Proporcionar una fuente única para almacenar las claves de autenticación le permite confiar en el mismo proceso de autenticación para administrar la API y los recursos de AWS implementados por la Guía. Las aplicaciones de backend pueden interactuar de forma segura con la API Guidance mediante credenciales temporales de AWS.
Además, todos los eventos de telemetría enviados a través de la puerta de enlace de API se cifran en tránsito y los datos de eventos de telemetría que finalmente se almacenan en Amazon S3 se cifran en reposo.
-
Fiabilidad
Esta Guía proporciona dos niveles de resiliencia: a nivel regional y global. Todos los componentes regionales de la arquitectura utilizan las capacidades sin servidor de AWS. Las capacidades sin servidor ayudan a garantizar que cada servicio siga proporcionando la funcionalidad requerida en varias zonas de disponibilidad (AZ), siempre que no se produzca ningún error regional. Si se produce un error regional, puede volver a implementar la Guía en otra región de AWS o incluso en otra cuenta de AWS.
-
Eficiencia en el rendimiento
Los componentes sin servidor, como la puerta de enlace API, contribuyen a que esta guía sea lo suficientemente elástica y escalable para cumplir con los requisitos de rendimiento de los proveedores de telemetría. Además, Amazon Kinesis ofrece un rendimiento casi en tiempo real para el análisis de streaming. Además, la implementación de la Guía como una aplicación codificada permite que los usuarios experimenten gracias a la capacidad de agregar automáticamente etapas de desarrollo, prueba y control de calidad.
-
Optimización de costos
AWS Glue permite el rastreo automático del esquema de datos, lo que compensa la laboriosa práctica de estructurar el esquema correcto para el análisis. Además, estructurar la Guía como una aplicación codificada le permite hacer coincidir los módulos correctos con diversos casos de uso, lo que ayuda a optimizar los costos.
-
Sostenibilidad
Tanto Amazon S3 como AWS Glue admiten un patrón de ingesta de datos sin servidor y basado en eventos. AWS Glue Jobs traspasa la responsabilidad de gestión y optimización de la infraestructura a AWS. Amazon S3 implementa políticas de ciclo de vida de los datos y un formateo y compresión de archivos eficientes, ya que todos los datos ingeridos se almacenan en formato Parquet. Dado que los datos se transforman y almacenan en un formato Parquet comprimido, se reducen los escaneos de datos por consulta, lo que significa que necesitará menos recursos informáticos para la carga de trabajo de la Guía.
Contenido relacionado
Notorious Studios crea un canal de análisis de juegos escalable para la investigación de jugadores en AWS
Descargo de responsabilidad
El código de muestra; las bibliotecas de software; las herramientas de línea de comandos; las pruebas de concepto; las plantillas; o cualquier otra tecnología relacionada (incluida cualquiera de las anteriores que proporcione nuestro personal) se brinda como contenido de AWS bajo el Contrato de cliente de AWS, o el contrato escrito pertinente entre usted y AWS (lo que sea aplicable). No debe utilizar este contenido de AWS en sus cuentas de producción, ni en producción ni en otros datos críticos. Es responsable de probar, proteger y optimizar el contenido de AWS, como el código de muestra, según corresponda para el uso de grado de producción en función de sus prácticas y estándares de control de calidad específicos. La implementación de contenido de AWS puede incurrir en cargos de AWS por crear o utilizar recursos con cargo de AWS, como ejecutar instancias de Amazon EC2 o utilizar el almacenamiento de Amazon S3.
Las referencias a servicios u organizaciones de terceros en esta Guía no implican un respaldo, patrocinio o afiliación entre Amazon o AWS y el tercero. La orientación de AWS es un punto de partida técnico, y puede personalizar su integración con servicios de terceros al implementar la arquitectura.