[SEO 副标题]
本指引将展示如何在人工智能(AI)的支持下实施自动化机器学习(ML)管道以获得实时玩家洞察,以使工作室能够更好地了解玩家行为并改善整体游戏体验。游戏工作室可以利用这一低代码解决方案快速构建、训练和部署高质量模型,以使用他们自己的游戏数据预测玩家的行为。操作员只需将玩家数据上传到 Amazon Simple Storage Service(Amazon S3),这项服务会调用一个端到端工作流以提取洞察、选择算法、调整超参数、评估模型以及将性能最佳的模型部署到预测 API。这一自动化过程无需手动执行机器学习任务,同时提供了实时预测,可以为工作室提供有关个别玩家留存率、参与度和购买行为的宝贵洞察,从而为能够改善游戏玩法的数据驱动型决策提供信息。
请注意:[免责声明]
架构图
[架构图描述]
第 1 步
用户从游戏中捕获玩家事件数据。
第 2 步
将表格式玩家数据上传到 Amazon Simple Storage Service(Amazon S3)存储桶。
第 3 步
表格式数据上传事件调用 Amazon SageMaker 管道。
第 4 步
“预处理”步骤运行一个 SageMaker 处理作业,以便将 CSV 数据拆分成训练数据集和验证数据集。
第 5 步
“自动机器学习”(AutoML)步骤创建一个 SageMaker AutoML 作业,以自动训练机器学习(ML)模型。
第 6 步
将经过训练的模型构件存储在一个 Amazon S3 存储桶中。
第 7 步
“评估”步骤运行一个 SageMaker 处理作业,以便将经过训练的机器学习模型的性能与验证数据集的性能进行比较。
第 8 步
将经过训练的模型存储在 SageMaker 模型注册表中。
第 9 步
部署已注册的机器学习模型,以用于生产用途。
第 10 步
使用 SageMaker 将已注册的机器学习模型作为一个模型端点托管。
第 11 步
游戏客户端向托管的模型发出推理请求,以获得玩家洞察并预测游戏内的玩家行为。
Well-Architected 支柱
当您在云中构建系统时,AWS Well-Architected Framework 可以帮助您了解所做决策的利弊。框架的六大支柱使您能够学习设计和操作可靠、安全、高效、经济高效且可持续的系统的架构最佳实践。使用 AWS 管理控制台中免费提供的 AWS Well-Architected Tool,您可以通过回答每个支柱的一组问题,根据这些最佳实践来检查您的工作负载。
上面的架构图是按照 Well-Architected 最佳实践创建的解决方案示例。要做到完全的良好架构,您应该遵循尽可能多的 Well-Architected 最佳实践。
-
卓越运营
本指引采用 AWS X-Ray 和 SageMaker Autopilot 实现可观测性和模型试验跟踪。 X-Ray 跟踪 AWS Lambda 函数并记录与其他 AWS 服务进行的交互,使您能够将组件可视化以识别瓶颈和排查错误。SageMaker Autopilot 记录模型训练运行情况和候选模型的性能。您可以查看评估指标和图表,以了解如何根据数据选择最佳模型。将这些功能结合使用时,可以清晰地了解系统和机器学习模型在一段时间内的性能,以便于快速诊断问题并做出明智的模型和架构优化决策,这对于经济高效的运营至关重要。
-
安全性
将 Amazon S3 与 AWS Key Management Service(AWS KMS)结合使用时,可确保对静态数据进行加密。具体而言,使用来自 AWS KMS 的密钥,对所有机器学习训练数据和经过训练的机器学习模型进行加密。SageMaker 端点对传输中的所有通信进行加密。将这些功能相结合时,玩家信息等敏感数据以及机器学习模型可实现安全的存储和通信。
-
可靠性
SageMaker 托管的端点会自动将托管的模型分配到多个 AWS 可用区(AZ)。这样,机器学习模型推理请求就可以承受可用区故障。在机器学习模型的多个副本之间,SageMaker 托管的端点有效地对来自游戏客户端和服务器的推理请求进行负载均衡。通过将请求分散到多个可用区,本指引可确保持续的服务正常运行时间和一致的实时玩家预测。
-
性能效率
本指引利用 SageMaker 优化性能效率,SageMaker 管理弹性机器学习实例集,可根据需求纵向扩展和缩减。与单个实例相比,通过在动态数量的模型之间对请求进行负载均衡,可以显著减小推理延迟。对推理进行并行处理以提高吞吐量,而不是让单个模型不堪重负并导致排队延迟。低延迟、可扩展的容量可确保实时预测,这样,即使在高负载情况下也能即时为游戏调整提供信息,而不会出现性能下降情况并对玩家体验产生负面影响。
-
成本优化
使用无服务器、可扩展的推理,本指引以经济高效的方式提供玩家预测。具体而言,SageMaker 会自动纵向扩展和缩减推理资源,以满足实时请求需求。无服务器托管意味着,您只需为每个推理请求的持续时间付费。机器学习模型可以互换使用,以实现实时的无服务器托管。这样,您就可以在模式之间切换,以充分满足当前的规模和成本需求。玩家活动不稳定的游戏可以在高峰时依靠大规模推理,并在低谷时收回成本。这一优化可显著节省未使用的实例,同时仍能帮助获得核心玩家洞察。
-
可持续性
通过消除资源闲置时间和适当调整存储规模,本指引最大限度地减少了您的碳足迹,以推动可持续发展。首先,通过使用 SageMaker 无服务器技术执行数据处理和机器学习训练作业,可以减少任何空闲的计算资源。此外,Amazon S3 实施生命周期策略,以便将不经常访问的训练数据存档到节能的存储层中。您可以根据访问模式选择适当的 Amazon S3 存储类,以减少碳排放影响。AutoML 无服务器架构还限制了基础设施维护和不必要的预置。将这些功能相结合时,可以最大限度地减少计算和存储方面的资源浪费,以减少能源需求和对环境的影响。
相关内容
免责声明
示例代码;软件库;命令行工具;概念验证;模板;或其他相关技术(包括由我方人员提供的任何前述项)作为 AWS 内容按照《AWS 客户协议》或您与 AWS 之间的相关书面协议(以适用者为准)向您提供。您不应将这些 AWS 内容用在您的生产账户中,或用于生产或其他关键数据。您负责根据特定质量控制规程和标准测试、保护和优化 AWS 内容,例如示例代码,以使其适合生产级应用。部署 AWS 内容可能会因创建或使用 AWS 可收费资源(例如,运行 Amazon EC2 实例或使用 Amazon S3 存储)而产生 AWS 费用。
本指南中提及第三方服务或组织并不意味着 Amazon 或 AWS 与第三方之间存在认可、赞助或从属关系。AWS 的指导是一个技术起点,您可以在部署架构时自定义与第三方服务的集成。