AWS 기술 블로그
AWS 데이터 분석 서비스 기반 게임 레벨링 환경 구성 사례
개요
기존의 문제 상황
소규모 인디게임 개발사는 작은 규모와 한정된 자원에도 불구하고 창의성과 혁신성을 발휘하며 새로운 게임 경험을 선사합니다. 하지만 이러한 장점에도 불구하고, 게임 개발 과정에서 적지 않은 과제에 직면하곤 합니다. 특히 게임 출시 전 완성도를 높이기 위한 테스팅과 난이도 조정 작업은 매우 중요하지만, 인력이 부족한 인디 게임 스튜디오에서는 이러한 작업을 충분히 수행하기 어려운 상황입니다.
인다이렉트샤인 소개
인다이렉트샤인은 로그라이크 덱 빌딩 카드 게임 「HARMA」의 출시를 앞두고 있는 소규모 인디게임 개발사입니다. HARMA는 도쿄 게임쇼, 플레이엑스포, 버닝비버 등 국내외의 다양한 게임 전시회의 전시작으로 선정된 바 있습니다.
인다이렉트샤인의 고민
HARMA의 핵심은 반복 플레이를 통한 학습과 난이도 조정에 있습니다. 덱 빌딩 카드게임의 특성상, 플레이어가 게임을 반복할수록 전략을 개선하고 난이도에 적응하게 되는데, 이러한 과정을 통해 의도한 난이도가 실제 유저들에게 어떻게 작용하는지를 정확하게 파악하는 것이 중요합니다. 그러나 과거에는 이러한 난이도 조정을 감과 수동 작업에 의존하여, 많은 시간과 인력이 소모되는 문제가 있었습니다.
이에 기존의 수작업 방식에서 벗어나 적은 인력으로 효율적인 난이도 조정 작업을 수행하기위해 데이터 기반의 분석 워크로드를 구축하고자 했지만, 팀 내 개발자들의 데이터 수집, 분석, 시각화 경험이 부족했고, 백엔드 개발과 서버 운영을 위한 인력을 충분히 확보하기 어려웠습니다. 이로 인해 기술적인 과제를 해결하는데 어려움을 겪고 있었습니다.
인다이렉트샤인에서는 이러한 어려움을 해결하고자 AWS 완전관리형 서비스를 이용하여 개발 리소스를 최소화하며 파이프라인을 쉽게 구축하고, 비개발자(디자이너)도 쉽게 접근 가능한 데이터 분석 환경을 구성하는 것을 목표로 AWS Partner-led Data Lab 프로그램에 참여하게 되었습니다. 본 블로그 글에서는 HARMA의 게임플레이 데이터를 분석하여 난이도 최적화를 이룬 사례를 상세히 소개하고, 이를 통해 얻은 인사이트와 기술적 구현 방법을 공유하고자 합니다.
Partner-led Data Lab 프로그램
Partner-led Data Lab 프로그램은 AWS 파트너사와 함께 고객사의 환경에 적합한 인프라 구성을 파악하여 최적의 아키텍처를 함께 설계하고 구축하는 AWS의 고객지원 프로그램입니다. 이 프로그램을 통해 AWS의 다양한 데이터 서비스와 솔루션을 효과적으로 활용하는 방법을 익히고, 이를 실제 워크로드에 적용할 수 있습니다.
분석 워크로드 아키텍처
인다이렉트샤인은 현재 겪고 있는 어려움과 달성 목표에 맞추어 Partner-led Data Lab을 통해 아래와 같은 AWS 분석 워크로드를 설계하였습니다. HARMA 게임 플레이 분석 시스템 구축 과정에서 가장 중요한 포인트는 서버 운영 리소스를 최소화하고 관리 부담을 줄이기 위해 AWS의 완전 관리형 서비스를 적극 활용하였습니다. 이를 통해 안전하고 효율적인 아키텍처를 설계하는 것을 최우선 목표로 삼았습니다.
이를 위해 데이터 수집 단계에서는 Amazon API Gateway, Amazon Data Firehose, Amazon S3를 활용하였으며, 데이터 가공 단계에서는 AWS Glue, 시각화 단계에서는 Amazon Athena와 Amazon QuickSight를 적용하였습니다.
이 아키텍처에 대한 흐름은 다음과 같습니다.
- 처음에 플레이어가 게임에 접속하여 로그인(Stove, Steam)을 수행합니다. 이 과정에서 인증 토큰(Access Token)을 발급받습니다.
- 게임이 끝나면, 로그를 Amazon S3에 업로드 하기 위해 클라이언트가 Amazon API Gateway(REST API)를 호출합니다. 호출할 때에는 인증 토큰(Access Token)을 헤더에 추가하여 요청을 전송합니다.
- 요청을 수신받은 API Gateway는 로그를 Amazon Data Firehose에 전달하기 전, AWS Lambda 함수(Authentication)를 호출하여 인증 토큰(Access Token)의 유효성을 검증합니다. (API Gateway의 Lambda 권한 부여자 사용)
- 유효성 검증이 통과되면 접근 허용 정책을 반환하고, 반대로 실패하였을 시 접근 거부 정책을 반환합니다.
- 접근 허용 정책이 반환되었을 때에만 API Gateway의 통합 요청(Integration Request)이 진행되며, API Gateway로 전송된 게임 플레이 로그 파일은 Amazon Data Firehose 스트림을 통해 Amazon S3 버킷에 적재됩니다.
- Amazon S3 버킷에 적재된 게임 플레이 로그 파일을 데이터 분석에 용이한 형태로 가공하기 위해 AWS Glue 크롤러를 통해 Amazon S3 버킷의 데이터를 참조하여 Glue 데이터 카탈로그에 메타데이터를 기록합니다. 그리고 이 Glue 데이터 카탈로그 내의 데이터를 AWS Glue ETL 작업을 통해 변환하고, 이를 다시 Amazon S3 버킷의 분석용 디렉터리에 적재합니다. 이 분석용 데이터를 다시 Glue 크롤러가 참조하여 분석용 Glue 데이터 카탈로그에 테이블을 구성합니다.
- Amazon Athena를 통해 분석용 Glue 데이터 카탈로그를 쿼리하여 분석합니다.
- Amazon QuickSight에서 Amazon Athena를 데이터 소스로 등록하여 Amazon Athena를 통해 쿼리된 데이터를 바탕으로 시각화 대시보드를 작성합니다.
인다이렉트샤인에서는 기존 개발 인력이 모두 클라우드 및 인프라 운영 경험이 없었기 때문에 이러한 상황에 맞추어 분석 워크로드를 효과적으로 구축할 수 있도록 서버리스와 관리형 서비스를 적극 활용하였습니다.
AWS의 관리형 서비스는 인프라 구성이나 유지보수 측면에서 많은 리소스 절감 효과를 제공합니다. 예를 들어 Amazon Data Firehose, AWS Glue 서비스는 쉽게 클릭 몇 번 만으로 데이터 스트리밍 및 데이터 ETL 파이프라인을 구성할 수 있습니다. 서버리스의 장점으로는 컴퓨팅 리소스를 운영 및 유지보수하기 위한 리소스를 크게 줄일 수 있다는 것입니다. 예측하지 못한 트래픽에 대해서도 성능과 가용성을 충분히 확보할 수 있고, 운영 업무의 오버헤드가 적으며, 사용한 만큼만 비용을 지불하므로 운영과 비용 두가지 측면에서 이점을 얻을 수 있습니다.
AWS 관리형 서비스와 서버리스를 활용하면 소규모 인디 게임 개발사도 유연한 인프라와 효율적인 비용 관리 아래에서 데이터 기반 혁신을 추진할 수 있습니다.
아키텍처 구성 요소 별 상세 설명
1. 인증/인가
이 아키텍처에서 인증/인가는 AWS Lambda 함수를 통해 이루어집니다. AWS Lambda는 서버리스 컴퓨팅 서비스로, 별도의 인프라 관리 없이 원하는 코드를 실행할 수 있습니다.
이 단계에서는 게임 클라이언트가 Amazon API Gateway 엔드포인트로 수집한 데이터 파일과 유저 인증에 필요한 정보(Access Token)를 포함한 POST 요청을 보냅니다. 이 요청이 API Gateway로 전달되어 인증/인가 로직을 담당하는 Lambda 함수가 트리거 됩니다. 인증/인가 Lambda 함수는 이 API Gateway를 트리거로 동작하게 됩니다.
인증을 담당하는 Lambda 함수는 Stove, Steam의 인증 시스템을 이용하여 토큰 유효성을 확인 합니다.
토큰이 유효하면 인증 성공 및 접근을 허용하는 IAM 정책을 반환하고 API Gateway가 최종적으로 Lambda Backend로 요청을 전달 합니다.
Amazon API Gateway는 AWS의 관리형 API 관리 서비스로, 개발자들이 API를 쉽게 생성, 게시, 유지 관리 및 모니터링할 수 있게 해줍니다. 주요 기능은 다음과 같습니다 :
- 손쉬운 API 생성 및 배포 : API Gateway를 사용하면 몇 번의 클릭만으로 API를 생성하고 배포할 수 있습니다. 이를 통해 개발자들은 API 인프라에 신경 쓰지 않고 비즈니스 로직에 집중할 수 있습니다.
- 다양한 통합 지원 : API Gateway는 Lambda 함수, HTTP 엔드포인트, AWS 서비스 등 다양한 백엔드와 통합할 수 있습니다.
- 트래픽 관리 : API Gateway는 요청 속도 제한, 캐싱, 부하 분산 등의 기능을 제공하여 API의 가용성과 성능을 관리할 수 있습니다.
- 보안 및 인증 : API Gateway는 AWS IAM, Amazon Cognito, SSL/TLS 인증서 등을 통해 API에 대한 보안과 인증을 제공합니다.
- 모니터링 및 분석 : API Gateway는 Amazon CloudWatch를 통해 API 사용량, 오류, 지연 시간 등을 모니터링하고 분석할 수 있습니다.
- 버전 관리 및 단계 배포 : API Gateway는 API 버전 관리와 개발, 테스트, 프로덕션 등 단계별 배포를 지원합니다.
이와 같은 기능들로 인해 Amazon API Gateway는 개발자들이 안전하고 확장 가능한 API를 구축하는 데 많은 도움을 줍니다. 특히 AWS 서비스와의 통합이 용이하여 클라우드 환경에서 API 개발에 널리 사용되고 있습니다.
Lambda 함수를 통해 사용자 토큰 검증에 성공하였을 경우 접근 허용 정책을 반환하고 실패하였을 경우 접근 거부 정책을 반환합니다. 접근 허용 정책이 반환되었을 때만 API 호출이 진행되고 API Gateway의 통합 요청(Integration Request)이 진행됩니다. API Gateway Lambda 권한 부여자 사용 가이드를 참조하세요.
2. 데이터 수집
수집된 데이터는 Amazon Data Firehose를 통해 Amazon S3 버킷에 적재됩니다.
Amazon Data Firehose는 실시간 스트리밍 데이터를 전송하기 위한 완전 관리형 서비스입니다. 데이터 생산자를 Amazon Data Firehose로 데이터를 보내도록 구성하면 지정한 대상(Amazon S3, Amazon Redshift, Amazon OpenSearch Service, Splunk 등)으로 데이터가 자동으로 전송됩니다. 또한 전송 전에 데이터를 변환하도록 Amazon Data Firehose를 구성할 수도 있습니다.
Amazon S3는 업계 최고의 확장성, 데이터 가용성, 보안 및 성능을 제공하는 객체 스토리지 서비스입니다. S3를 사용하여 데이터 레이크, 웹 사이트, 모바일 애플리케이션, 백업 및 복원, 아카이브, 엔터프라이즈 애플리케이션, IoT 디바이스, 빅 데이터 분석 등 다양한 사용 사례에서 원하는 양의 데이터를 저장하고 보호할 수 있습니다.
Lambda 함수를 통한 인증/인가가 완료되면 API Gateway의 POST 리소스의 통합 요청을 통해 Firehose로 JSON 형식의 데이터 레코드를 전송합니다. Firehose는 수신한 JSON 레코드를 설정된 S3 버킷에 저장합니다.
이를 구현하기 위해서는 크게 두 단계가 필요합니다.
- Amazon Data Firehose 스트림 생성
- 소스 설정: Firehose 스트림 세부 정보에서 소스를
Direct PUT
으로 설정하여 API Gateway에서 직접 데이터를 전송할 수 있도록 합니다. - 대상 설정: 수집한 데이터를 저장할 Amazon S3 버킷을 선택하고, 필요한 IAM 권한을 부여하여 Firehose가 해당 버킷에 데이터를 저장하도록 구성합니다.
- 소스 설정: Firehose 스트림 세부 정보에서 소스를
- API Gateway 통합 요청(Integration Request) 설정
- 통합 유형:
AWS 서비스
를 선택하고, 서비스로Firehose
를 지정합니다. - 작업:
PutRecord
를 설정하여 Firehose로 데이터를 전송합니다. - 매핑 템플릿: 요청 바디를 Firehose에 전달할 JSON 포맷으로 매핑해줍니다. 여기서는
"$input.json('$')"
등을 사용하여 API Gateway가 받은 전체 JSON 데이터를 Firehose로 전달합니다.
- 통합 유형:
이 과정을 마치면, Lambda 권한 부여자를 통해 인증/인가를 통과한 요청만이 Firehose로 전달되고, 결과적으로 Amazon S3 버킷에 안전하게 적재됩니다.
3. 데이터 가공
효과적인 데이터 분석을 위해 게임에서 발생한 이벤트와 그에 따른 유저의 플레이 데이터가 필요했습니다. 예를 들어, 전투 보상으로 어떤 카드들이 주어졌고 그 중에서 유저가 선택한 카드는 무엇인지에 대한 데이터, 각 카드의 평균 데미지, 사용 빈도 등 성능을 나타내는 데이터 등이 있었습니다. 데이터의 양이 너무 많아지지 않는 선에서 플레이 로그를 확인할 수 있는 데이터 항목을 작성하였고, 그 중 시각화를 위해 필요한 데이터를 원본 데이터에서 가공하는 작업을 진행하였습니다.
HARMA 전투 스테이지에는 등장하는 몬스터 그룹이 지정되어 있는데, 각 몬스터 그룹이 설정한 난이도로 작동하고 있는지 확인하기 위해 클리어 턴 수, 플레이어 체력(HP) 소모량, 플레이어 방어도 획득량의 평균을 시각화하고자 하였습니다.
시각화 항목과 이에 대하여 정리가 필요했던 데이터 필드의 예시는 아래와 같습니다. 데이터 필드명은 예시임을 참고 부탁드립니다.
- 카드 선택 순위 →
PlayerID
,CardName
,StageNo
,appearance_counts
,Select
- 몬스터 그룹 별 평균 클리어 턴 수 →
EnemyGroup
,TurnsTaken
,IsVictory
- 몬스터 그룹 별 HP 소모량 →
EnemyGroup
,Stage[].DamageTakenToHp
,IsVictory
- 몬스터 그룹 별 플레이어 방어도 획득량 →
EnemyGroup
,Stage[].ShieldAccumulated
이를 위해 AWS Glue라는 완전 관리형 ETL(Extract, Transform, and Load) 서비스를 활용하였습니다. AWS Glue 서비스의 주요 구성 요소는 아래와 같습니다.
- Glue 데이터 카탈로그: ETL 워크플로를 위한 테이블 정의, 작업 정의 및 기타 제어 정보가 포함되어 있는 메타데이터 저장소입니다.
- Glue 크롤러: 데이터 소스에 연결하고, 데이터 스키마를 추론하고, 데이터 카탈로그에서 메타데이터 테이블 정의를 만드는 프로그램입니다.
- Glue ETL 작업: 소스에서 데이터를 추출하고, Apache Spark 스크립트를 사용하여 데이터를 변환하고, 타겟에 로드하는 비즈니스 로직입니다.
Glue ETL 작업을 통해 각 항목을 시각화하기 위해서 필요한 데이터들을 원본 JSON 데이터에서 추출하여 분석/쿼리에 유리한 Parquet 형식으로 가공하였습니다.
아래는 데이터 가공 과정에 대한 요약입니다.
- 원본 데이터(S3) → Glue 크롤러 → 원본 테이블(데이터 카탈로그 등록)
- Glue ETL 작업을 통해 가공/필요한 필드만 추출 & Parquet 변환 → S3 다른 버킷에 저장
- 새롭게 저장된 Parquet 데이터를 Glue 크롤러로 스캔 → 가공된 테이블(데이터 카탈로그 등록)
이 과정 중 Glue ETL 작업에서 사용한 PySpark 스크립트의 예시는 다음과 같습니다.
AWS Glue ETL 작업에서는 PySpark를 지원합니다. 위 코드에서는 Amazon S3의 원본 데이터를 참조하기 위해 Glue Context 초기화 단계에서 필요한 파라미터를 설정하고 Spark 세션을 생성합니다. 마지막에는 job.init
함수를 호출하여 ETL 작업을 시작할 준비를 완료합니다.
이와 같은 방식으로 Glue Context를 초기화하면, 이후 단계에서 데이터 추출, 변환, 로드(ETL) 과정을 원활하게 진행할 수 있습니다. 다음 단계에서는 실제 데이터 변환 작업을 수행하는 코드를 살펴보겠습니다.
위 코드의 주요 부분은 다음과 같습니다.
- 데이터 소스 로드 : create_data_frame_from_catalog 메서드를 통해 Glue 데이터 카탈로그에서 지정된 데이터베이스(
DATABASE_NAME
)와 테이블(SOURCE_TABLE_NAME
)로부터 데이터를 로드합니다. 이 함수는 DataFrame 객체를 반환하며, 이는 Glue에서 제공하는 데이터 구조로 다양한 ETL 작업에 유용하게 사용됩니다. - 데이터 선택 및 변환 :
select
함수를 사용하여 필요한 컬럼(BuildVersion
,RunID
,RunOutcome
)을 선택하고explode
함수를 통해stages
배열을 개별 행으로 분해하여Stage
라는 새로운 컬럼으로 확장합니다.
이 과정을 통해 원본 데이터에서 필요한 정보를 추출하고, 분석에 적합한 형태로 변환할 수 있습니다. 다음 단계에서는 변환된 데이터를 기반으로 추가적인 처리 작업을 수행하는 방법을 살펴보겠습니다.
위 코드의 주요 부분은 다음과 같습니다.
- 데이터 필터링 : 유효한 전투 데이터만을 불러오기 위해,
df_stages
데이터프레임에서Stage.BattleSummaryData
가 null이 아닌 행만을 선택합니다. - 필요한 데이터 선택 및 변환 :
select
함수를 사용하여 분석에 필요한 특정 컬럼들을 선택하고, 필요에 따라alias
함수를 통해 컬럼의 이름을 변경합니다. - 데이터 저장 : 변환된 데이터프레임을 Amazon S3에 Parquet 형식으로 저장합니다.
partitionBy("BuildVersion")
을 사용하여BuildVersion
별로 데이터를 파티셔닝함으로써 쿼리 성능을 향상시킵니다.
이 과정을 통해 스테이지별 난이도 시각화에 필요한 데이터를 효율적으로 추출하고, Amazon S3에 저장할 수 있습니다. 이후 저장된 Parquet 데이터를 Glue 크롤러로 스캔하여 Glue 데이터 카탈로그에 테이블을 생성하면, Amazon Athena, Amazon QuickSight를 통해 데이터 쿼리 및 시각화가 가능해집니다.
4. 데이터 분석 및 시각화
데이터 추출 및 가공 단계에 앞서, 디자이너가 필요로 하는 분석 항목을 명확히 정의하였습니다. 또한, 이러한 데이터를 효과적으로 시각화하기 위해 구체적인 시각화 예시를 아래와 같이 도식화하여 설계하였습니다.
앞의 3. 데이터 가공
단계를 통해 카드 별 소지 개수(카드 선택 횟수에 관한 분석), 에너미 그룹 별 상세 상성(카드 속성별 몬스터 상성), 카드 선택 순위, 에너미 그룹별 평균 클리어 턴 수/HP 소모량/방어도 획득량에 대한 시각화를 위해 필요한 데이터 필드를 사전에 추출하고, 이를 Glue 데이터 카탈로그에 테이블로 등록하였습니다. 이에 맞춰 Amazon Athena, Amazon QuickSight를 활용하여 데이터 분석 및 시각화 대시보드를 구성하였습니다.
Amazon Athena는 표준 SQL을 사용하여 Amazon S3에 있는 데이터를 직접 간편하게 분석할 수 있는 대화형 쿼리 서비스입니다. Amazon S3에 저장된 데이터를 지정하고 표준 SQL을 사용하여 임시 쿼리를 실행하여 몇 초 안에 결과를 얻을 수 있습니다.
Amazon QuickSight는 시각적 환경에서 정보를 탐색하고 해석할 수 있도록 제공하는 비즈니스 인텔리전스(BI) 서비스입니다. 다양한 원본 데이터를 결합할 수 있으며 단일 데이터 대시보드에 AWS 데이터, 타사 데이터, 빅 데이터, 스프레드시트 데이터, SaaS 데이터, B2B 데이터 등을 포함할 수 있습니다.
먼저, Glue ETL 작업을 통해 추출 및 가공된 데이터를 Athena를 통해 쿼리하고 추가로 재가공하였습니다. 이를 통해 데이터의 정확성을 검증하고, Create Table 기능을 사용하여 시각화 테스트용 임시 데이터셋을 생성하였습니다. 이후 Amazon QuickSight에서 데이터 소스로 Amazon Athena를 선택하고, Glue 데이터 카탈로그에 등록된 테이블을 참조하여 데이터셋을 생성하였습니다. 생성된 데이터셋을 바탕으로 Amazon QuickSight에서 다양한 차트, 그래프를 작성하여 게임 레벨 디자인 작업에 활용할 수 있는 대시보드를 구성하였습니다.
결과적으로 아래와 같은 분석 대시보드를 구축할 수 있었습니다.
프로젝트 결과
데이터 분석 적용 사례
Partner-led Data Lab 프로그램 이후, HARMA는 버닝비버 2024 전시회에 참가하여 약 90명의 플레이 로그 데이터를 성공적으로 수집하였습니다. 이 데이터를 바탕으로 더욱 개선된 대시보드를 작성하여 레벨 디자인을 진행하였습니다. 새롭게 작성된 대시보드는 다음과 같습니다.
개선된 대시보드와 다양한 차트, 그래프를 통해 디자이너는 설계한 레벨 디자인이 실제 플레이어에게 어떻게 작동하는지 정확하게 파악할 수 있었습니다. 분석 결과, 의도와는 다르게 작동하는 레벨 요소들이 발견되었으며, 이를 바탕으로 난이도를 재조정하는 등의 개선 작업을 진행하였습니다.
다음은 이러한 개선 사례에 대한 상세 설명입니다.
데이터 적용 사례 1

플레이 시간이 늘어나 지루함을 유발하는 “Griffin1” 스테이지의 전투 디자인 개선
에너미 그룹별로 스테이지를 클리어하는 데 소요되는 턴 수를 분석한 결과, Griffin
적이 등장하는 스테이지에서 의도한 것보다 클리어하는 데 소요되는 턴 수가 긴 것을 확인할 수 있었습니다. 클리어하는 데 소요되는 턴 수가 길어지면 플레이 시간이 늘어나 게이머에게 지루함을 유발하게 되므로, Griffin
의 공격 패턴을 수정하여 플레이 경험을 개선하였습니다.
데이터 적용 사례 2

높은 난이도로 인해 승리가 어려운 “GooseVanguard2” 스테이지의 난이도 조정
두 번째로 에너미 그룹별로 패배율을 분석한 결과, GooseVanguard
적이 등장하는 스테이지의 패배율이 상당히 높게 나온 것을 확인할 수 있었습니다. 높은 난이도를 의도한 것은 맞으나, 플레이어가 패배하는 경우가 발생하는 것은 바람직하지 않아 GooseVanguard
의 공격력을 조정하였습니다.
팀 내부 역량 성장
이번 Partner-led Data Lab 프로그램을 통해 데이터 수집 및 분석 파이프라인을 구축하면서 인다이렉트샤인은 팀 내부의 기술 역량과 데이터 활용 능력을 크게 향상시킬 수 있었습니다. AWS Glue, Amazon Athena, 그리고 Amazon QuickSight와 같은 관리형 서비스를 직접 다루면서, 데이터 수집 및 분석, 시각화에 대한 경험이 없던 개발자가 클라우드 기반 데이터 인프라 구축에 대한 실무 경험을 쌓았고, 이를 통해 데이터 파이프라인을 자동화하고 효율성을 극대화할 수 있었습니다. 또한, 비개발자 팀원도 Amazon QuickSight를 이용하여 대시보드를 작성한 경험을 통해 데이터 시각화 도구의 활용 능력을 향상시킬 수 있었습니다. 이러한 역량 성장은 향후 HARMA의 지속적인 업데이트와 신규 프로젝트에서 더욱 효과적인 데이터 활용을 가능하게 할 것입니다.
마치며
이번 사례에서는 인다이렉트샤인의 로그라이크 덱 빌딩 카드 게임 HARMA의 게임플레이 데이터를 분석하여 난이도 조정과 레벨 밸런스를 최적화하는 과정을 다루었습니다. AWS 기반의 데이터 분석 파이프라인을 구축함으로써 데이터 수집부터 분석, 시각화까지의 전 과정을 자동화하고 효율화하였으며, 이를 통해 게임 디자인의 근거있는 의사결정을 지원할 수 있게 되었습니다. 이처럼 AWS의 관리형 서비스를 통해 비교적 간단하게 데이터 기반의 접근 방식을 도입함으로써 소규모 인디게임 개발사도 효율적으로 게임 밸런스를 조정하고, 플레이어 경험을 향상시킬 수 있습니다.
이렇게 데이터 기반의 게임 디자인에 대해서 관심이 있는 경우 이번 사례에 사용되었던 AWS의 분석 서비스들의 자세한 자료와 활용 사례를 참고해보세요.
- 데이터 분석이란 무엇인가요?
- AWS 기반 Game Analytics Pipeline 지침을 살펴보세요.
- AWS Lambda에 대해 궁금하시다면, 게임 개발 시 AWS Lambda를 통한 서버리스 아키텍처 활용하기 기술블로그를 읽어보세요.
- Storytelling-based Data Analysis and Visualization 워크샵을 통해 Amazon QuickSight의 다양한 기능을 알아보실 수 있습니다.