Skip to main contentAWS Startups
    1. Events
    2. [유니콘데이 - Track 2] Machine Learning in the New AI Era
    aws-unicorn-day-2026-track-2

    [유니콘데이 - Track 2] Machine Learning in the New AI Era

    AI

    Best practice

    Data

    Generative AI

    Security

    Day:

    -

    Time:

    -

    Type:

    IN PERSON

    Language:

    한국어

    Level(s):

    100 - Foundational, 200 - Intermediate, 300 - Advanced

    [Track 2] Machine Learning in the New AI Era

    새로운 AI 시대의 머신러닝

    NVIDIA Physical AI스택부터 Amazon EC2 기반 고효율 LLM 추론까지, 새로운 AI 시대의 머신러닝 인프라를 구축하세요. Sagemaker Hyperpod로 로보틱스 모델을 학습하고, HyperPod CLI로 EKS 기반 분산 학습 환경을 구성하는 실전 노하우를 공유합니다. VoyagerX와 Intellicia의 프로덕션 경험을 통해 비용 효율적인 AI 서비스 운영 전략을 배워가세요.

    AWS Unicorn Day 2026 Main Page로 돌아가기

    새로운 AI 시대의 머신러닝

    4:00 AM UTC

    AWS 환경에서 NVIDIA 기반 Physical AI 스택 활용하기

    유용환 솔루션즈 아키텍트 | AWS

    이번 세션에서는 Physical AI 개발에 많이 활용되는 NVIDIA 스택의 워크로드를 AWS 환경에서 운영하는 방법을 알아봅니다. Isaac GR00T과 같은 Vision-Language-Action(VLA) 모델을 AWS Batch, ECR, EFS를 활용해 파인튜닝하고, Isaac Lab 기반의 대규모 시뮬레이션을 AWS에 구축하는 방법을 살펴봅니다.

    4:40 AM UTC

    Physical AI 스타트업 Config의 AWS 기반 Robotics Foundation Model 개발 여정

    손형목 CTO | Config

    한국의 대표적인 Physical AI 스타트업 Config는 양팔 작업에 특화된 자체 VLA(Vision Language Action)모델을 개발해 다양한 엔터프라이즈 기업과 협업하고 있습니다. Config는 Robot Foundation 모델 제작에 필수인 고품질 액션 데이터를 확보하기 위해, 국내 및 베트남에 자체 데이터 생산 및 검수 시설을 구축하여 월 15,000시간 이상의 액션 데이터를 수집하고 있습니다. 확보한 데이터는 AWS Direct Connect를 활용해 Amazon S3로 옮겨 저장되고, AWS EKS 기반으로 데이터 파이프라인을 구축하여 처리하며, Amazon Sagemaker Hyperpod의 GPU 인스턴스 기반으로 Robot Foundation 모델을 학습하고 있습니다. 본 세션에서는 Config에서 AWS의 서비스를 활용해 Robot Foundation 모델을 만든 여정과 향후 계획을 공유합니다.

    5:20 AM UTC

    HyperPod CLI & SDK로 EKS 기반의 모델 훈련 미세조정 다루기

    최철우 솔루션즈 아키텍트 | AWS

    ML 스타트업에서는 모델 개발 뿐 아니라 빠른 반복 실험(훈련/미세조정), 안정적인 배포, 운영 환경에서의 모니터링과 성능 확인까지 전 과정의 생산성이 중요합니다. 이 세션에서는 Amazon SageMaker HyperPod CLI & SDK를 활용해 EKS 환경에서 훈련/미세조정부터 배포까지 이어지는 워크플로를 살펴보고, HyperPod이 학습 환경을 어떻게 개선하는지 알아봅니다.

    6:10 AM UTC

    AI 반도체 스타트업의 F2 인스턴스로 구현한 LPU 기반 LLM 추론 서비스 구축 사례

    김주영 대표 | 하이퍼엑셀

    Transformer 기반 LLM 추론 가속에 특화된 LPU(LLM Processing Unit) 기술을 보유한 팹리스 스타트업 하이퍼엑셀이 AWS EC2 F2 인스턴스의 FPGA 기반 인프라를 활용해 LPU 추론 서비스를 클라우드로 확장한 사례를 소개합니다. 온프레미스 환경의 한계를 극복하고 PoC 구축 시간을 90% 이상 단축했으며, GPU 대비 최대 70% 비용 절감을 달성한 과정을 공유합니다. AWS Marketplace를 통한 AMI 배포로 고객이 즉시 LPU 기반 추론을 체험할 수 있는 환경 구축 방법과 LPU-as-a-Service 모델로의 발전 방향, 차세대 AI 인프라의 새로운 표준을 향한 계획을 함께 다룹니다.

    6:50 AM UTC

    소비자를 복제하다, 생성형 AI가 바꾸는 시장 조사의 미래

    백승국 대표 | 인텔리시아

    인텔리시아는 국내 최초로 소비자 조사를 위해 가상으로 생성된 '합성 소비자' 기술을 구현했습니다. 실제 소비자의 응답 데이터를 학습해 행동 패턴·취향·선호도까지 재현하는 AI 클론을 LoRA Fine-tuning과 RAG 기술로 생성하고, 이를 통해 시장 조사를 수행함으로써 기존 리서치 대비 비용 67% 절감, 시간 90% 단축이라는 결과를 달성했습니다. 이런 결과를 얻기까지 지난 10개월간 18개 주요 기업과 검증한 PoC 과정과 개발 인사이트를 구체적으로 공유합니다.

    7:30 AM UTC

    오픈소스 AI 비디오 모델의 프로덕션 여정: Wan 모델과 ComfyUI로 구축한 확장 가능한 파이프라인

    신혜진 AI Engieer | VoyagerX

    보이저엑스가 AI 비디오 편집 툴 서비스 '브루(Vrew)'에 AI 비디오 생성 기능을 도입하며 겪은 실전 경험을 공유합니다. 비디오 생성에 오픈소스 모델인 Wan 2.1을 선정하게 된 스토리부터 비디오 생성 추론에 사용한 AWS G타입 인스턴스 최적화·ComfyUI 기반 워크플로우 구축·Ray Serve를 활용한 오토스케일링까지, 비용 효율적인 프로덕션 환경을 구축해 온 과정을 소개합니다.