AWS Machine Learning 인프라

고성능, 비용 효율성, 기계 학습에 최적화된 기능
모든 규모의 비즈니스와 산업은 추천 엔진, 객체 탐지, 음성 지원 및 사기 탐지를 포함한 다양한 사용 사례에서 기계 학습(ML)을 더 많이 채택하고 있습니다. 이러한 성장과 함께 사용, 관리, 컴퓨팅, 스토리지 및 네트워킹 리소스 비용도 늘어납니다. 기계 학습 워크로드의 요구 사항을 충족하기 위해 올바른 크기의 컴퓨팅 인프라를 조달하기란 쉽지 않지만, 이러한 인프라가 없으면 기계 학습 모델의 훈련과 배포는 시간이 오래 걸리고 비용이 높아질 수 있습니다. 기계 학습 혁신을 가속화하기 위해 AWS는 고성능 및 저렴한 Amazon EC2 인스턴스와 기계 학습을 위해 최적화된 목적별 도구의 적절히 조합하여 제공합니다.

이점

고성능

고성능 

AWS는 클라우드에서 가장 높은 성능의 기계 학습 컴퓨팅 인프라를 제공합니다. 훈련을 위해 Amazon EC2 P4 인스턴스는 이전 세대 인스턴스에 비해 2.5배 개선된 성능과 최대 400Gbps의 가장 빠른 네트워킹을 제공합니다. 추론을 위해 Amazon EC2 Inf1 인스턴스는 현재 세대의GPU 기반 인스턴스에 비해 최대 2.3배 더 많은 처리량을 제공합니다.

자세히 알아보기 >>
기계 학습에 최적화된 기능

기계 학습에 최적화된 기능

AWS 컴퓨팅 인스턴스는 TensorFlow 및 PyTorch와 같은 주요 기계 학습 프레임워크를 지원합니다. 또한, 다양한 기계 학습 사용 사례를 위해 Hugging Face와 같은 모델과 도구 키트도 지원합니다. AWS Deep Learning AMI 및 Deep Learning Containers에는 클라우드에서 딥 러닝을 가속화하기 위해 기계 학습 프레임워크 및 도구 키트를 위한 최적화 기능이 사전에 설치되어 제공됩니다.

자세히 알아보기 >>
사용 편의성

사용 편의성

완전관리형 기계 학습 서비스인 Amazon SageMaker는 AWS 인프라를 시작하는 가장 빠르고 쉬운 방법이며, 데이터 레이블 지정, 데이터 준비, 특성 추출, 통계 바이어스 탐지, AutoML, 훈련, 튜닝, 호스팅, 설명 가능성, 모니터링 및 워크플로를 포함한 목적별 도구도 제공합니다. SageMaker는 수십 년의 Amazon ML 경험에 기반합니다.

자세히 알아보기 >>
크기 조정

크기 조정

AWS 고객은 실제로 무제한의 컴퓨팅, 네트워크 및 스토리지에 액세스하여 크기를 조정할 수 있습니다. 하나의 GPU에서 수천 개로 필요한 만큼 확장하거나 축소할 수 있으며, 스토리지를 테라바이트에서 페타바이트 단위로 필요에 따라 확장하거나 축소할 수 있습니다. 클라우드를 사용하면 모든 가능한 인프라에 투자하지 않아도 됩니다. 대신, 탄력적 컴퓨팅, 스토리지 및 네트워킹을 활용할 수 있습니다.

자세히 알아보기 >>
비용 효율성

비용 효율성

다양한 인프라 서비스를 바탕으로 예산에 적합한 인프라를 선택할 수 있습니다. CPU, GPU 또는 액셀러레이터 기반 인스턴스 중에서 선택하고 종량제 요금을 통해 유휴 용량에 대해서는 비용을 지불하지 않아도 됩니다. AWS Inferentia에서 제공하는 Amazon EC2 Inf1 인스턴스는 동급의 현재 세대 GPU 기반 인스턴스보다 추론당 최대 70% 저렴한 비용을 제공합니다.

자세히 알아보기 >>

제공 서비스

기계 학습 인프라

고객

Amazon Alexa

오늘날 Amazon Alexa의 AI 및 기계 학습 기반 인텔리전스는 1억 개가 넘는 디바이스에서 사용 가능합니다. Alexa의 스마트하며, 유쾌하고 뛰어난 대화 및 사전 대응 능력은 계속 발전하고 있습니다. Alexa는 Amazon EC2 Inf1을 사용하여 텍스트를 음성으로 변환하는 서비스에 대한 추론 대기 시간과 추론당 비용을 낮춥니다.

Anthem

Autodesk는 AI 기반 가상 어시스턴트인 Autodesk Virtual Agent(AVA)의 인지 기술을 발전시키고 있습니다. AVA는 자연어 이해(NLU) 및 딥 러닝 기술로 문의 내용 이면의 맥락, 의도 및 의미를 추출하여 매달 100,000개 이상의 고객 질문에 답합니다. AWS Inferentia를 시범 운영하여 GPU 기반 인스턴스보다 4.9배 향상된 처리량을 확보할 수 있었습니다.

RadAI

Rad AI는 AI를 사용하여 방사선 워크플로를 자동화하고 방사선 보고를 간소화하는 데 도움을 줍니다. 새로운 Amazon EC2 P4d 인스턴스를 통해 Rad AI는 보다 빠른 추론을 확보하고 2.4배 더 빠르고 더 정확하게 모델을 훈련할 수 있습니다.

AWS를 활용하여 다음 단계로 넘어가세요