게시된 날짜: Nov 29, 2017

AWS Greengrass Machine Learning(ML) Inference를 사용하면 클라우드에서 구축되고 교육되는 모델을 사용하여 AWS Greengrass 디바이스에서 ML 추론을 로컬로 손쉽게 수행할 수 있습니다.  지금까지는 ML 모델 빌드 및 교육과 ML 추론 실행 작업이 거의 클라우드에서만 수행되었습니다.  ML 모델 교육은 대량의 컴퓨팅 리소스가 필요하므로 당연히 클라우드에 적합합니다.  AWS Greengrass ML Inference를 사용하면 AWS Greengrass 디바이스에서 연결이 끊긴 상태에서도 데이터 생성 속도에 맞게 신속하고 현명하게 결정을 내릴 수 있습니다.

이 기능은 ML 모델 액세스, 디바이스에 모델 배포, ML 프레임워크 빌드 및 배포, 추론 앱 생성, 디바이스 액셀러레이터(예: GPU 및 FPGA) 활용을 비롯한 ML 배포의 각 단계를 간소화합니다.  예를 들어, Amazon SageMaker에서 구축되고 교육되는 딥 러닝 모델을 AWS Greengrass 콘솔에서 직접 액세스하여 AWS Greengrass 그룹의 일부로 디바이스에 다운로드할 수 있습니다.  AWS Greengrass ML Inference에는 AWS Greengrass 디바이스에 설치하도록 미리 빌드된 Apache MXNet 프레임워크가 포함되어 있으므로 이 프레임워크를 처음부터 다시 생성할 필요가 없습니다.  NVIDIA Jetson, Intel Apollo Lake 및 Raspberry Pi 디바이스용으로 미리 빌드된 Apache MXNet 패키지를 클라우드에서 직접 다운로드하거나, AWS Greengrass 그룹에 소프트웨어의 일부로 포함할 수 있습니다.

또한 AWS Greengrass ML Inference에는 추론 앱을 신속하게 생성하기 위해 사용되는 미리 빌드된 AWS Lambda 템플릿이 포함되어 있습니다.  제공된 Lambda 블루프린트에서는 모델 로드, Apache MXNet 가져오기, 예측 기반 작업 수행 등과 같은 일반 작업을 보여 줍니다.

대부분의 애플리케이션에서는 디바이스에서 사용 가능한 모든 하드웨어 리소스를 최대한 활용할 때 ML 모델의 성능이 향상됩니다. AWS Greengrass ML Inference를 사용하면 도움이 됩니다. 애플리케이션에서 디바이스의 하드웨어 리소스에 액세스하도록 허용하려면 AWS Greengrass 콘솔의 AWS Greengrass 그룹에서 하드웨어 리소스를 로컬 리소스로 선언합니다.

이러한 기능을 사용하려면 미리 보기에 가입하십시오.