게시된 날짜: Jun 14, 2018

이제 AWS DeepLens를 amazon.com에서 구매할 수 있습니다. 이에 더해 중요한 신규 기능을 오늘 발표합니다.

프레임워크 지원 확대 – 이제 DeepLens가 TensorFlowCaffe 프레임워크에 최적화됩니다. AWS DeepLens가 각 프레임워크에 대해 지원하는 모델 및 모델링 계층은 이 기능에 대한 지원 AWS 설명서에서 찾을 수 있습니다. 

MXNet 계층 지원 확대 – 이제 DeepLens에서 MXNet가 제공하는 Deconvolution, L2NormalizationLRN 계층이 지원됩니다. 자세한 내용은 이 기능에 대한 지원 AWS 설명서를 참조하십시오. 

Kinesis Video Streams – DeepLens 카메라의 비디오 스트림을 Amazon Kinesis Video Streams와 함께 사용할 수 있습니다. 원시 카메라 피드를 클라우드로 스트리밍한 다음 Amazon Rekognition Video를 사용하여 비디오에서 객체, 얼굴 및 콘텐츠를 추출할 수 있습니다. 또한, 인기 있는 오픈 소스 ML 프레임워크를 사용해 사용자 지정 애플리케이션을 구축하여 비디오 스트림을 처리하고 분석할 수 있습니다. 자세한 내용은 이 기능에 대한 지원 AWS 설명서를 참조하십시오. 

새로운 샘플 프로젝트 – 이제 DeepLens에 얼굴 위치 감지를 위한 샘플 프로젝트가 포함됩니다. 이 샘플 프로젝트는 TensorFlow 프레임워크를 통해 생성되는 Deep Learning 모델을 사용하여 사람 얼굴의 위치를 정확하게 감지합니다. 이 샘플을 검토하여 모델의 구조를 확인할 수 있습니다. 자세한 내용은 이 기능에 대한 지원 AWS 설명서를 참조하십시오.

기능 업데이트에 더해 이제 동일한 네트워크에 있는 동안 브라우저를 통해 프로젝트의 출력을 볼 수 있습니다. 자세한 내용은 이 기능에 대한 지원 AWS 설명서를 참조하십시오.

AWS DeepLens에 대한 자세한 내용을 알아보고 디바이스를 주문하려면 AWS DeepLens 웹 사이트를 방문하십시오. 비디오 자습서 및 개발자 가이드를 비롯한 기타 유용한 리소스는 DeepLens 리소스 페이지를 참조하십시오. DeepLens 토론 포럼을 구독하면 새로운 출시 발표 소식을 받고 질문을 게시할 수도 있습니다.