일반

Q: AWS DeepLens란 무엇입니까?

AWS DeepLens는 세계 최초로 딥 러닝이 지원되는 비디오카메라로서 모든 기술 수준의 개발자가 컴퓨터 비전 자습서, 예제 코드 및 사전에 구축된 모델을 통해 기계 학습 기술을 향상할 수 있습니다.

Q: AWS DeepLens(2019년 에디션)란 무엇입니까?

AWS DeepLens(2019년 에디션)는 미국, 캐나다, 영국, 독일, 프랑스, 스페인, 이탈리아 및 일본의 고객이 사용할 수 있습니다. AWS에서는 사용자 환경을 전반적으로 개선했습니다. 이제 디바이스 설정이 더 쉬워져 개발자가 더욱 빠르게 기계 학습을 시작할 수 있으며, SageMaker Neo를 통한 최적화 덕분에 디바이스에 다양한 ML 모델이 2배 더 빠른 속도로 실행됩니다.

디바이스 개선뿐 아니라 AWS DeepLens를 통해 ML 학습을 흥미롭게 만드는 데 도움이 되는 새로운 교육 콘텐츠가 모든 콘솔 사용자에게 제공됩니다. 여기에는 작업자 안전 모니터링, 감성 분석 수행, 사무실에서 마시는 커피 분량 추적과 같은 흥미로운 사용 사례를 위한 ML 애플리케이션 구축을 안내하는 지침이 포함됩니다.

Q: AWS DeepLens와 시중에 나와 있는 다른 비디오카메라의 차이점은 무엇입니까?

AWS DeepLens는 세계 최초로 디바이스에서 기계 학습 모델을 실행하고 추론을 수행하도록 최적화된 비디오카메라입니다. 시작 시 10분 이내에 AWS DeepLens에 배포할 수 있는 샘플 프로젝트 6개가 함께 제공됩니다. 샘플 프로젝트를 있는 그대로 실행하거나, 다른 AWS 서비스에 연결하거나, Amazon Sagemaker에서 모델을 훈련한 후 AWS DeepLens에 배포하거나, 동작이 발생할 때 Lambda 함수를 트리거함으로써 기능을 확장할 수 있습니다. Amazon Rekognition을 사용하여 클라우드에서 고급 분석을 적용할 수도 있습니다. AWS DeepLens는 기계 학습 요건에 맞는 빌딩 블록을 제공합니다.

Q: 어떤 샘플 프로젝트가 제공됩니까?

7개의 샘플 프로젝트가 제공됩니다. AWS에서는 사용자 피드백에 따라 개발자가 사용하고 학습할 수 있는 실용적이고 재미있는 프로젝트를 계속 제공할 예정입니다. 7개의 샘플 프로젝트는 다음과 같습니다.

1. Object Detection(객체 탐지)

2. Hot Dog Not Hot Dog(핫도그와 핫도그 아님)

3. Cat and Dog(고양이와 개)

4. Artistic Style Transfer(미술 양식 전환)

5. Activity Detection(행동 탐지)

6. Face Detection(얼굴 탐지)

7. Bird Classification(새 분류)

 

Q: AWS DeepLens를 사용할 수 있는 지리적 리전은 어디입니까?

AWS DeepLens(2019년 에디션)은 미국, 독일, 프랑스, 이탈리아, 스페인, 영국, 일본 및 캐나다에서 사용할 수 있습니다.

 

Q: AWS DeepLens에 Alexa가 포함되어 있습니까?

아니요. AWS DeepLens에서는 Alexa 또는 다른 원거리 오디오 기능을 제공하지 않습니다. 하지만 AWS DeepLens에는 추가 프로그래밍을 통해 사용자 지정 오디오 모델을 실행할 수 있는 2D 마이크 어레이가 장착되어 있습니다.

 

Q: AWS DeepLens를 구매하려면 어떻게 해야 합니까?

AWS DeepLens(2019년 에디션)는 이제 캐나다, 유럽 및 일본의 개발자가 Amazon.ca, Amazon.de, Amazon.es, Amazon.fr, Amazon.it, Amazon.co.jp 및 Amazon.co.uk 웹 사이트를 통해 사전 주문할 수 있습니다.

 

Q: AWS DeepLens 콘솔은 어떤 리전에서 사용할 수 있습니까?

AWS DeepLens는 us-east-1(버지니아 북부), eu-central-1(프랑크푸르트) 및 ap-northeast-1(도쿄)에서 사용할 수 있습니다.

 

제품 세부 정보

Q: 이 디바이스의 제품 사양은 어떻게 됩니까?

  • 인텔 아톰® 프로세서
  • 9세대 그래픽
  • Ubuntu OS 16.04 LTS
  • 100GFLOPS 성능
  • 듀얼 밴드 Wi-Fi
  • 8GB RAM
  • 16GB 스토리지
  • microSD 카드로 확장 가능한 스토리지
  • MJPEG 지원 4MP 카메라
  • 1080p 해상도의 H.264 인코딩
  • USB 포트 2개
  • 마이크로 HDMI
  • 오디오 아웃
숨기기

Q: 내 디바이스 하단에 "v1.1"이라는 표시가 있는 이유는 무엇입니까?

AWS DeepLens(2019년 에디션)는 디바이스 하단에“v1.1”이라는 표시가 있습니다. AWS에서는 온보딩, 자습서 및 Intel Real Sense의 심도 센서와 같은 센서에 대한 추가적인 호환성 지원을 비롯하여 사용자 환경을 대폭 개선했습니다. 

이전 AWS DeepLens는 소프트웨어 업데이트를 통해 v1.1로 업그레이드할 수 없습니다. 간소화된 온보딩을 비롯한 일부 디바이스 수정 사항은 하드웨어 변경이 수반되었습니다.

 

Q: 이 디바이스에서 실행할 수 있는 딥 러닝 프레임워크에는 어떤 것이 있습니까?

AWS DeepLens(2019년 에디션)은 Apache MXNet, TensorFlow 및 Caffe에 최적화되어 있습니다. 

Q: AWS DeepLens에서는 어떤 성능을 기대할 수 있습니까?

성능은 초당 추론된 이미지와 지연 시간으로 측정됩니다. 모델이 다르면 초당 추론 수도 달라집니다. 추론 성능 기준선은 배치 크기 1에 대해 AlexNet의 경우 초당 이미지 14개이고 ResNet 50의 경우 초당 이미지 5개입니다. DeepLens가 연결된 네트워크의 특성이 지연 시간 성능을 결정합니다.


Q: AWS DeepLens에서 지원하는 MXNet 네트워크 아키텍처 계층에는 어떤 것이 있습니까?

AWS DeepLens에서는 20가지의 네트워크 아키텍처 계층을 지원합니다. 지원되는 계층은 다음과 같습니다.

  • Activation
  • BatchNorm
  • Concat
  • Convolution
  • elemwise_add
  • Pooling
  • Flatten
  • FullyConnected
  • InputLayer
  • UpSampling
  • Reshape
  • ScaleShift
  • SoftmaxActivation
  • SoftmaxOutput
  • transpose
  • _contrib_MultiBoxPrior
  • _contrib_MultiBoxDetection
  • _Plus
  • Deconvolution
  • _mul

시작하기

Q: 제품 구성품에는 어떤 것들이 있고 시작하려면 어떻게 해야 합니까?

상자 안에는 개발자를 위한 시작 안내서, AWS DeepLens 디바이스, 해당 지역용 전원 코드 및 어댑터, USB 케이블, 32GB microSD 카드가 들어 있습니다. DeepLens 디바이스 설정 및 구성은 AWS DeepLens 콘솔을 사용해 몇 분 만에 완료할 수 있으며 노트북 또는 PC에서 브라우저를 통해 디바이스를 구성할 수도 있습니다.

시작 과정을 안내하는 10분짜리 튜토리얼이 3개 있습니다.

1. 프로젝트 생성 및 배포
2. 프로젝트 확장
3. Amazon SageMaker로 AWS DeepLens 프로젝트 구축

 

Q: USB 포트 중 하나가 registration(등록)으로 표시되어 있는 이유는 무엇입니까?

AWS DeepLens(2019년 에디션)에서 registration(등록)으로 표시된 USB 포트는 온보딩 프로세스 중에 AWS DeepLens를 사용자의 AWS 계정에 등록하는 데 사용됩니다.

등록용 USB 포트는 슬레이브 포트로 구성되어 있습니다. 그러므로 이 포트는 키보드 또는 기타 마스터 포트 설정용으로 사용할 수 없습니다. 연결을 위해 더 많은 포터가 필요한 경우 USB 허브를 사용하는 것이 좋습니다. 

 

숨기기

Q: 디바이스에서 내 모델을 훈련할 수 있습니까?

아니요. AWS DeepLens는 훈련된 모델을 사용해 추론 또는 예측을 실행할 수 있습니다. 모델을 훈련하고 호스팅하는 기계 학습 플랫폼인 Amazon SageMaker에서 모델을 훈련할 수 있습니다. AWS DeepLens는 Amazon SageMaker의 훈련된 모델을 게시할 수 있도록 간단한 1-Click 배포 기능을 제공합니다.


Q: AWS DeepLens와 통합되는 AWS 서비스에는 어떤 것이 있습니까?

DeepLens는 AWS Greengrass, Amazon SageMaker 및 Amazon Kinesis Video Streams와 통합되도록 사전 구성되어 있습니다. AWS DeepLens를 사용해 Amazon S3, Amazon Lambda, Amazon Dynamo, Amazon Rekognition과 같은 다른 많은 AWS 서비스와 통합할 수 있습니다.


Q: SSH를 통해 AWS DeepLens에 액세스할 수 있습니까?

예. AWS에서는 사용이 간편하면서 고급 개발자도 사용할 수 있도록 AWS DeepLens를 설계했습니다. ssh aws_cam@ 명령을 사용하면 SSH를 통해 디바이스에 액세스할 수 있습니다.

 

Q: AWS DeepLens에서 지원하는 프로그래밍 언어에는 어떤 것이 있습니까?

Python 2.7에서 로컬로 카메라 데이터 스트림의 모델을 정의하고 실행할 수 있습니다.

Q: 모델을 실행하려면 인터넷에 연결되어 있어야 합니까?

인터넷에 연결하지 않고도 AWS DeepLens에 배포한 모델을 실행할 수 있습니다. 하지만 처음에 클라우드에서 디바이스로 모델을 배포하려면 인터넷이 필요합니다. 모델을 전송한 후에는 클라우드에 연결하지 않아도 AWS DeepLens에서 로컬로 디바이스에서 추론을 수행할 수 있습니다. 하지만 프로젝트에 클라우드와 상호 작용해야 하는 구성 요소가 있는 경우, 해당 구성 요소를 위해 인터넷을 연결해야 합니다.

Q: AWS DeepLens에서 자체 사용자 지정 모델을 실행할 수 있습니까?

예. 또한, AWS SageMaker 플랫폼을 사용해 데이터를 준비하고 호스팅된 노트북에서 모델을 훈련하여 자체 프로젝트를 처음부터 새로 생성할 수 있고, 그런 다음 훈련된 모델을 AWS DeepLens로 게시하여 테스트와 미세 조정을 수행할 수 있습니다. 모델 아키텍처와 네트워크 가중치 파일에 대한 S3 위치를 지정하여 외부에서 훈련한 모델을 AWS DeepLens로 가져올 수도 있습니다.


Q: 내 디바이스 하단에 "v1.1"이라는 표시가 있는 이유는 무엇입니까?

AWS DeepLens(2019년 에디션)는 디바이스 하단에“v1.1”이라는 표시가 있습니다. AWS에서는 온보딩, 자습서 및 Intel Real Sense의 심도 센서와 같은 센서에 대한 추가적인 호환성 지원을 비롯하여 사용자 환경을 대폭 개선했습니다. 

 

숨기기

Q: AWS DeepLens(2019년 에디션)란 무엇입니까?

AWS DeepLens(2019년 에디션)는 개발자가 손쉽게 기계 학습을 시작할 수 있는 최적화된 온보딩 프로세스, 시각 정보뿐 아니라 심도까지 입력 파라미터로 활용하여 보다 높은 정확도의 고급 기계 학습 모델을 구축할 수 있게 해 주는 Intel® RealSense™ 심도 센서 지원, 보다 빠른 컴퓨팅 속도를 원하는 경우를 위한 Intel® Movidius™ 신경망 컴퓨트 스틱 지원을 포함합니다. AWS DeepLens(2019년 에디션)에는 고객이 모델을 한번만 학습하여 실행해도 최대 2배의 성능 개선 효과를 얻을 수 있게 해 주는 Amazon SageMaker Neo 통합도 함께 제공됩니다.

디바이스 성능 개선 외에도 AWS에서는 AWS DeepLens를 통한 ML 학습을 흥미롭게 해 주는 새로운 콘텐츠를 개발했습니다. 여기에는 작업자 안전, 감성 분석, 사무실에서 마시는 커피 분량 파악 등 다양하고 흥미로운 사용 사례를 위한 ML 애플리케이션 구축을 안내하는 지침이 포함됩니다.

이러한 모든 개선 사항은 미국, 캐나다, 영국, 독일, 프랑스, 스페인, 이탈리아 및 일본의 고객이 사용할 수 있습니다.