지원 종료

Q: 지원 종료(EOL) 날짜 이후에 AWS DeepLens 리소스는 어떻게 되나요?

2024년 1월 31일 이후 AWS DeepLens 모델, 프로젝트, 디바이스 정보에 대한 모든 참조는 AWS DeepLens 서비스에서 삭제됩니다. 더 이상 AWS Console에서 AWS DeepLens 서비스를 탐색하거나 이용할 수 없으며 AWS DeepLens API를 호출하는 애플리케이션이 작동하지 않습니다.

Q: EOL 날짜 이후에 계정에 남아 있는 AWS DeepLens 리소스에 대해 요금이 청구되나요?

Amazon S3 버킷, AWS Lambda 함수, AWS IoT 사물, AWS Identity and Access Management(IAM) 역할과 같이 AWS DeepLens에서 생성한 리소스는 2024년 1월 31일 이후에도 각 서비스에 계속 남아 있습니다. AWS DeepLens 지원이 종료된 후에 요금이 청구되지 않도록 하려면 다음과 같이 이러한 리소스를 삭제하는 단계를 모두 수행하세요.

Q: AWS DeepLens 리소스를 삭제하려면 어떻게 해야 하나요?

AWS DeepLens에서 사용한 리소스를 삭제하고 AWS DeepLens 디바이스를 공장 설정으로 복원하는 방법을 알아보려면 AWS DeepLens 디바이스 리소스 삭제를 참조하세요.

Q: 지원 종료(EOL) 날짜 이후에 AWS DeepLens 프로젝트를 배포할 수 있나요?

2024년 1월 31일까지 AWS DeepLens 프로젝트를 배포할 수 있습니다. 이 날짜 이후에는 AWS DeepLens 콘솔 또는 API에 액세스하지 못하며 AWS DeepLens API를 호출하는 모든 애플리케이션이 작동하지 않습니다.

Q: AWS DeepLens 디바이스에서 보안 업데이트를 계속 받을 수 있나요?

2024년 1월 31일 이후에는 AWS DeepLens가 업데이트되지 않습니다. AWS DeepLens 디바이스에서 배포되는 일부 애플리케이션은 EOL 날짜 이후에도 계속 실행할 수 있지만, AWS에서는 관련 해결책을 제공하지 않으며 AWS DeepLens 소프트웨어 또는 하드웨어에서 발생하는 어떤 문제에 대해서도 책임지지 않습니다.

 

Q: AWS AI/ML를 사용하여 계속 실습 경험을 쌓으려면 어떻게 해야 하나요?

다른 실습용 기계 학습 도구를 사용해 보실 것을 권장합니다. AWS DeepRacer를 통해 클라우드 기반 3D 경주 시뮬레이터를 사용하여 1/18 비율의 자율 주행 경주용 자동차에 대한 강화 학습 모델을 생성해 보세요. Amazon SageMaker Studio Lab을 사용하여 설정이 필요 없는 무료 개발 환경을 학습하고 실험해 보세요. Amazon Rekognition을 사용해 이미지 및 동영상 분석을 자동화하거나 AWS Panorama를 사용하여 엣지의 컴퓨터 비전을 통해 운영을 개선해 보세요.

 

Q: AWS DeepLens 디바이스는 어떻게 처리해야 하나요?

Amazon 재활용 프로그램을 통해 AWS DeepLens 디바이스를 재활용할 것을 권장합니다. Amazon에서 배송 및 재활용과 관련된 비용을 부담합니다.

 

일반

Q: AWS DeepLens란 무엇입니까?

AWS DeepLens는 세계 최초로 딥 러닝이 지원되는 비디오카메라로서 모든 기술 수준의 개발자가 컴퓨터 비전 자습서, 예제 코드 및 사전에 구축된 모델을 통해 기계 학습 기술을 향상할 수 있습니다.

Q: AWS DeepLens와 시중에 나와 있는 다른 비디오카메라의 차이점은 무엇입니까?

AWS DeepLens는 세계 최초로 디바이스에서 기계 학습 모델을 실행하고 추론을 수행하도록 최적화된 비디오카메라입니다. 시작 시 10분 이내에 AWS DeepLens에 배포할 수 있는 샘플 프로젝트 6개가 함께 제공됩니다. 샘플 프로젝트를 있는 그대로 실행하거나, 다른 AWS 서비스에 연결하거나, Amazon Sagemaker에서 모델을 훈련한 후 AWS DeepLens에 배포하거나, 동작이 발생할 때 Lambda 함수를 트리거함으로써 기능을 확장할 수 있습니다. Amazon Rekognition을 사용하여 클라우드에서 고급 분석을 적용할 수도 있습니다. AWS DeepLens는 기계 학습 요건에 맞는 빌딩 블록을 제공합니다.

Q: 어떤 샘플 프로젝트가 제공되나요?

7개의 샘플 프로젝트가 제공됩니다.

1. Object Detection(객체 탐지)

2. Hot Dog Not Hot Dog(핫도그와 핫도그 아님)

3. Cat and Dog(고양이와 개)

4. Artistic Style Transfer(미술 양식 전환)

5. Activity Detection(행동 탐지)

6. Face Detection(얼굴 탐지)

7. Bird Classification(새 분류)

 

Q: AWS DeepLens에 Alexa가 포함되어 있습니까?

아니요. AWS DeepLens에서는 Alexa 또는 다른 원거리 오디오 기능을 제공하지 않습니다. 하지만 AWS DeepLens에는 추가 프로그래밍을 통해 사용자 지정 오디오 모델을 실행할 수 있는 2D 마이크 어레이가 장착되어 있습니다.

 

제품 세부 정보

Q: 이 디바이스의 제품 사양은 어떻게 됩니까?

  • 인텔 아톰® 프로세서
  • 9세대 그래픽
  • Ubuntu OS 16.04 LTS
  • 100GFLOPS 성능
  • 듀얼 밴드 Wi-Fi
  • 8GB RAM
  • 16GB 스토리지
  • microSD 카드로 확장 가능한 스토리지
  • MJPEG 지원 4MP 카메라
  • 1080p 해상도의 H.264 인코딩
  • USB 포트 2개
  • 마이크로 HDMI
  • 오디오 아웃
숨기기

Q: 내 디바이스 하단에 "v1.1"이라는 표시가 있는 이유는 무엇입니까?

AWS DeepLens(2019년 에디션)는 디바이스 하단에“v1.1”이라는 표시가 있습니다. AWS에서는 온보딩, 자습서 및 Intel Real Sense의 심도 센서와 같은 센서에 대한 추가적인 호환성 지원을 비롯하여 사용자 환경을 대폭 개선했습니다. 

이전 AWS DeepLens는 소프트웨어 업데이트를 통해 v1.1로 업그레이드할 수 없습니다. 간소화된 온보딩을 비롯한 일부 디바이스 수정 사항은 하드웨어 변경이 수반되었습니다.

 

Q: 이 디바이스에서 실행할 수 있는 딥 러닝 프레임워크에는 어떤 것이 있습니까?

AWS DeepLens(2019년 에디션)은 Apache MXNet, TensorFlow 및 Caffe에 최적화되어 있습니다. 

Q: AWS DeepLens에서는 어떤 성능을 기대할 수 있습니까?

성능은 초당 추론된 이미지와 지연 시간으로 측정됩니다. 모델이 다르면 초당 추론 수도 달라집니다. 추론 성능 기준선은 배치 크기 1에 대해 AlexNet의 경우 초당 이미지 14개이고 ResNet 50의 경우 초당 이미지 5개입니다. DeepLens가 연결된 네트워크의 특성이 지연 시간 성능을 결정합니다.


Q: AWS DeepLens에서 지원하는 MXNet 네트워크 아키텍처 계층에는 어떤 것이 있습니까?

AWS DeepLens에서는 20가지의 네트워크 아키텍처 계층을 지원합니다. 지원되는 계층은 다음과 같습니다.

  • Activation
  • BatchNorm
  • Concat
  • Convolution
  • elemwise_add
  • Pooling
  • Flatten
  • FullyConnected
  • InputLayer
  • UpSampling
  • Reshape
  • ScaleShift
  • SoftmaxActivation
  • SoftmaxOutput
  • transpose
  • _contrib_MultiBoxPrior
  • _contrib_MultiBoxDetection
  • _Plus
  • Deconvolution
  • _mul

시작하기

Q: 제품 구성품에는 어떤 것들이 있고 시작하려면 어떻게 해야 합니까?

상자 안에는 개발자를 위한 시작 안내서, AWS DeepLens 디바이스, 해당 지역용 전원 코드 및 어댑터, USB 케이블, 32GB microSD 카드가 들어 있습니다. DeepLens 디바이스 설정 및 구성은 AWS DeepLens 콘솔을 사용해 몇 분 만에 완료할 수 있으며 노트북 또는 PC에서 브라우저를 통해 디바이스를 구성할 수도 있습니다.

시작 과정을 안내하는 10분짜리 튜토리얼이 3개 있습니다.

1. 프로젝트 생성 및 배포
2. 프로젝트 확장
3. Amazon SageMaker로 AWS DeepLens 프로젝트 구축

 

Q: USB 포트 중 하나가 registration(등록)으로 표시되어 있는 이유는 무엇입니까?

AWS DeepLens(2019년 에디션)에서 registration(등록)으로 표시된 USB 포트는 온보딩 프로세스 중에 AWS DeepLens를 사용자의 AWS 계정에 등록하는 데 사용됩니다.

등록용 USB 포트는 슬레이브 포트로 구성되어 있습니다. 그러므로 이 포트는 키보드 또는 기타 마스터 포트 설정용으로 사용할 수 없습니다. 연결을 위해 더 많은 포터가 필요한 경우 USB 허브를 사용하는 것이 좋습니다. 

 

숨기기

Q: 디바이스에서 내 모델을 훈련할 수 있습니까?

아니요. AWS DeepLens는 훈련된 모델을 사용해 추론 또는 예측을 실행할 수 있습니다. 모델을 훈련하고 호스팅하는 기계 학습 플랫폼인 Amazon SageMaker에서 모델을 훈련할 수 있습니다. AWS DeepLens는 Amazon SageMaker의 훈련된 모델을 게시할 수 있도록 간단한 1-Click 배포 기능을 제공합니다.


Q: AWS DeepLens와 통합되는 AWS 서비스에는 어떤 것이 있습니까?

DeepLens는 AWS Greengrass, Amazon SageMaker 및 Amazon Kinesis Video Streams와 통합되도록 사전 구성되어 있습니다. AWS DeepLens를 사용해 Amazon S3, Amazon Lambda, Amazon Dynamo, Amazon Rekognition과 같은 다른 많은 AWS 서비스와 통합할 수 있습니다.


Q: SSH를 통해 AWS DeepLens에 액세스할 수 있습니까?

예. AWS에서는 사용이 간편하면서 고급 개발자도 사용할 수 있도록 AWS DeepLens를 설계했습니다. ssh aws_cam@ 명령을 사용하면 SSH를 통해 디바이스에 액세스할 수 있습니다.

 

Q: AWS DeepLens에서 지원하는 프로그래밍 언어에는 어떤 것이 있습니까?

Python 2.7에서 로컬로 카메라 데이터 스트림의 모델을 정의하고 실행할 수 있습니다.

Q: 모델을 실행하려면 인터넷에 연결되어 있어야 합니까?

인터넷에 연결하지 않고도 AWS DeepLens에 배포한 모델을 실행할 수 있습니다. 하지만 처음에 클라우드에서 디바이스로 모델을 배포하려면 인터넷이 필요합니다. 모델을 전송한 후에는 클라우드에 연결하지 않아도 AWS DeepLens에서 로컬로 디바이스에서 추론을 수행할 수 있습니다. 하지만 프로젝트에 클라우드와 상호 작용해야 하는 구성 요소가 있는 경우, 해당 구성 요소를 위해 인터넷을 연결해야 합니다.

Q: AWS DeepLens에서 자체 사용자 지정 모델을 실행할 수 있습니까?

예. 또한, AWS SageMaker 플랫폼을 사용해 데이터를 준비하고 호스팅된 노트북에서 모델을 훈련하여 자체 프로젝트를 처음부터 새로 생성할 수 있고, 그런 다음 훈련된 모델을 AWS DeepLens로 게시하여 테스트와 미세 조정을 수행할 수 있습니다. 모델 아키텍처와 네트워크 가중치 파일에 대한 S3 위치를 지정하여 외부에서 훈련한 모델을 AWS DeepLens로 가져올 수도 있습니다.