終了日

Q: 終了日 (EOL) 以降、私の AWS DeepLens リソースはどうなりますか?

2024 年 1 月 31 日以降、AWS DeepLens のモデル、プロジェクト、デバイス情報への参照は、AWS DeepLens サービスからすべて削除されます。AWS コンソールから AWS DeepLens サービスを検出またはアクセスできなくなり、AWS DeepLens API を呼び出すアプリケーションも動作しなくなります。

Q: EOL 日以降にアカウントに残っている AWS DeepLens のリソースは請求されますか?

Amazon S3 バケット、AWS Lambda 関数、AWS IoT、AWS Identity and Access Management (IAM) ロールなど、AWS DeepLens によって作成されたリソースは、2024 年 1 月 31 日以降もそれぞれのサービス上に存在し続けます。AWS DeepLens がサポートされなくなった後に請求されないようにするには、これらのリソースを削除するための手順のすべてに従ってください。

Q: AWS DeepLens のリソースを削除するにはどうすればよいですか?

AWS DeepLens が使用するリソースを削除し、AWS DeepLens デバイスを工場出荷時の設定に復元する方法については、「AWS DeepLens デバイスのリソースを削除する」を参照してください。

Q: AWS DeepLens のプロジェクトは、EOL (End of Life) 日以降に展開することは可能ですか?

2024 年 1 月 31 日まで AWS DeepLens プロジェクトを展開することができます。この日を過ぎると、AWS DeepLens コンソールや API にアクセスできなくなり、AWS DeepLens API を呼び出すアプリケーションは動作しなくなります。

Q: 私の AWS DeepLens デバイスは、セキュリティのアップデートを受け続けることができますか?

AWS DeepLens は 2024 年 1 月 31 日以降、更新されません。AWS DeepLens デバイスに展開された一部のアプリケーションは EOL 日以降も動作する可能性がありますが、AWS はAWS DeepLens ソフトウェアまたはハードウェアに起因する問題に関連する救済措置を提供せず、責任を負わないものとします。

 

Q: AWS AI/ML を継続して実践的な体験をするにはどうすればよいですか?

他の実践的な機械学習ツールをお試しいただくことをお勧めします。AWS DeepRacer は、クラウドベースの 3D レーシングシミュレータを使用して、1/18 スケールの自律走行レーシングカー用の強化学習モデルを作成します。Amazon SageMaker Studio Lab は、セットアップ不要の無料開発環境で、学び、実験することができます。Amazon Rekognition で画像やビデオの解析を自動化したり、AWS Panorama を使用してエッジでのコンピュータビジョンでオペレーションを改善することができます。

 

Q: AWS DeepLens のデバイスはどうすればいいのでしょうか?

AWS DeepLens デバイスは、Amazon リサイクルプログラムを通じてリサイクルされることをお勧めします。送料やリサイクルに関する費用はアマゾンが負担します。

 

全般

Q: AWS DeepLens とは何ですか?

AWS DeepLens は世界初の深層学習対応ビデオカメラで、実践的なコンピュータビジョンのチュートリアル、コード例、事前構築されたモデルを通じて、あらゆるスキルレベルの開発者が機械学習のスキルを高めるためのものです。

Q: AWS DeepLens と、市場の他のビデオカメラとの違いは何ですか?

AWS DeepLens は、機械学習モデルを実行し、デバイスで推論を実行するために最適化された世界初のビデオカメラです。リリース時点で、AWS DeepLens には 10 分未満で AWS DeepLens にデプロイできる 6 つのサンプルプロジェクトが提供されています。サンプルプロジェクトをそのままの状態で実行する、サンプルプロジェクトを AWS の他のサービスと接続する、Amazon SageMaker でモデルを訓練して AWS DeepLens にデプロイする、または何かの動作が発生した時に Lambda 関数をトリガーすることで機能を拡張することができます。Amazon Rekognition を使用して、クラウドでさらに高度な分析を適用することも可能です。AWS DeepLens には機械学習のニーズに欠かせない要素を提供します。

Q: どのようなサンプルプロジェクトを利用できますか?

以下の 7 つのサンプルプロジェクトをご利用いただけます。

1.物体検出

2.ホットドック認識

3.猫と犬

4.画風変換

5.アクティビティ検出

6.顔検知

7.鳥の分類

 

Q: AWS DeepLens に Alexa は含まれていますか?

いいえ。AWS DeepLens には Alexa、またはその他遠隔音声機能は含まれていませんが、AWS DeepLens には、必要な追加のプログラミングを行うことでカスタム音声モデルを実行することができる 2D マイクアレイが搭載されています。

 

製品の詳細

Q: デバイスの製品仕様を教えてください。

  • Intel Atom® プロセッサ
  • Gen9 グラフィック
  • Ubuntu OS 16.04 LTS
  • 100 GFLOPS のパフォーマンス
  • デュアルバンド Wi-Fi
  • 8 GB RAM
  • 16GB のストレージ
  • microSD カードによる拡張が可能なストレージ
  • MJPEG 対応の 4 MP カメラ
  • 1080p 解像度での H.264 エンコーディング
  • USB ポート 2 個
  • Micro HDMI
  • オーディオ出力
折りたたむ

Q: デバイスの底部に「v1.1」というマークが付いているのはなぜですか?

AWS DeepLens (2019 年版) には、デバイスの底部に「v1.1」というマークが付いています。AWS では、オンボーディング、チュートリアル、および Intel Real Sense の深度センサーといった追加のセンサー互換性サポートなど、ユーザーエクスペリエンスを大幅に向上させました。 

ソフトウェア更新でオリジナルの AWS DeepLens を v1.1 にアップグレードすることはできません。シンプル化されたオンボーディングを含むデバイスの変更の一部は、ハードウェアの変更です。

 

Q: デバイス上でどのような深層学習フレームワークを実行できますか?

AWS DeepLens (2019 年版) は、Apache MXNet、TensorFlow、および Caffe 向けに最適化されています。 

Q: AWS DeepLens ではどのようなパフォーマンスを期待できますか?

パフォーマンスは、推論が行われる画像の 1 秒あたりの数と、レイテンシーで測定されます。1 秒あたりの推論は、モデルに応じて異なります。推論のベースラインパフォーマンスは、バッチサイズ 1 について AlexNet で 14 画像/秒、ResNet 50 で 5 画像/秒です。レイテンシーパフォーマンスは、DeepLens が接続されるネットワークの特性に左右されます。


Q: AWS DeepLens ではどのような MXNet ネットワークアーキテクチャレイヤーがサポートされていますか?

AWS DeepLens では、20 の異なるネットワークアーキテクチャレイヤーがサポートされています。サポートされているレイヤーは以下のとおりです。

  • Activation
  • BatchNorm
  • Concat
  • Convolution
  • elemwise_add
  • Pooling
  • Flatten
  • FullyConnected
  • InputLayer
  • UpSampling
  • Reshape
  • ScaleShift
  • SoftmaxActivation
  • SoftmaxOutput
  • transpose
  • _contrib_MultiBoxPrior
  • _contrib_MultiBoxDetection
  • _Plus
  • Deconvolution
  • _mul

開始方法

Q: 箱には何が同梱されていて、どのように使用を開始できますか?

箱の中には、入門ガイド、AWS DeepLens デバイス、地域固有の電源コードとアダプタ、USB ケーブル、および 32GB microSD カードが同梱されています。DeepLens デバイスのセットアップと設定は、AWS DeepLens コンソールを使用する、およびラップトップまたは PC のブラウザを通じてデバイスを設定することによって、数分で行うことができます。

使用の開始に役立つように設計された次の 10 分間のチュートリアルを 3 つご用意しています。

1.プロジェクトの作成とデプロイメント
2.プロジェクトの拡張
3.Amazon SageMaker を使った AWS DeepLens プロジェクトの構築

 

Q: USB ポートに「registration」というマークが付いているのはなぜですか?

AWS DeepLens (2019 年版) では、AWS DeepLens をお使いの AWS アカウントに登録するためのオンボーディングプロセス中に「registration」というマークが付いた USB ポートを使用します。

登録用の USB ポートは、スレーブポートとして設定されているため、キーボード、またはその他のマスターポートのセットアップには使用できません。接続用により多くのポートが必要な場合は、USB ハブの使用をお勧めします。 

 

折りたたむ

Q: デバイスでモデルをトレーニングできますか?

いいえ。AWS DeepLens では、訓練済みのモデルを使用した推論または予測を実行できます。モデルは、モデルを訓練してホストする機械学習プラットフォーム、Amazon SageMaker で訓練できます。AWS DeepLens には、訓練されたモデルを Amazon SageMaker からパブリッシュするためのシンプルな 1-Click デプロイ機能があります。


Q: AWS DeepLens には AWS のどのサービスが統合されていますか?

DeepLens は、AWS Greengrass、Amazon SageMaker、および Amazon Kinesis Video Streams との統合のために事前設定されています。AWS DeepLens を使用して、Amazon S3、Amazon Lambda、Amazon Dynamo、Amazon Rekognition など、AWS のその他多くのサービスと統合させることができます。


Q: AWS DeepLens に SSH で接続できますか?

はい。AWS DeepLens は簡単に使用できるように設計されていますが、上級の開発者が利用できるようにも設計されています。デバイスには、ssh aws_cam@ コマンドを使用して SSH 接続できます。

 

Q: AWS DeepLens ではどのプログラミング言語がサポートされていますか?

Python 2.7 を使って、カメラのデータストリーム上のモデルをローカルで定義および実行できます。

Q: モデルを実行するにはインターネットに接続されている必要がありますか?

いいえ。AWS DeepLens にデプロイしたモデルは、インターネットに接続することなく実行できますが、最初にクラウドからデバイスにモデルをデプロイするときはインターネットが必要です。モデルを転送したら、AWS DeepLens は、クラウドへの接続を必要することなくデバイス上でローカルに推論を実行できます。ただし、クラウドとのやり取りを必要とするコンポーネントがプロジェクト内にある場合は、それらのコンポーネントのためにインターネットが必要になります。

Q: 独自のカスタムモデルを AWS DeepLens で実行できますか?

はい。ホストされたノートブックを用いたデータの準備とモデルの訓練を行うために AWS SageMaker プラットフォームを使用して独自のプロジェクトを一から作成し、その後、テストと微調整のために訓練したモデルを AWS DeepLens にパブリッシュすることもできます。また、モデルアーキテクチャファイルとネットワークの重みファイルのために S3 ロケーションを指定することにより、外部で訓練したモデルを AWS DeepLens にインポートすることも可能です。