全般

Q: AWS DeepLens とは何ですか?

AWS DeepLens は世界初の深層学習対応ビデオカメラで、実践的なコンピュータビジョンのチュートリアル、コード例、事前構築されたモデルを通じて、あらゆるスキルレベルの開発者が機械学習のスキルを高めるためのものです。

Q: AWS DeepLens (2019 年版) とは何ですか?

AWS DeepLens (2019 年版) は、米国、カナダ、英国、ドイツ、フランス、スペイン、イタリア、および日本のお客様にご利用いただけます。AWS DeepLens (2019 年版) では、使用経験全体における改善を行いました。デバイスのセットアップがより簡単になり、開発者はさらに迅速に機械学習を開始することができるようになりました。SageMaker Neo での最適化により、多くの ML モデルがデバイスで 2 倍速く実行されます。

デバイスの改善に加えて、AWS DeepLens を使った ML の学習を楽しくするために役立つ新しい教育コンテンツがすべてのコンソールユーザーに提供されています。これには、作業員の安全の監視、センチメント分析の実行、オフィスでのコーヒー摂取量の追跡など、興味深いユースケースのために ML アプリケーションを構築するガイド付きの手順も含まれます。

Q: AWS DeepLens と、市場の他のビデオカメラとの違いは何ですか?

AWS DeepLens は、機械学習モデルを実行し、デバイスで推論を実行するために最適化された世界初のビデオカメラです。リリース時点で、AWS DeepLens には 10 分未満で AWS DeepLens にデプロイできる 6 つのサンプルプロジェクトが提供されています。サンプルプロジェクトをそのままの状態で実行する、サンプルプロジェクトを AWS の他のサービスと接続する、Amazon SageMaker でモデルを訓練して AWS DeepLens にデプロイする、または何かの動作が発生した時に Lambda 関数をトリガーすることで機能を拡張することができます。Amazon Rekognition を使用して、クラウドでさらに高度な分析を適用することも可能です。AWS DeepLens には機械学習のニーズに欠かせない要素を提供します。

Q: どのようなサンプルプロジェクトを利用できますか?

7 つのサンプルプロジェクトをご利用いただけます。AWS では、ユーザーのフィードバックに基づいて、開発者が使用し、学習できる実用的で楽しいプロジェクトを引き続き公開していく予定です。7 つのサンプルプロジェクトは以下のとおりです。

1.物体検出

2.ホットドック認識

3.猫と犬

4.画風変換

5.アクティビティ検出

6.顔検知

7.鳥の分類

 

Q: AWS DeepLens はどの地理的地域で利用できますか?

AWS DeepLens (2019 年版) は、米国、ドイツ、フランス、イタリア、スペイン、英国、日本、およびカナダでご利用いただけます。

 

Q: AWS DeepLens に Alexa は含まれていますか?

いいえ。AWS DeepLens には Alexa、またはその他遠隔音声機能は含まれていませんが、AWS DeepLens には、必要な追加のプログラミングを行うことでカスタム音声モデルを実行することができる 2D マイクアレイが搭載されています。

 

Q: AWS DeepLens はどのように入手できますか?

AWS DeepLens (2019 年版) は現在、カナダ、ヨーロッパ、および日本の開発者の皆さまのために、Amazon.ca、Amazon.de、Amazon.es、Amazon.fr、Amazon.it、Amazon.co.jp、および Amazon.co.uk の各ウェブサイトを通じて予約受け付け中です。

 

Q: AWS DeepLens コンソールはどのリージョンで利用できるようになりますか?

AWS DeepLens は、us- east-1 (バージニア北部)、eu-central-1 (フランクフルト) および ap-northeast-1 (東京) でご利用いただけるようになります。

 

製品の詳細

Q: デバイスの製品仕様を教えてください。

  • Intel Atom® プロセッサ
  • Gen9 グラフィック
  • Ubuntu OS 16.04 LTS
  • 100 GFLOPS のパフォーマンス
  • デュアルバンド Wi-Fi
  • 8 GB RAM
  • 16GB のストレージ
  • microSD カードによる拡張が可能なストレージ
  • MJPEG 対応の 4 MP カメラ
  • 1080p 解像度での H.264 エンコーディング
  • USB ポート 2 個
  • Micro HDMI
  • オーディオ出力
折りたたむ

Q: デバイスの底部に「v1.1」というマークが付いているのはなぜですか?

AWS DeepLens (2019 年版) には、デバイスの底部に「v1.1」というマークが付いています。AWS では、オンボーディング、チュートリアル、および Intel Real Sense の深度センサーといった追加のセンサー互換性サポートなど、ユーザーエクスペリエンスを大幅に向上させました。 

ソフトウェア更新でオリジナルの AWS DeepLens を v1.1 にアップグレードすることはできません。シンプル化されたオンボーディングを含むデバイスの変更の一部は、ハードウェアの変更です。

 

Q: デバイス上でどのような深層学習フレームワークを実行できますか?

AWS DeepLens (2019 年版) は、Apache MXNet、TensorFlow、および Caffe 向けに最適化されています。 

Q: AWS DeepLens ではどのようなパフォーマンスを期待できますか?

パフォーマンスは、推論が行われる画像の 1 秒あたりの数と、レイテンシーで測定されます。1 秒あたりの推論は、モデルに応じて異なります。推論のベースラインパフォーマンスは、バッチサイズ 1 について AlexNet で 14 画像/秒、ResNet 50 で 5 画像/秒です。レイテンシーパフォーマンスは、DeepLens が接続されるネットワークの特性に左右されます。


Q: AWS DeepLens ではどのような MXNet ネットワークアーキテクチャレイヤーがサポートされていますか?

AWS DeepLens では、20 の異なるネットワークアーキテクチャレイヤーがサポートされています。サポートされているレイヤーは以下のとおりです。

  • Activation
  • BatchNorm
  • Concat
  • Convolution
  • elemwise_add
  • Pooling
  • Flatten
  • FullyConnected
  • InputLayer
  • UpSampling
  • Reshape
  • ScaleShift
  • SoftmaxActivation
  • SoftmaxOutput
  • transpose
  • _contrib_MultiBoxPrior
  • _contrib_MultiBoxDetection
  • _Plus
  • Deconvolution
  • _mul

開始方法

Q: 箱には何が同梱されていて、どのように使用を開始できますか?

箱の中には、入門ガイド、AWS DeepLens デバイス、地域固有の電源コードとアダプタ、USB ケーブル、および 32GB microSD カードが同梱されています。DeepLens デバイスのセットアップと設定は、AWS DeepLens コンソールを使用する、およびラップトップまたは PC のブラウザを通じてデバイスを設定することによって、数分で行うことができます。

使用の開始に役立つように設計された次の 10 分間のチュートリアルを 3 つご用意しています。

1.プロジェクトの作成とデプロイメント
2.プロジェクトの拡張
3.Amazon SageMaker を使った AWS DeepLens プロジェクトの構築

 

Q: USB ポートに「registration」というマークが付いているのはなぜですか?

AWS DeepLens (2019 年版) では、AWS DeepLens をお使いの AWS アカウントに登録するためのオンボーディングプロセス中に「registration」というマークが付いた USB ポートを使用します。

登録用の USB ポートは、スレーブポートとして設定されているため、キーボード、またはその他のマスターポートのセットアップには使用できません。接続用により多くのポートが必要な場合は、USB ハブの使用をお勧めします。 

 

折りたたむ

Q: デバイスでモデルをトレーニングできますか?

いいえ。AWS DeepLens では、訓練済みのモデルを使用した推論または予測を実行できます。モデルは、モデルを訓練してホストする機械学習プラットフォーム、Amazon SageMaker で訓練できます。AWS DeepLens には、訓練されたモデルを Amazon SageMaker からパブリッシュするためのシンプルな 1-Click デプロイ機能があります。


Q: AWS DeepLens には AWS のどのサービスが統合されていますか?

DeepLens は、AWS Greengrass、Amazon SageMaker、および Amazon Kinesis Video Streams との統合のために事前設定されています。AWS DeepLens を使用して、Amazon S3、Amazon Lambda、Amazon Dynamo、Amazon Rekognition など、AWS のその他多くのサービスと統合させることができます。


Q: AWS DeepLens に SSH で接続できますか?

はい。AWS DeepLens は簡単に使用できるように設計されていますが、上級の開発者が利用できるようにも設計されています。デバイスには、ssh aws_cam@ コマンドを使用して SSH 接続できます。

 

Q: AWS DeepLens ではどのプログラミング言語がサポートされていますか?

Python 2.7 を使って、カメラのデータストリーム上のモデルをローカルで定義および実行できます。

Q: モデルを実行するにはインターネットに接続されている必要がありますか?

いいえ。AWS DeepLens にデプロイしたモデルは、インターネットに接続することなく実行できますが、最初にクラウドからデバイスにモデルをデプロイするときはインターネットが必要です。モデルを転送したら、AWS DeepLens は、クラウドへの接続を必要することなくデバイス上でローカルに推論を実行できます。ただし、クラウドとのやり取りを必要とするコンポーネントがプロジェクト内にある場合は、それらのコンポーネントのためにインターネットが必要になります。

Q: 独自のカスタムモデルを AWS DeepLens で実行できますか?

はい。ホストされたノートブックを用いたデータの準備とモデルの訓練を行うために AWS SageMaker プラットフォームを使用して独自のプロジェクトを一から作成し、その後、テストと微調整のために訓練したモデルを AWS DeepLens にパブリッシュすることもできます。また、モデルアーキテクチャファイルとネットワークの重みファイルのために S3 ロケーションを指定することにより、外部で訓練したモデルを AWS DeepLens にインポートすることも可能です。


Q: デバイスの底部に「v1.1」というマークが付いているのはなぜですか?

AWS DeepLens (2019 年版) には、デバイスの底部に「v1.1」というマークが付いています。AWS では、オンボーディング、チュートリアル、および Intel Real Sense の深度センサーといった追加のセンサー互換性サポートなど、ユーザーエクスペリエンスを大幅に向上させました。 

 

折りたたむ

Q: AWS DeepLens (2019 年版) とは何ですか?

AWS DeepLens (2019 年版) には、開発者が機械学習を迅速に開始することができる最適化されたオンボーディングプロセス、入力パラメータとして視覚だけでなく、深度も活用することでより精度の高い高度な機械学習モデルの構築を可能にする Intel® RealSense™ の深度センサーのサポート、およびさらに高速なコンピューティング速度を求める開発者のための Intel® Movidius™ Neural Compute Stick のサポートが備わっています。AWS DeepLens (2019 年版) には、モデルを一度訓練したら、それらを最大 2 倍のパフォーマンスで実行できる Amazon SageMaker Neo も統合されています。

デバイス面での改善に加えて、AWS DeepLens を使った ML の学習を楽しくするために役立つ新しいコンテンツにも投資しました。これには、作業員の安全、センチメント分析、誰が一番コーヒーを飲むかなど、興味深いユースケースのための ML アプリケーションを構築するガイド付きの手順が含まれます。

これらすべての機能強化は、米国、ドイツ、フランス、イタリア、スペイン、英国、日本、およびカナダでご利用いただけます。