AWS Startup ブログ

Tag: Deep Learning

効率的にインテル® FPGA エッジデバイス上の深層学習推論を実行する

この記事は AWS APN Blog “Using Fewer Resources to Run Deep Learning Inference on Intel FPGA Edge Devices” の和訳です。 推論は機械学習における重要なステージで、トレーニング済みのモデルを用いてエンドユーザーに洞察を提供します。画像分類、物体検出、セマンティックセグメンテーションなどの予測タスクを実行するために、モデルがクラウドやエッジにデプロイされます。 しかし、消費電力量や放熱に制限があったり、低レイテンシーかつ高スループットといった要件がある場合、IoT コントローラーやゲートウェイなどのエッジデバイスで大規模な推論を実装することが難しくなる場合があります。 そういった課題を解決するには、ハードウェアとソフトウェアの両方の最適化が必要です。ハードウェアの観点からは、フィールド プログラマブル ゲート アレイ(FPGA) が選択肢にあがる場合があります。FPGA を使用すると、再構成可能な論理ブロックのハードウェアアクセラレーションの恩恵により、単位電力あたりの高いパフォーマンスと、低レイテンシー、柔軟性が得られます。 AWS IoT コンピテンシー を持つ AWS パートナーネットワーク (APN) アドバンストテクノロジーパートナーであるインテル は、豊富な FPGA ポートフォリオを提供しています。インテル® FPGAは、産業用や自動車用といった長い製品寿命と信頼性を必要とする分野で成功を収めています。 本ブログでは、画像分類用のニューラルネットワークをトレーニングし、インテル® FPGA ハードウェア向けに最適化されたバイナリに変換・デプロイする手順について説明します。お手元にデバイスをご用意頂けると、より一層お楽しみ頂けます (詳細は後述)。

Read More

【開催報告&資料公開】ML@Loft #9 Deep Learning フレームワークと推論

こんにちは、AWS ソリューションアーキテクトの辻です。第9回目の ML@Loft は Deep Learning フレームワークと推論をテーマに12月に開催しました。 ML@Loft は機械学習のお悩み相談イベントで、目黒の AWS Loft Tokyo で2019年4月より毎月開催しています。AWS をお使いのお客様がサービスの中に機械学習を取り入れて開発・運用していく際のお悩みを相談できる場が欲しい、ということで始まったコミュニティイベントです。登壇者(相談役)が自己紹介を兼ねた10分ほどの Lighting Talk (LT) を順番に行った後、テーブルに分かれて具体的な相談・ディスカッションを行う、という二部構成で開催されています。過去の様子は登壇者のスライド付きでブログにまとまっています。 毎回登壇者の希望をもとにテーマを決めており、第9回となる今回のテーマは「Deep Learning フレームワークと推論」です。今回登壇・相談役をお願いしたのは 梅澤 慶介 氏(chug (Chainer User Group))、瀬尾 直利 氏(株式会社ZOZOテクノロジーズ)、三條 智史 氏(クックパッド株式会社研究開発部)、松岡 玲音 氏(株式会社メルカリ AIチーム)の四名です。当日の流れに沿って内容を振り返りたいと思います。

Read More