AWS Startup ブログ

Tag: The Next Smart

効率的にインテル® FPGA エッジデバイス上の深層学習推論を実行する

この記事は AWS APN Blog “Using Fewer Resources to Run Deep Learning Inference on Intel FPGA Edge Devices” の和訳です。 推論は機械学習における重要なステージで、トレーニング済みのモデルを用いてエンドユーザーに洞察を提供します。画像分類、物体検出、セマンティックセグメンテーションなどの予測タスクを実行するために、モデルがクラウドやエッジにデプロイされます。 しかし、消費電力量や放熱に制限があったり、低レイテンシーかつ高スループットといった要件がある場合、IoT コントローラーやゲートウェイなどのエッジデバイスで大規模な推論を実装することが難しくなる場合があります。 そういった課題を解決するには、ハードウェアとソフトウェアの両方の最適化が必要です。ハードウェアの観点からは、フィールド プログラマブル ゲート アレイ(FPGA) が選択肢にあがる場合があります。FPGA を使用すると、再構成可能な論理ブロックのハードウェアアクセラレーションの恩恵により、単位電力あたりの高いパフォーマンスと、低レイテンシー、柔軟性が得られます。 AWS IoT コンピテンシー を持つ AWS パートナーネットワーク (APN) アドバンストテクノロジーパートナーであるインテル は、豊富な FPGA ポートフォリオを提供しています。インテル® FPGAは、産業用や自動車用といった長い製品寿命と信頼性を必要とする分野で成功を収めています。 本ブログでは、画像分類用のニューラルネットワークをトレーニングし、インテル® FPGA ハードウェア向けに最適化されたバイナリに変換・デプロイする手順について説明します。お手元にデバイスをご用意頂けると、より一層お楽しみ頂けます (詳細は後述)。

Read More