Amazon Web Services ブログ

Category: AWS Deep Learning AMIs

AWS Deep Learning AMI に Horovod が追加され、Amazon EC2 P3 インスタンスで、より高速なマルチ GPU TensorFlow のトレーニングが可能に

この AWS Deep Learning AMI は、よく普及しているオープンソースの分散トレーニングフレームワークで、複数 GPU で TensorFlow トレーニングを拡張します。Ubuntu や Amazon Linux 用で、 Horovod といっしょにインストールおよび全設定が完了済みです。 これは、 TensorFlow 1.8 の最適化ビルドのアップデート版で、5 月初旬に開始されました。 このカスタムビルドの TensorFlow 1.8 は、高度に最適化されたソースから直接構築され、Amazon EC2 C5 および P3 インスタンスのストック TensorFlow 1.8 と比較して、トレーニングパフォーマンスが向上しています。 マシンラーニングの開発者は、AMI に Horovod を追加すれば、TensorFlow トレーニングを P3 などの Amazon EC2 GPU インスタンス上で、1 つの GPU から複数の GPU にすばやくスケールアップすることが可能となり、トレーニングパフォーマンスをさらに向上させることができます。 開発者は、パラメーターサーバーを使用する標準の TensorFlow 分散トレーニングモデルと比較して、コードの変更を少なくし、より高いマルチ GPU トレーニングパフォーマンスが可能となります。 Amazon […]

Read More

Amazon EC2 インスタンスでのより高いパフォーマンスのために最適化された Chainer 4 と Microsoft Cognitive Toolkit (CNTK) 2.5.1

AWS Deep Learning AMIs for Ubuntu および Amazon Linux に、Amazon EC2 インスタンスでのより高いパフォーマンスのために最適化された Chainer 4 と Microsoft Cognitive Toolkit (CNTK) 2.5.1 が付属します。AMI はまた、5 つの追加リージョンでも利用できるようになり、対応の AWS リージョンが 16 か所に拡大します。 Chainer 4 で深層学習を加速する この AMI にはアマゾンの コンピューティング最適化 C インスタンスをサポートするインテルアーキテクチャのコンボリューションや ReLU (rectified linear units) ルーチンといった深層学習処理を加速するために構成された Intel’s Deep Learning Extension Package (iDeep) 搭載の Chainer 4 が付属します。 たとえば、開発者は CPU 専用の EC2 […]

Read More

Amazon EC2 C5 および P3 インスタンスで、最適化された TensorFlow 1.6 により、高速なトレーニングを実行する

AWS Deep Learning AMI には、別々の仮想環境にプリインストールされた、よく使われるディープラーニングフレームワークの最新の pip パッケージが付属しています。それで開発者は、すぐにディープラーニングモデルのトレーニングを始めることができます。Ubuntu および Amazon Linux 向けの、ディープラーニング AMI の新しいバージョンには、Amazon EC2 インスタンスファミリー全体にわたってハイパフォーマンスのトレーニングを行えるように高度な最適化を施して構築された、TensorFlow 1.6 が付属するようになりました。 Amazon EC2 C5 インスタンスでの高速なトレーニング AMI には、インテルの Advanced Vector Instruction (AVX、AVX-2 および AVX-512) で構築された TensorFlow 1.6 が付属しており、Amazon EC2 C5 インスタンスで用いられている Intel Xeon Platinum プロセッサでのベクタ-および浮動小数点演算の性能を向上させています。AMI には、 十分な設定が施された、インテルのディープニューラルネットワーク向け Math Kernel Library (Intel MKL-DNN) も付属します。これは、ディープニューラルネットワークのトレーニングで使用される数学ルーチンを CPU で加速するためのものです。c5.18xlarge インスタンスタイプ上で、合成 ImageNet データセットに対し、当社の最適化された TensorFlow 1.6 […]

Read More

AWS Deep Learning AMI に、最適化された TensorFlow 1.7 が追加され、Amazon EC2 C5 および P3 インスタンスでの高速なトレーニングが可能に

Ubuntu および Amazon Linux 用の AWS Deep Learning AMI に、TensorFlow 1.7 に合わせた高度な最適化が提供され、Amazon EC2 インスタンスファミリ全体で高性能なトレーニングを提供できるようになりました。これは 3 月下旬に開始した TensorFlow 1.6 の最適化されたビルドの更新です。 最適化された TensorFlow 1.7 で、トレーニングをより高速に Amazon Machine Images (AMI) に、インテルの高度ベクトル命令 (AVX)、SSE、FMA 命令セットを備えた TensorFlow 1.7 ビルドが追加されました。AMI は、インテルの深層ニューラルネットワーク用数学カーネルライブラリ (Intel MKL-DNN) で完全に構成されており、インテル Xeon Platinum プロセッサ搭載の Amazon EC2 C5 インスタンスで高性能なトレーニングを提供できるようになりました。合成 ImageNet データセットによる ResNet-50 ベンチマークのトレーニングは、c5.18xlarge のインスタンスタイプでの最適化されたビルドを使用する、ストック TensorFlow 1.7 バイナリでのトレーニングよりも 9.8 倍高速でした。 また、AMI […]

Read More

AWS 深層学習 AMI は現在、Chainer と最新バージョンの PyTorch と Apache MXNet をサポートしています

AWS 深層学習 AMI は、完全に設定された環境を提供するため、人工知能 (AI) の開発者とデータ科学者はすぐに深層学習モデルを使い始めることができます。Amazon Machine Images (AMI) には、柔軟で直感的な深層学習 (ディープラーニング) のフレームワークである Chainer (v3.4.0) のみならず、最新バージョンの Apache MXNet と PyTorch を含みます。 Chainer の Define by Run アプローチにより、開発者はトレーニング中にすぐに計算グラフを変更することができるようになります。これは、シーケンスからシーケンスへの翻訳や質疑応答システムなど、自然言語処理 (NLP) タスクに使用されるリカレントニューラルネットワーク (RNN) などのダイナミックニューラルネットワークを実装する上でより大きな柔軟性を与えます。Chainer は、Amazon EC2 P3 インスタンスに搭載されている NVIDIA Volta GPU の計算処理を加速するための NVDIA CUDA 9 と cuDNN 7 ドライバーを使う CuPy を利用するように設定されています。当社のステップバイステップのチュートリアルを使用して、Chainerをすぐに使い始めることができます。 Ubuntu と Amazon Linux に対応している深層学習AMI は、各深層学習フレームワークの公式な最新バージョンのビルド済pipバイナリを、Condaベースの仮想環境で分離して提供します。各フレームワークは、サポートする NVIDIA CUDA […]

Read More

AWS 深層学習 AMI は TensorFlow と Microsoft Cognitive ツールキット用の Volta GPU に対するより高速のトレーニングを提供します

Ubuntu と Amazon Linux の AWS 深層学習 AMI に最新バージョンの TensorFlow (1.5) と Microsoft Cognitive ツールキット (2.4) が含まれます。 これらのフレームワークは、NVIDIA CUDA 9 と cuDNN 7 ドライバーのサポートを提供します。これにより、ユーザーは Amazon EC2 P3 インスタンスに対応する V100 Volta GPU によりサポートされる複合精度のトレーニングを利用できるようになります。当社の Volta における TensorFlow 1.5 のテストでは、ResNet-50 ベンチマークを合成 ImageNet データを使って FP16 モードの p3.8xlarge インスタンスでトレーニングすると、TensorFlow 1.4.1 でのトレーニングよりも 1.8 倍高速になりました。 深層学習フレームワークの最新の更新 深層学習 AMI は、個別のConda ベースの仮想環境で、深層学習フレームワークの最新の正式バージョンに対して、事前構築された pip バイナリを提供します。 […]

Read More

Zocdoc は AWS で TensorFlow を使用し患者の信頼を築きます

ヘルスケア産業は複雑です。近年の調査では、半数以上のアメリカ人は、保険の取扱い範囲を理解するのが困難だと感じており、4 分の 3 のアメリカ人は医者が保険ネットワーク内にいるかどうかをもっと容易に確認する方法を望んでいます。 Zocdoc は、患者がこの迷路の中で行く方向を明らかにしていき、医療を受ける必要のある人に、より多くの情報に基づいた選択肢を与え、ニーズに合わせたケアを見つけることができるようにする上で役立ちます。AWS の深層学習は、Zocdoc の使命の核心部分にあり、患者を支援するために医療データを最適化するものです。TensorFlow の深層学習フレームワークを使用して構築されたアルゴリズムにより、Zocdoc は患者と医師をより効率的に照合します。全国平均では、新しい患者の待ち時間が平均 24 日であるのに対し、患者は 24 時間以内に予約を取ることができます。 「当社は、ヘルスケア分野で消費者に対応する企業として、患者のエクスペリエンスを改善するために、データ指向のイノベーションをもたらそうという熱意をもっています。当社の検索プロセスでは、複数のアルゴリズムを使用して患者の意図を解析し、患者のニーズを適切な専門家と照合させています」と Zocdoc の CTO Serkan Kutan は述べています。 深層学習による検索エクスペリエンス Zocdoc の Insurance Checker では、患者は健康保険カードの写真を撮ることのみが必要です。このシステムは、深層学習をベースにしたコンピュータービジョンを使用して ID カードをスキャンし、正しいポリシー ID 情報を抽出します。Zocdoc のエンジニアリングチームとデータサイエンスチームは、さまざまな種類の ID カードを解読するのが困難であるという課題に直面しましたが、AWS のクラウドベースの GPU サーバーを使用して、わずか 1 日でニューラルネットワークの PoC(実証支援)を作成することができました。 Insurance Checker は、会員 ID 情報を抽出した後、患者の健康保険付保範囲をリアルタイムで確認し、ネットワーク内の保険給付と、予測される自己負担金を確認します。 患者が自分の健康保険付保範囲を理解している場合でも、何週間も予約待ちをしている患者と、より速く予約が取れる意思の間でのミスマッチが起こることがよくあります。Zocdoc は、患者を適切でネットワーク内の予約可能な医師と照合する、機械学習をベースにしたデジタルのヘルスマーケットプレイスを提供します。 Zocdoc のデータサイエンスダイレクター、Brian D’Alessandro は次のように述べています。「当社では、深層学習を利用して、保険カードの画像を保険会社とプランに分類し、主要テキストフィールドを抽出して読み込み、患者が付保範囲を把握し、最も適切な医者を見つける支援をしています。」 詳しい背景情報 Zocdoc は、その識別と照合システムのために TensorFlow […]

Read More

AWS Deep Learning AMI に TensorFlow 1.5 と新しい Model Serving 機能が追加されました

AWS Deep Learning AMI は、機械学習を迅速かつ簡単に開始する支援となります。AMI には、機械学習の実践者の多様なニーズに応えるさまざまなプレビルドのオプションが含まれています。ディープラーニングのフレームワークの最新バージョンをご希望の方には、Deep Learning AMI は、別々の Conda ベースの仮想環境にインストールされたプレビルドのピップバイナリを提供します。高度なフレームワーク機能をテストしたり、フレームワークのソースコードを調整したりするのをお求めの方のために、ソースコード付きの Deep Learning AMI では、ソースからフレームワークのカスタムインストールを提供します。これらはしばしば、ストックバイナリでは利用できない高度な最適化でビルドされます。 Volta GPU での TensorFlow によるより速いトレーニング ソースコード付き AMI には、TensorFlow 1.5.0-rc1 が付属します。このプレリリースバージョンの TensorFlow は、EC2 P3 インスタンスに電力を供給する V100 Volta GPU を利用する NVidia CUDA 9 および cuDNN 7 ドライバをサポートします。当社のテストでは、ResNet-50 ベンチマークを合成 ImageNet データで fp-16 モードで p3.8xlarge インスタンスでトレーニングすると、TensorFlow 1.4.1 でのトレーニングよりも 1.8 倍高速になりました。これはプレリリースバージョンであるため、本番環境で使用する前にテストしてください。 Ubuntu と Amazon Linux […]

Read More

4 つの新しいリージョン (北京、フランクフルト、シンガポール、ムンバイ) で AWS Deep Learning AMI の提供を開始

Sinnet が運用する中国 (北京)、欧州 (フランクフルト)、アジアパシフィック (シンガポール)、アジアパシフィック (ムンバイ) の 4 つの新しいリージョンで AWS Deep Learning AMI を利用できるようになりました。 Amazon マシンイメージ (AMI) は Machine Learning ユーザーがディープラーニングモデルをすぐ使い始められるようにするためのインフラストラクチャとツールを提供しています。AMI には Apache MXNet、Gluon、TensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Pytorch、Keras といった人気のディープラーニングフレームワークのパッケージが組み込まれています。また、開発とモデルトレーニングを効率良く進めるため、AMI は NVIDIA CUDA と cuDNN ドライバーで事前設定されており Amazon EC2 の P2 インスタンスや P3 インスタンスにおける GPU 加速に対し最適化されています。 ディープラーニングでビジネス価値を推進 企業は多種多様なチャレンジに取り組む方法としてディープラーニングに注目しています。たとえば、メディア業界の大物である Condé Nast は顧客をより理解できるようにするため、オンラインコンテンツのモニタリングにコンピュータビジョンと自然言語処理を使用しています。自動運転テクノロジーのリーダー的な存在である TuSimple は、運転のシミュレーションの実行や自動運転システムのトレーニングにディープラーニングアルゴリズムを使用しています。インターネットで食品配送サービスを提供する Instacart は、何千人もの買い物代行者が顧客の買い物履歴を介してより効率的にショッピングを行うためにディープラーニングを使用しています。 AWS Deep Learning AMI […]

Read More

AWS Deep Learning AMI の更新: TensorFlow、Apache MXNet、Keras、PyTorch の新バージョン

TensorFlow、PyTorch、Keras、最新バージョンの Apache MXNet 1.0 などを含む様々なフレームワークにわたり、NVIDIA Tesla V100 “Volta” GPUs でのトレーニング速度を大幅に改善するため、AWS Deep Learning AMI を更新しました。 現在使用可能な AMI には主に 2 つのタイプがあります。Conda ベースの AWS Deep Learning AMI は、一般的に使用されているフレームワークの最新のポイントリリース (事前設定済みの CUDA、ノートブック、サポートしているライブラリを含む) を Conda ベースの仮想環境内にまとめています。これはすべての開発者に対して推奨されています。ソースコードを使用する Deep Learning AMI は、基盤となるフレームワークに変更を施したい場合や、最先端の技術を取り入れたい場合に適しています。AWS はこの AMI で使用可能なカスタムそして最適化したビルドを構築しています。これにはいくつもの高度な機能やパフォーマンスの改善が含まれています。本稼働環境で導入する前にコードをテストしてください。  TensorFlow の様々な精度を使用してトレーニング速度を改善 ソースコードを使用した新しい AMI には TensorFlow のカスタマイズされた更新済みビルドが含まれています。これは EC2 の P3 インスタンスで使用可能な V100 GPU で様々な精度を使用するトレーニングと推論を活用します。これによりトレーニング時間を大幅に短縮することができます。たとえば、このビルドを使用して ResNet-50 をトレーニングした場合、ストックの TensorFlow 1.4 […]

Read More