Amazon Web Services ブログ

Localization Team

Author: Localization Team

Apache MXNet で ONNX をサポート

AWS は ONNX-MXNet の利用開始を発表しました。これは Open Neural Network Exchange (ONNX) ディープラーニングモデルを Apache MXNet にインポートするためのオープンソース Python パッケージです。MXNet は充実した機能を備えたスケーラブルなディープラーニングフレームワークで、Python、Scala、R といった人気の言語に対し API を提供します。MXNet で ONNX 形式をサポートすることで、開発者は PyTorch、Microsoft Cognitive Toolkit、Caffe2 など、他のフレームワークを使用してモデルを構築したりトレーニングすることができます。また、高度に最適化されたスケーラブルなエンジンの MXNet を使用した推論に対し、こうしたモデルを MXNet にインポートすることもできます。 AWS が ONNX 形式に貢献できることを大変喜ばしく思っています。Facebook、Microsoft、そしてディープラーニングコミュニティと協力し、ディープラーニングのユーザーが利用しやすい便利なものにすべく、ONNX の開発に取り組みます。 ONNX とは ONNX はディープラーニングモデルをエンコードするためのオープンソース形式です。ONNX はニューラルネットワークの計算グラフ、グラフ内で使用される演算子の広範なリストの形式を定義します。拡大中のフレームワークリスト、ハードウェアベンダー、ディープラーニングの開発を手掛ける開発者などにサポートされている ONNX は、容易にフレームワーク間を移動し、目の前の課題に最適なフレームワークを選別することができます。 クイックスタート 今回は ONNX-MXNet を使用して MXNet に ONNX-MXNet をインポートする方法、そして推論用にインポートしたモデルを使用する方法をご紹介します。これにより、MXNet の最適化した実行エンジンのメリットを活用することができます。 ステップ 1: インストール まず、ONNX […]

Read More

Amazon Polly が 9 つの対象 AWS リージョン、韓国語のサポート、新しいインド英語音声を追加

Amazon Polly は、テキストを生きた話し声に変換する AWS のサービスです。Amazon Polly に 9 つのリージョンが追加され、Polly が利用可能なリージョンの合計数が 14 となったことを発表いたします。さらに、韓国語サポートの開始、テキスト読み上げ機能ポートフォリオへのインド英語音声の追加を発表いたします。新しい韓国語の女性音声 Seoyeon、およびインド英語音声の Aditi をご紹介します。 Amazon Polly は、世界中のお客様に対して最大の安定性と最小のレイテンシーを提供するべく、以下の 14 の AWS リージョンで提供されます: アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (アイルランド)、欧州 (ロンドン)、南米 (サンパウロ)、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (北カリフォルニア)、および米国西部 (オレゴン)。 Amazon Polly は re:Invent 2016 で発表されて以来、最も多いリクエストの 1 つとして、追加言語のサポートがありました。お客様からの最も多くのリクエストがあった言語の 1 つが韓国語です。お客様の需要にお応えして、最初の韓国語音声 Seoyeon を発表いたします。

Read More

AWS Deep Learning Conda と Base AMI の利用開始について

AWS は AWS Deep Learning AMI に Conda ベースの AMI と Base AMI という 2 つの新しいバージョンを利用可能にしたことを発表しました。このブログでは、新しい AMI を最大限に活用するための手順と追加リソースについてご説明します。 Conda マネージド型環境を取り入れた新しい Deep Learning AMI Amazon Linux と Ubuntu を対象にした新しい Deep Learning AMI には、人気のオープンソースパッケージと環境管理ツールである Conda を使用して作成したディープラーニング用の Python 環境がプリインストールされています。Conda マネージド型 Python 環境は、Apache MXNet、TensorFlow、Caffe2、PyTorch、Keras、CNTK、Theano を含む、人気のディープラーニングフレームワーク用に事前設定されています。また、Python 環境にはそれぞれ Python 2 と Python 3 が含まれています。AWS マネジメントコンソールを使用して AWS EC2 インスタンスにログインすると、Conda 環境すべてを含むリストがコンソールメッセージとして表示されます。 次のコマンドを実行すると、このリストを取得できます。 conda […]

Read More

Machine Learning ユーザー向けの新しい AWS Deep Learning AMI

この度、AWS Deep Learning AMI の新しい 2 つのバージョンの提供を開始しました。人気のオープンソースパッケージと環境ツールの Conda を使用して作成したディープラーニングフレームワーク用に別の Python 環境を使用する Conda ベースの AMI、そして独自のカスタマイズしたディープラーニングモデルをデプロイするための GPU ドライバとライブラリを使用する Base AMI です。 学会と業界の両方に渡り、ディープラーニングテクノロジーはフレームワーク、アルゴリズム、そして新しい方法や理論に渡り、急速に進化しています。そのため、素早く安全にアルゴリズムをテストしたり、フレームワークの特定のバージョンの最適化、テストやベンチマークの実行、新しく始めるプロジェクト開始の共同作業などにおいてツールを必要とする開発者達にとって複雑の原因になっています。そこで、AWS Deep Learning AMI においても、そうした自由と柔軟性を提供するために仮想環境を追加することにしました。また、新たに開発者用リソースもセットアップすることで、これまで以上に AMI の理解を深めたり、プロジェクトに適切な AMI を選択したり、ハンズオンチュートリアルを利用できるようにしています。 Conda ベースの Deep Learning AMI Conda ベースの AMI は Conda を使用して作成したディープラーニングの Python 環境にプリインストールされています。各 Conda ベースの Python 環境は、人気のディープラーニングフレームワークの公式 pip パッケージと、その依存関係を含むように設定されています。たとえば、ニューラルネットワークモデルをトレーニングするためのディープラーニングコードを実行する準備が整い、完全に仕上がった仮想環境とお考えください。ステップバイステップガイドでは、任意のディープラーニングフレームワークを使用した環境をアクティブ化する方法や、シンプルな 1 行のコマンドを使用して環境を切り替える方法について説明しています。 AMI のメリットは他にもあります。AMI の環境は相互に孤立した自己完結型のサンドボックスとして稼働します。つまり、サンドボックス内でディープラーニングのコードを実行すると、実行時の環境を完全に見通し全体的に管理することができます。AMI の他のディープラーニング環境を中断してしまう心配なく、新しいソフトウェアパッケージをインストールしたり、既存のパッケージのアップグレードや環境変数を変更することができます。実行環境でこのレベルの柔軟性と詳細管理を行えるということは、一貫性のある再生可能な方法でディープラーニングモデルのテスト実行やパフォーマンスのベンチマークが行えることを意味しています。 最後に、AMI は Jupyter […]

Read More

New – AWS OpsWorks for Puppet Enterprise

昨年開催された AWS re:Invent で AWS OpsWorks for Chef Automate を公開しました。これはユーザーが AWS マネージド型の独自の Chef Automate サーバーを利用できるようにするものです。そして、ユーザーからのフィードバックを元に構築した Puppet Enterprise を OpsWorks に追加しました。 Puppet Enterprise は、管理されている各ノードでデプロイした puppet-agent を介してプロビジョニング、設定、インスタンスの管理を自動化できるようにします。設定は 1 回定義することができ、自動ロールバックとドリフト検出で何千件ものノードに適用することができます。AWS OpsWorks for Puppet Enterprise は、既存の Puppet マニフェストでシームレスに連動させながら、独自の Puppet マスターを管理する必要を排除します。 OpsWorks for Puppet Enterprise は、ユーザーの代わりに Puppet マスターサーバーを管理し、インストール、アップグレード、バックアップといった運用タスクを行います。また、ノード登録を簡素化したり、ノードのブートストラップの便利なスターターキットも提供しています。詳細については次をご覧ください。 Managed Puppet Master の作成 OpsWorks で Puppet マスターを作成するのは簡単です。まず、OpsWorks コンソールの [Puppet] セクションにアクセスし [Create […]

Read More

Amazon EC2 の更新 – X1e インスタンスに 5 つのサイズを追加、SLA の強化

今年初めにリリースした x1e.32xlarge インスタンスは、4 TB のメモリを持つ 4 つの AWS リージョンを対象に利用可能となりました。そのリリースから 2 か月後の現在、ユーザーはハイパフォーマンスリレーショナルと NoSQL データベース、メモリ内データベース、そして大量のメモリを活用できる他のエンタープライズアプリケーションに、このインスタンスを使用しています。 X1e のサイズを 5 つ追加 メモリ最適化 X1e シリーズにインスタンスサイズを 5 つ追加しました。ラインアップは次の通りです。 モデル vCPU メモリ (GiB) SSD ストレージ (GB) ネットワーキングパフォーマンス x1e.xlarge 4 122 120 最大 10 Gbps x1e.2xlarge 8 244 240 最大 10 Gbps x1e.4xlarge 16 488 480 最大 10 Gbps x1e.8xlarge 32 976 960 […]

Read More

自律走行車の構築 パート 3: 自律走行車の接続

自律走行シリーズ 1 回目のブログでは、Donkey カーの構築と Amazon EC2 インスタンスでパイロットサーバーをデプロイしました。そして、2 回目のブログでは Donkey カーの運転を学び、Donkey カーが自律走行を学びました。今回のブログでは、Donkey カーから AWS にテレメトリをストリーミングするプロセスをご紹介します。スケーラブルで信頼性が高く、当社の接続済み自律走行車など様々な接続済みデバイスに対し多機能な一連のサービスを提供する AWS IoT を使用します。 1) AWS 自律走行車を構築し re:Invent の Robocar Rally でレースに参加 2) 自律走行車の構築 パート 2: 自律走行車の運転 3) 自律走行車の構築 パート 3: 自律走行車の接続 4) 近日中に公開予定 AWS IoT のセットアップ 自律走行車は運転中に絶え間なくテレメトリをストリーミングします。自律走行車が稼働していない場合は収集するテレメトリがないため、リソースを使用しないことで無駄を避けます。ワークロードに対応するため、アーキテクチャ全体の稼働においてはサーバーレステクノロジーに依存します。開始するには、まず AWS IoT を使用してフリートモニタリングサービスを設計します。同じ基本的なアーキテクチャを使用して、その数に制限なく自律走行車に使用できます。次の図はフリートモニタリングサービスのアーキテクチャを示しています。 同ソリューションのコンポーネントは、論理的な機能 (および AWS のサービス) 別に色分けされ、ソリューションの各コンポーネントが安全でスケーラブルであり、完全に使用量ベースであることが示されています。この種のオペレーションモデルは様々なビジネスモデルで役立ち、幅広いサイズの顧客にとっても便利です。週末に趣味で自律走行車をレースしてラップタイムを比較したり、自動車メーカーが独自の接続された車両プラットフォームを開発したい場合でも、AWS IoT は安全でスケーラブルな使用量ベースのコスト構造を提供しています。 このソリューションは緑の網掛け部分の Donkey カーから始めます。次にデータが IoT サービスを通過してピンクのセクションに移動します。このセクションは DynamoDB の短期間用データストレージです。その後、S3 […]

Read More

AWS コミュニティの新しいヒーローのご紹介 (2017 年 – 秋版)

AWS コミュニティヒーロープログラムでは、世界中の腕の良い AWS デベロッパーによって行われている革新的な作業の一部を紹介しています。このようなヒーローは、クラウドの専門知識と、コミュニティ構築および教育に対する熱意を組み合わせて、ソーシャルメディアや実際に顔合わせができるイベントで時間と知識を共有しています。また、カンファレンスで積極的にコミュニティ型の方向性を促進しています。今年の re:Invent では、多くのヒーローが Monday Community Day トラックでお話しする予定です。 大変うれしいことに、今年の 11 月、AWS のクラウド革新者ネットワークに 4 名のヒーローを迎えます。それでは早速、AWS コミュニティの新しいヒーローをご紹介します。 Anh Ho Viet Thorsten Höger Becky Zhang Nilesh Vaghela Anh Ho Viet Anh Ho Viet は、AWS ベトナムのユーザーグループ の設立者でありながら、OSAM の共同設立者兼 CEO、ベトナムの AWS コンサルティングパートナー、AWS 認定ソリューションアーキテクトという肩書きを持つクラウド愛好家です。 OSAM で、Anh と彼の熱意あふれるチームは、SMB からエンタープライズに至るまで、多くの企業の AWS クラウドへの移行をサポートしてきました。AWS の移行やコンサルティング、アーキテクチャ、ソリューション設計など、そのサービス範囲は多岐にわたります。OSAM に対する Anh のビジョンは、クラウドサービスプロバイダーの範囲にとどまりません。同社は、完全な AWS エコシステムをベトナムに構築し、トレーニングやコラボレーションといった活動を通して、ベトナムの他の企業に AWS パートナーになる機会を与える取り組みを行っています。 2016 […]

Read More

がんの早期発見を促進するために Matrix Analytics が AWS でディープラーニングを使用

Matrix Analytics は人の命を救うために使われています。コロラド州のスタートアップ企業は肺結節と診断された患者の疾患の進行経過を追うために、アマゾン ウェブ サービス (AWS) でディープラーニングを使用しています。大方の場合、結節が良性でも慎重に監査したりフォローアップ治療を行うことは、結節が悪性腫瘍になった場合に重要な意味を持つことになります。 同社の設立者である Dr. Aki Alzubaidi 氏は、Glenwood Springs 病院に勤務していた時に見過ごされている患者が何人もいることに気付きました。患者の様子を把握するためのシステムは面倒な上にまとまりがなく、肺結節と診断された多くの患者が推奨されているフォローアップ治療を受けていないという、避けられるはずの粗末な結果を生み出していました。 がんリスクの予測と治療の管理 同社のフラッグシップアプリケーションである LungDirect は、初期のがん介入に二面性を持つアプローチを使用して悪性の危険性を予測したりフォローアップ治療を自動化しています。 まず、ディープラーニングのアルゴリズムを使用して構築した高度なコンピュータビジョン機能は、肺結節の悪性のリスクを結節の大きさや形、密度、容積、そして患者の喫煙年数、年齢、性別、人種などをもとに診断します。「放射線検査、臨床検査、個人的な臨床レベルでの変化など、臨床的な情報を考慮に入れ、病状について説明し次の対策に関する実用的な提案と管理方法を提供することが、ディープラーニングを利用する我々が目指すゴールです」と Dr. Alzubaidi 氏は述べています。 データに潜んでいるかもしれない非線形性クラスから成るがんリスクの診断を行うために、Machine Learning の 5 つのクラスを適用しています。こうした機能の 4 つのクラスは、一連のコンピュータビジョンアルゴリズムを使用してイメージから直接自動的に抽出されます。 がんの予測や診断を行うために、患者のスキャンを自動的に読み取れるツールを開発することは簡単ではありませんでした。けれども、Matrix Analytics は PoC (実証支援) を示すプロトタイプを素早く開発することができました。次に、当社のディープラーニングモデルを実装して、既存の論文で表示されている基準と比較しました。

Read More

Amazon ElastiCache の更新 – Redis クラスターのオンラインサイズ変更

Amazon ElastiCache では、高速なインメモリ型データストアおよびキャッシュを簡単にセットアップできます。ElastiCache は、最も人気のある 2 種類のオープンソースのソフトウェア (Redis および Memcached) をサポートしているため、要求の高いゲームのリーダーボードやインメモリアナリティクス、大規模なメッセージングのニーズに対応できます。 本日は、Amazon ElastiCache for Redis に追加された重要な機能についてご紹介します。最大 15 のシャードを作成して、それぞれに特定のスロットセットのキーと値を保存することができます (各クラスターの厳密なスロット数は 16,384 個)。1 つのクラスターで 3.55 テラバイトのインメモリデータを保存できると同時に、1 秒あたり 2,000 万回の読み取りと 450 万回の書き込みが可能です。 オンラインのサイズ変更 実行中の Redis 用 Amazon ElastiCache クラスターでシャード数を調整しながら、そのクラスターのオンライン状態を維持してリクエストに応答できるようになりました。これにより、クラスターをオフラインにしたり、空のキャッシュを使用しなくても、トラフィックやデータのボリュームの変更に対応することができます。また、シャード数を変更せずに、実行中のクラスターを再分散してスロットスペースを均一に再配置することもできます。 リシャーディングオペレーションまたは再分散オペレーションを開始すると、Redis 用 ElastiCache は、クラスターのシャード間でスロットが均等分散されるように計画の準備を開始します。その後、シャード全体にスロットを転送し、効率性を重視して並列的に多数のスロットを移動します。これは、クラスターでリクエストに応答する場合に行われ、送信時のスロットへ書き込む書き込みスループットが少し上がります。移行率は、インスタンスタイプ、ネットワーク速度、スロットへの読み込み/書き込みトラフィックによって異なり、通常 1 分あたり約 1 ギガバイトです。 リシャーディングオペレーションと再分散オペレーションは、クラスタモードを有効にして作成された Redis クラスターに適用されます。 クラスターのリシャーディング 一般的に、大幅なメモリプレッシャーの問題に直面したり、個々のノードがボトルネックになった場合は、リシャーディングでクラスターを拡張します。クラスターの CloudWatch メトリクスを監視すれば、以下のような状況を識別できます。 メモリプレッシャー – FreeableMemory、SwapUsage、BytesUsedForCache。 CPU ボトルネック […]

Read More