Amazon Web Services ブログ

Localization Team

Author: Localization Team

4 つの新しいリージョン (北京、フランクフルト、シンガポール、ムンバイ) で AWS Deep Learning AMI の提供を開始

Sinnet が運用する中国 (北京)、欧州 (フランクフルト)、アジアパシフィック (シンガポール)、アジアパシフィック (ムンバイ) の 4 つの新しいリージョンで AWS Deep Learning AMI を利用できるようになりました。 Amazon マシンイメージ (AMI) は Machine Learning ユーザーがディープラーニングモデルをすぐ使い始められるようにするためのインフラストラクチャとツールを提供しています。AMI には Apache MXNet、Gluon、TensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Pytorch、Keras といった人気のディープラーニングフレームワークのパッケージが組み込まれています。また、開発とモデルトレーニングを効率良く進めるため、AMI は NVIDIA CUDA と cuDNN ドライバーで事前設定されており Amazon EC2 の P2 インスタンスや P3 インスタンスにおける GPU 加速に対し最適化されています。 ディープラーニングでビジネス価値を推進 企業は多種多様なチャレンジに取り組む方法としてディープラーニングに注目しています。たとえば、メディア業界の大物である Condé Nast は顧客をより理解できるようにするため、オンラインコンテンツのモニタリングにコンピュータビジョンと自然言語処理を使用しています。自動運転テクノロジーのリーダー的な存在である TuSimple は、運転のシミュレーションの実行や自動運転システムのトレーニングにディープラーニングアルゴリズムを使用しています。インターネットで食品配送サービスを提供する Instacart は、何千人もの買い物代行者が顧客の買い物履歴を介してより効率的にショッピングを行うためにディープラーニングを使用しています。 AWS Deep Learning AMI […]

Read More

現代版の安定性を備えたエンタープライズ向け Amazon Linux 2

今年も仕事納めの時期なりました。メールの片付けそして AWS re:Invent 開催後すぐにリリースされた最近の AWS サービスについて遅れを取り戻そうとしているところです。 先週は Amazon Linux 2 がリリースされました。この現代版 Linux はセキュリティ、安定性、生産性といったエンタープライズ環境のニーズを満たしながら、新しいツールや機能へのタイムリーなアクセスを提供できるように設計されています。また AWS 統合、cloud-init、安全なデフォルト設定、定期的なセキュリティ更新、AWS サポートといった AWS Linux AMI を人気にしたすべての機能も含まれています。これを基盤に次の新機能を追加しました。 長期サポート – 頻繁にアプリケーションを再適格することを避けたい場合など、長期に渡り 1 つの Linux バージョンを使用したい時に Amazon Linux 2 を使用することができます。このビルド (2017.12) は LTS ステータスを対象にしており、Amazon Linux ディスカッションフォーラムのフィードバックを元に最終判断が行われます。Amazon Linux 2 LTS ビルドの長期サポートにはセキュリティ更新、バグ修正、ユーザースペースのアプリケーションバイナリインターフェイス (ABI)、ユーザースペースのアプリケーションプログラミングインターフェイス (API) の 5 年間にわたる互換性を含んでいます。 Extras Library – 基盤となる OS イメージを軽量で安定性を維持した状態にしながら新機能に素早くアクセスできるようになりました。Amazon Linux Extras Library […]

Read More

AWS 欧州 (パリ) リージョンの一般提供を開始

AWS 全体で 18番目、欧州では 4 番目の AWS リージョンの提供を開始しました。パリ地域に位置するこの AWS リージョンは、AWS ユーザーがフランス国内および近辺の顧客に対し、より優れたサービスを提供できるようにしています。 詳細 新しい欧州 (パリ) リージョンでは、次を含む幅広い一連の AWS サービスを提供しています: Amazon API Gateway, Amazon Aurora, Amazon CloudFront, Amazon CloudWatch, CloudWatch Events, Amazon CloudWatch Logs, Amazon DynamoDB, Amazon Elastic Compute Cloud (EC2), EC2 Container Registry, Amazon ECS, Amazon Elastic Block Store (EBS), Amazon EMR, Amazon ElastiCache, Amazon Elasticsearch Service, Amazon […]

Read More

Amazon EC2 C5 インスタンスと BigDL を使用してディープラーニングに低精度と量子化を使用

先日、AWS は最新世代の Intel Xeon Scalable Platinum プロセッサに基づいた大量の演算を行う新しい Amazon EC2 C5 インスタンスをリリースしました。このインスタンスは計算量の多いアプリケーション用に設計されており、C4 インスタンスに比べパフォーマンスを大幅に改善しています。また、vCPU あたりの追加メモリとベクトルおよび浮動小数点ワークロードの 2 倍のパフォーマンスを備えています。 今回のブログでは BigDL という Apache Spark を対象としたオープンソースの分散型ディープラーニングフレームワークが、大規模なディープラーニングのワークロードを大幅に改善する AWS C5 インスタンスの新機能を活用する方法について説明します。特に BigDL が C5 インスタンスを使用してどのように低精度や量子化を活用し、モデルサイズの削減を最大 4 倍に削減そして推論速度を約 2 倍も改善することを実現しているのか説明します。 C5 インスタンスでディープラーニングを使用する理由 新しい AWS C5 インスタンスは Intel Xeon Scalable プロセッサ機能を利用します。これには高頻度のプロセッサでのコア数の増加、高速なシステムメモリ、大きなコア単位の中レベルキャッシュ (MLC または L2 キャッシュ)、新しく幅広い SIMD 命令 (AVX-512) などが含まれています。こうした機能はディープラーニングに関与する数学演算を促進するように設計されているため、新しい C5 インスタンスを大規模なディープラーニングに対し優れたプラットフォームにしています。 BigDL は Intel […]

Read More

アジアパシフィック (ムンバイ) リージョンで Amazon EC2 の料金を値下げしました

今年の AWS re:Invent も終わり、疲れも回復しやっとブログの執筆を再開したところです。 今回はさらなる AWS 料金の値下げをお知らせします。この値下げはアジアパシフィック (ムンバイ) リージョンのインスタンスファミリー 4 つを対象にしています。2017 年 12 月 1 日より、オンデマンドとリザーブドインスタンスの価格を値下げすることになりました。詳細は次をご覧ください。 M4 – 最大 15% T2 – 最大 15% R4 – 最大 15% C4 – 最大 10% 料金表ページは更新済みです。どうぞお楽しみください。 — Jeff;

Read More

AWS 中国 (寧夏) リージョンが利用可能になりました

AWS は世界で 17番目、中国では 2 番目のリージョン提供を開始しました。Ningxia Western Cloud Data Technology Co. Ltd. (NWCD) が運営している AWS 中国 (寧夏) リージョンの一般公開を開始しました。これにより、中国の AWS でアプリケーションを実行したりデータを保管するお客様に新たなオプションを提供できるようになりました。 詳細 現在、NWCD が運営する新しい中国 (寧夏) リージョンは Auto Scaling、AWS Config、AWS CloudFormation、AWS CloudTrail、Amazon CloudWatch、CloudWatch Events、Amazon CloudWatch Logs、AWS CodeDeploy、AWS Direct Connect、Amazon DynamoDB、Amazon Elastic Compute Cloud (EC2)、Amazon Elastic Block Store (EBS)、Amazon EC2 Systems Manager、AWS Elastic Beanstalk、Amazon ElastiCache、Amazon Elasticsearch Service、Elastic Load Balancing、Amazon […]

Read More

AWS Deep Learning AMI の更新: TensorFlow、Apache MXNet、Keras、PyTorch の新バージョン

TensorFlow、PyTorch、Keras、最新バージョンの Apache MXNet 1.0 などを含む様々なフレームワークにわたり、NVIDIA Tesla V100 “Volta” GPUs でのトレーニング速度を大幅に改善するため、AWS Deep Learning AMI を更新しました。 現在使用可能な AMI には主に 2 つのタイプがあります。Conda ベースの AWS Deep Learning AMI は、一般的に使用されているフレームワークの最新のポイントリリース (事前設定済みの CUDA、ノートブック、サポートしているライブラリを含む) を Conda ベースの仮想環境内にまとめています。これはすべての開発者に対して推奨されています。ソースコードを使用する Deep Learning AMI は、基盤となるフレームワークに変更を施したい場合や、最先端の技術を取り入れたい場合に適しています。AWS はこの AMI で使用可能なカスタムそして最適化したビルドを構築しています。これにはいくつもの高度な機能やパフォーマンスの改善が含まれています。本稼働環境で導入する前にコードをテストしてください。  TensorFlow の様々な精度を使用してトレーニング速度を改善 ソースコードを使用した新しい AMI には TensorFlow のカスタマイズされた更新済みビルドが含まれています。これは EC2 の P3 インスタンスで使用可能な V100 GPU で様々な精度を使用するトレーニングと推論を活用します。これによりトレーニング時間を大幅に短縮することができます。たとえば、このビルドを使用して ResNet-50 をトレーニングした場合、ストックの TensorFlow 1.4 […]

Read More

Apache MXNet 用のモデルサーバーのご紹介

今週初めに、AWS はディープラーニングモデルを提供する Apache MXNet の上に構築されるオープンソースのコンポーネントである、Apache MXNet 用のモデルサーバーの提供開始を発表しました。Apache MXNet は、機械学習のための使いやすく簡潔な API を備えた、高速でスケーラブルなトレーニングおよび推論フレームワークです。Apache MXNet 用のモデルサーバーにより、エンジニアは MXNet モデルを簡単、迅速、大規模に提供することができます。 Apache MXNet 用のモデルサーバーとは Apache MXNet (MMS) 用のモデルサーバーは、推論のディープラーニングモデルを大規模なデプロイするタスクを簡略化するために設計された、オープンソースのコンポーネントです。推論のモデルをデプロイすることは、ささいなタスクではありません。さまざまなモデルアーティファクトの収集、提供スタックのセットアップ、ディープラーニングフレームワークの初期化と設定、エンドポイントの公開、リアルタイムメトリクスの出力、カスタム前処理および後処理コードの実行をはじめ、数多くのエンジニアリングタスクがあります。各タスクが必要以上に複雑にならないこともありますが、モデルのデプロイに関連する全体的な労力は、デプロイプロセスが時間のかかる面倒なものとなる要因として十分です。 MMS により、AWS はディープラーニングモデルのデプロイプロセスを大幅に簡略化する、Apache MXNet 用のオープンソースのエンジニアリングツールセットを提供します。モデルのデプロイに MMS を使用することにより得られる主要な機能を以下に示します。 MXNet モデルを提供するために必要なすべてをカプセル化する単一の「モデルアーカイブ」にすべてのモデルアーティファクトをパッケージ化し、エクスポートするためのツール。 HTTP 推論エンドポイント、MXNet ベースのエンジンを含むサービススタックの自動セットアップ。このすべては、ホストする特定のモデルに対して自動的に設定されます。 スケーラブルなモデルの提供用に NGINX、MXNet、および MMS で設定された、事前設定済みの Docker イメージ。 モデルの初期化から、前処理と推論を経てモデルの出力の後処理に至る、推論実行パイプラインの各ステップをカスタマイズする機能。 レイテンシー、リソース使用率、エラーを含む、推論サービスとエンドポイントをモニタリングするリアルタイムのオペレーションメトリクス。 Java、JavaScript、C# など一般的なスタックのクライアントコードの簡単な統合と自動生成を可能にする、OpenAPI 仕様のサポート。 MMS は PyPi パッケージを通じて、またはモデルサーバーの GitHub レポジトリから直接利用でき、Mac および Linux で実行されます。スケーラブルな本稼働のユースケースでは、MMS GitHub […]

Read More

AWS Glue や Amazon Athena を用いたサーバーレスな Machine Learning 環境

属性をもとにデータセットを分割しなければならなかったことはありませんか?K-means はデータ分割を行うために最も頻繁に使用されている Machine Learning アルゴリズムの 1 つです。このアルゴリズムは異なるグループ (クラスター) にデータを分けることで機能します。各サンプルにはクラスターが指定されます。これは同じクラスターに指定されたサンプルが、他のクラスターにあるサンプルに比べて互いが類似しているようにするためです。 今回のブログでは AWS Glue を使用して、Amazon S3 にあるタクシー乗車のデータセットを例に K-means を適用し、そのデータをタクシーの座標に基づき 100 通りのクラスターに分割する方法を説明します。次に Amazon Athena を使用し、乗車数そして各クラスターのおおよその地域をクエリします。最後に Amazon Athena を使用して、最も乗車数の多かった 4 つの地域の座標を割り出します。AWS Glue と Amazon Athena では、ユーザーによるプロビジョンやサーバー管理を必要とせずに、こうしたタスクを実行することができます。 ソリューションの概要 今回は、過去のブログで使用したニューヨーク市のタクシーに関するデータセットを使用します: 「AWS Glue、Amazon Athena、Amazon QuickSight を使用して様々なプロバイダからのデータを調和、クエリ、視覚化する (Harmonize, Query, and Visualize Data from Various Providers using AWS Glue, Amazon Athena, and Amazon QuickSight)」2016 年 1 月のタクシー乗車に関する緑色のタイプから構成されたテーブルを使用します。 座標に基づいたデータセットを分割するために、Spark […]

Read More

Amazon Polly を使用した Haptik のパーソナルアシスタントサービス

今回のブログは Haptik Inc. の共同創立者および CTO の Swapan Rajdev 氏より寄稿いただきました。 日々忙しく過ごしている我々にとって、やるべき事柄は増加する一方で達成しなければならない毎日のタスクをすべて管理することは容易ではありません。ミーティング日程を忘れないようにしたり、飛行機のチケットを購入したり、十分な水分補給そしてジムで体を動かすことなど、すべきことを数えだせばきりがありません。スケジュール管理というのは本当に面倒です。 Haptik はインド初のパーソナルアシスタントアプリです。ユーザーは旅行のプランを立てたり、フライトの確認、タクシーの予約そしてリマインダー設定を行うために、このアプリを使用しています。様々な機能を搭載しているこのアプリですが、中でユーザーが頻繁に使用しているのはリマインダー機能です。このアプリのユーザーは、モーニングコールを設定したり、水分補給を忘れずに行うようにリマインダーをセットアップしたり、異なる時間に電話を掛けたり、特別な日にメッセージを送るなど、リマインダーを必要とする様々な事柄に Haptik を使用しています。リマインダー機能を介して、ユーザーはアプリでリマインダーメッセージに関する通知を受信、そしてリクエストした時間に電話を受け取ることができます。 今回のブログでは、タスクを知らせるため指定時間にユーザーに電話をする場合に、当社がどのように Machine Learning や読み上げ機能 (TTS) を使用してユーザーのリマインダーを設定しているのかご説明します。各ユーザーに合わせて電話を掛けたり、何百万人というユーザーに対しリマインダー機能をスケーリングする場合に、どれほど Amazon Polly が役立っているか解説します。 Haptik のリマインダー機能 パーソナルアシスタントに仕事をさせるため、ユーザーは Haptik アプリにアクセスしてボットにメッセージを送信します。当社のシステムにあるメッセージはすべてメッセージパイプラインを通るようになっています。ここでは次の点を検出します。 ユーザーが意図するドメイン (リマインダー、旅行、周辺情報など) ユーザーが完了したいタスク (目的) エンティティ (ユーザーのタスクを完了するために必要な別のデータ) このパイプラインの終わりに近づいた時点でボットがすべての情報を取得している場合は、タスクを完了します。それ以外の場合は、関連性のある質問を返してすべての情報を収集します。 このベーシックパイプラインの他にも、アルゴリズムがいくつもあります。これはディープラーニングを使用してユーザーの介入なしに、ユーザーのタスクを完了しやすくするため、チャット履歴から学習します。 ユーザーに電話を掛ける理由は? ユーザーに予定のタスクを知らせるため、アプリで通知を送信し電話でも連絡します。Haptik は一般的に使用されている通知技術を使用してユーザーにリマインダーを送信していますが、次のいくつかの理由により、ユーザーに電話を掛ける方がさらに効果的であると当社は考えています。 まず、今のスマートフォン時代では、どのアプリからも大量の通知が届くようになっているので、重要な通知を見逃してしまうことがあります。そのため、知らない番号または Haptik から電話を受け取ることは、スヌーズボタンを押すだけで終わってしまう通常のアラームに比べて効果的です。 2 つめの理由は、当社はリマインダーを設定したタスクの種類に基づいて、電話を掛ける声とその内容を変更し、より優れたユーザーエクスペリエンスを提供しています。たとえば、モーニングコールには穏やかで落ち着いた音声を使用しています。そして時々、ユーザーが気持ち良く元気な状態で起床できるようにするため、電話の終わりに自己啓発的なメッセージも追加しています。Amazon Polly を使用することで、こうした TTS ユースケースの実装をシンプルで信頼性があるものにすることができます。

Read More