Amazon Web Services ブログ

AWS Korea

Author: AWS Korea

AWS Direct Connectアップデート– 2017年後半に追加された新ロケーション10か所

2018年 あけましておめでとうございます。いよいよ年も明けて、近日中にリリースされる製品について学ぶためにチームの仲間たちと作業し、それを最新情報をブログ記事として皆さんにお届けするなど、通常業務に戻るのを心待ちにしています。今のところ、2017年後半にリリースされた製品や発表など、まだ記事にしていない内容について遅れを取り戻そうとしているところです。と 今日の記事で最初にご紹介するのは、AWS Direct Connectに適用される最新都市についての情報です。世界中のAWSのお客様は自社のネットワークコストを削減し、スループットの増大を図り、より一貫性のあるネットワークエクスペリエンスを実現する目的で、自社施設からAWSへの専用ネットワーク接続を確立するために、Direct Connectを使用しています。 12月には新たに10か所のロケーションがDirect Connectリストに追加されました。いずれも1GBと10GBの接続速度を提供し、パートナー提供のオプションを利用すれば1GB以下の速度も選択できます。以下は最新ロケーションの情報です。各ロケーションごとにデータセンター、関連するAWS地域を示します。 インド、バンガロール – NetMagic DC2 – アジア太平洋(ムンバイ)。 南アフリカ、ケープタウン – Teraco Ct1 – EU (アイルランド)。 南アフリカ、ヨハネスブルク – Teraco JB1 – EU (アイルランド)。 英国、ロンドン – Telehouse North Two – EU (ロンドン)。 米国、フロリダ州マイアミ – Equinix MI1 – 米国東部(北バージニア)。 米国、ミネソタ州ミネアポリス – Cologix MIN3 – 米国東部(オハイオ) 中国、寧夏 – Shapotou IDC – 中国(寧夏)。 中国、寧夏 […]

Read More

4 つの新しいリージョン (北京、フランクフルト、シンガポール、ムンバイ) で AWS Deep Learning AMI の提供を開始

Sinnet が運用する中国 (北京)、欧州 (フランクフルト)、アジアパシフィック (シンガポール)、アジアパシフィック (ムンバイ) の 4 つの新しいリージョンで AWS Deep Learning AMI を利用できるようになりました。 Amazon マシンイメージ (AMI) は Machine Learning ユーザーがディープラーニングモデルをすぐ使い始められるようにするためのインフラストラクチャとツールを提供しています。AMI には Apache MXNet、Gluon、TensorFlow、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Pytorch、Keras といった人気のディープラーニングフレームワークのパッケージが組み込まれています。また、開発とモデルトレーニングを効率良く進めるため、AMI は NVIDIA CUDA と cuDNN ドライバーで事前設定されており Amazon EC2 の P2 インスタンスや P3 インスタンスにおける GPU 加速に対し最適化されています。 ディープラーニングでビジネス価値を推進 企業は多種多様なチャレンジに取り組む方法としてディープラーニングに注目しています。たとえば、メディア業界の大物である Condé Nast は顧客をより理解できるようにするため、オンラインコンテンツのモニタリングにコンピュータビジョンと自然言語処理を使用しています。自動運転テクノロジーのリーダー的な存在である TuSimple は、運転のシミュレーションの実行や自動運転システムのトレーニングにディープラーニングアルゴリズムを使用しています。インターネットで食品配送サービスを提供する Instacart は、何千人もの買い物代行者が顧客の買い物履歴を介してより効率的にショッピングを行うためにディープラーニングを使用しています。 AWS Deep Learning AMI […]

Read More

現代版の安定性を備えたエンタープライズ向け Amazon Linux 2

今年も仕事納めの時期なりました。メールの片付けそして AWS re:Invent 開催後すぐにリリースされた最近の AWS サービスについて遅れを取り戻そうとしているところです。 先週は Amazon Linux 2 がリリースされました。この現代版 Linux はセキュリティ、安定性、生産性といったエンタープライズ環境のニーズを満たしながら、新しいツールや機能へのタイムリーなアクセスを提供できるように設計されています。また AWS 統合、cloud-init、安全なデフォルト設定、定期的なセキュリティ更新、AWS サポートといった AWS Linux AMI を人気にしたすべての機能も含まれています。これを基盤に次の新機能を追加しました。 長期サポート – 頻繁にアプリケーションを再適格することを避けたい場合など、長期に渡り 1 つの Linux バージョンを使用したい時に Amazon Linux 2 を使用することができます。このビルド (2017.12) は LTS ステータスを対象にしており、Amazon Linux ディスカッションフォーラムのフィードバックを元に最終判断が行われます。Amazon Linux 2 LTS ビルドの長期サポートにはセキュリティ更新、バグ修正、ユーザースペースのアプリケーションバイナリインターフェイス (ABI)、ユーザースペースのアプリケーションプログラミングインターフェイス (API) の 5 年間にわたる互換性を含んでいます。 Extras Library – 基盤となる OS イメージを軽量で安定性を維持した状態にしながら新機能に素早くアクセスできるようになりました。Amazon Linux Extras Library […]

Read More

AWS 欧州 (パリ) リージョンの一般提供を開始

AWS 全体で 18番目、欧州では 4 番目の AWS リージョンの提供を開始しました。パリ地域に位置するこの AWS リージョンは、AWS ユーザーがフランス国内および近辺の顧客に対し、より優れたサービスを提供できるようにしています。 詳細 新しい欧州 (パリ) リージョンでは、次を含む幅広い一連の AWS サービスを提供しています: Amazon API Gateway, Amazon Aurora, Amazon CloudFront, Amazon CloudWatch, CloudWatch Events, Amazon CloudWatch Logs, Amazon DynamoDB, Amazon Elastic Compute Cloud (EC2), EC2 Container Registry, Amazon ECS, Amazon Elastic Block Store (EBS), Amazon EMR, Amazon ElastiCache, Amazon Elasticsearch Service, Amazon […]

Read More

Amazon EC2 C5 インスタンスと BigDL を使用してディープラーニングに低精度と量子化を使用

先日、AWS は最新世代の Intel Xeon Scalable Platinum プロセッサに基づいた大量の演算を行う新しい Amazon EC2 C5 インスタンスをリリースしました。このインスタンスは計算量の多いアプリケーション用に設計されており、C4 インスタンスに比べパフォーマンスを大幅に改善しています。また、vCPU あたりの追加メモリとベクトルおよび浮動小数点ワークロードの 2 倍のパフォーマンスを備えています。 今回のブログでは BigDL という Apache Spark を対象としたオープンソースの分散型ディープラーニングフレームワークが、大規模なディープラーニングのワークロードを大幅に改善する AWS C5 インスタンスの新機能を活用する方法について説明します。特に BigDL が C5 インスタンスを使用してどのように低精度や量子化を活用し、モデルサイズの削減を最大 4 倍に削減そして推論速度を約 2 倍も改善することを実現しているのか説明します。 C5 インスタンスでディープラーニングを使用する理由 新しい AWS C5 インスタンスは Intel Xeon Scalable プロセッサ機能を利用します。これには高頻度のプロセッサでのコア数の増加、高速なシステムメモリ、大きなコア単位の中レベルキャッシュ (MLC または L2 キャッシュ)、新しく幅広い SIMD 命令 (AVX-512) などが含まれています。こうした機能はディープラーニングに関与する数学演算を促進するように設計されているため、新しい C5 インスタンスを大規模なディープラーニングに対し優れたプラットフォームにしています。 BigDL は Intel […]

Read More

アジアパシフィック (ムンバイ) リージョンで Amazon EC2 の料金を値下げしました

今年の AWS re:Invent も終わり、疲れも回復しやっとブログの執筆を再開したところです。 今回はさらなる AWS 料金の値下げをお知らせします。この値下げはアジアパシフィック (ムンバイ) リージョンのインスタンスファミリー 4 つを対象にしています。2017 年 12 月 1 日より、オンデマンドとリザーブドインスタンスの価格を値下げすることになりました。詳細は次をご覧ください。 M4 – 最大 15% T2 – 最大 15% R4 – 最大 15% C4 – 最大 10% 料金表ページは更新済みです。どうぞお楽しみください。 — Jeff;

Read More

AWS 中国 (寧夏) リージョンが利用可能になりました

AWS は世界で 17番目、中国では 2 番目のリージョン提供を開始しました。Ningxia Western Cloud Data Technology Co. Ltd. (NWCD) が運営している AWS 中国 (寧夏) リージョンの一般公開を開始しました。これにより、中国の AWS でアプリケーションを実行したりデータを保管するお客様に新たなオプションを提供できるようになりました。 詳細 現在、NWCD が運営する新しい中国 (寧夏) リージョンは Auto Scaling、AWS Config、AWS CloudFormation、AWS CloudTrail、Amazon CloudWatch、CloudWatch Events、Amazon CloudWatch Logs、AWS CodeDeploy、AWS Direct Connect、Amazon DynamoDB、Amazon Elastic Compute Cloud (EC2)、Amazon Elastic Block Store (EBS)、Amazon EC2 Systems Manager、AWS Elastic Beanstalk、Amazon ElastiCache、Amazon Elasticsearch Service、Elastic Load Balancing、Amazon […]

Read More

AWS Deep Learning AMI の更新: TensorFlow、Apache MXNet、Keras、PyTorch の新バージョン

TensorFlow、PyTorch、Keras、最新バージョンの Apache MXNet 1.0 などを含む様々なフレームワークにわたり、NVIDIA Tesla V100 “Volta” GPUs でのトレーニング速度を大幅に改善するため、AWS Deep Learning AMI を更新しました。 現在使用可能な AMI には主に 2 つのタイプがあります。Conda ベースの AWS Deep Learning AMI は、一般的に使用されているフレームワークの最新のポイントリリース (事前設定済みの CUDA、ノートブック、サポートしているライブラリを含む) を Conda ベースの仮想環境内にまとめています。これはすべての開発者に対して推奨されています。ソースコードを使用する Deep Learning AMI は、基盤となるフレームワークに変更を施したい場合や、最先端の技術を取り入れたい場合に適しています。AWS はこの AMI で使用可能なカスタムそして最適化したビルドを構築しています。これにはいくつもの高度な機能やパフォーマンスの改善が含まれています。本稼働環境で導入する前にコードをテストしてください。  TensorFlow の様々な精度を使用してトレーニング速度を改善 ソースコードを使用した新しい AMI には TensorFlow のカスタマイズされた更新済みビルドが含まれています。これは EC2 の P3 インスタンスで使用可能な V100 GPU で様々な精度を使用するトレーニングと推論を活用します。これによりトレーニング時間を大幅に短縮することができます。たとえば、このビルドを使用して ResNet-50 をトレーニングした場合、ストックの TensorFlow 1.4 […]

Read More

Apache MXNet 用のモデルサーバーのご紹介

今週初めに、AWS はディープラーニングモデルを提供する Apache MXNet の上に構築されるオープンソースのコンポーネントである、Apache MXNet 用のモデルサーバーの提供開始を発表しました。Apache MXNet は、機械学習のための使いやすく簡潔な API を備えた、高速でスケーラブルなトレーニングおよび推論フレームワークです。Apache MXNet 用のモデルサーバーにより、エンジニアは MXNet モデルを簡単、迅速、大規模に提供することができます。 Apache MXNet 用のモデルサーバーとは Apache MXNet (MMS) 用のモデルサーバーは、推論のディープラーニングモデルを大規模なデプロイするタスクを簡略化するために設計された、オープンソースのコンポーネントです。推論のモデルをデプロイすることは、ささいなタスクではありません。さまざまなモデルアーティファクトの収集、提供スタックのセットアップ、ディープラーニングフレームワークの初期化と設定、エンドポイントの公開、リアルタイムメトリクスの出力、カスタム前処理および後処理コードの実行をはじめ、数多くのエンジニアリングタスクがあります。各タスクが必要以上に複雑にならないこともありますが、モデルのデプロイに関連する全体的な労力は、デプロイプロセスが時間のかかる面倒なものとなる要因として十分です。 MMS により、AWS はディープラーニングモデルのデプロイプロセスを大幅に簡略化する、Apache MXNet 用のオープンソースのエンジニアリングツールセットを提供します。モデルのデプロイに MMS を使用することにより得られる主要な機能を以下に示します。 MXNet モデルを提供するために必要なすべてをカプセル化する単一の「モデルアーカイブ」にすべてのモデルアーティファクトをパッケージ化し、エクスポートするためのツール。 HTTP 推論エンドポイント、MXNet ベースのエンジンを含むサービススタックの自動セットアップ。このすべては、ホストする特定のモデルに対して自動的に設定されます。 スケーラブルなモデルの提供用に NGINX、MXNet、および MMS で設定された、事前設定済みの Docker イメージ。 モデルの初期化から、前処理と推論を経てモデルの出力の後処理に至る、推論実行パイプラインの各ステップをカスタマイズする機能。 レイテンシー、リソース使用率、エラーを含む、推論サービスとエンドポイントをモニタリングするリアルタイムのオペレーションメトリクス。 Java、JavaScript、C# など一般的なスタックのクライアントコードの簡単な統合と自動生成を可能にする、OpenAPI 仕様のサポート。 MMS は PyPi パッケージを通じて、またはモデルサーバーの GitHub レポジトリから直接利用でき、Mac および Linux で実行されます。スケーラブルな本稼働のユースケースでは、MMS GitHub […]

Read More

AWS Glue や Amazon Athena を用いたサーバーレスな Machine Learning 環境

属性をもとにデータセットを分割しなければならなかったことはありませんか?K-means はデータ分割を行うために最も頻繁に使用されている Machine Learning アルゴリズムの 1 つです。このアルゴリズムは異なるグループ (クラスター) にデータを分けることで機能します。各サンプルにはクラスターが指定されます。これは同じクラスターに指定されたサンプルが、他のクラスターにあるサンプルに比べて互いが類似しているようにするためです。 今回のブログでは AWS Glue を使用して、Amazon S3 にあるタクシー乗車のデータセットを例に K-means を適用し、そのデータをタクシーの座標に基づき 100 通りのクラスターに分割する方法を説明します。次に Amazon Athena を使用し、乗車数そして各クラスターのおおよその地域をクエリします。最後に Amazon Athena を使用して、最も乗車数の多かった 4 つの地域の座標を割り出します。AWS Glue と Amazon Athena では、ユーザーによるプロビジョンやサーバー管理を必要とせずに、こうしたタスクを実行することができます。 ソリューションの概要 今回は、過去のブログで使用したニューヨーク市のタクシーに関するデータセットを使用します: 「AWS Glue、Amazon Athena、Amazon QuickSight を使用して様々なプロバイダからのデータを調和、クエリ、視覚化する (Harmonize, Query, and Visualize Data from Various Providers using AWS Glue, Amazon Athena, and Amazon QuickSight)」2016 年 1 月のタクシー乗車に関する緑色のタイプから構成されたテーブルを使用します。 座標に基づいたデータセットを分割するために、Spark […]

Read More