Amazon Web Services ブログ

Amazon SageMaker でのご利用開始: より正確な時系列予測のための DeepAR アルゴリズム

Amazon SageMaker の最新内蔵アルゴリズムとして、Amazon SageMaker DeepAR をリリースします。DeepAR はポイント予測と確率的予測の両方を生成するために再帰型ニューラルネットワーク (RNN) を使用する時系列予測の教師あり学習アルゴリズムです。私たちは、開発者が Amazon 内でミッションクリティカルな決定を行う、この伸縮自在にスケール可能で、極めて精度の高い予測アルゴリズムを利用できるようになることに大変な期待を寄せています。DeepAR アルゴリズムは他の Amazon SageMaker 内蔵アルゴリズムと同じように使用でき、トレーニングや推測のために、インフラストラクチャをセットアップする必要もありません。 どこでも予測 予測は多くの産業で機械学習を適用するためのスタート地点となっています。より良い製品需要予測を介してサプライチェーンを最適化する、ウェブサーバーのトラフィックを予測することでコンピューターリソースを配分する、あるいは、患者のニーズに合わせて病院の人員配備を行い人命を救うなど、その用途に関係なく、正確な予測への投資が、すぐに投資へと還元されない分野はほとんどありません。 Amazon では、様々な使用分野におけるビジネスの意思決定を下すために予測の手法を用いています。その一例としては、配送センターでの製品および労働力需要の予測が挙げられます。たとえば、プライムデー、ブラックフライデー、サイバーマンデーなどの主要な繁忙期の予測です。また、AWS のコンピューティングおよびストレージ能力が AWS のお客様全体に伸縮自在に行き渡るようにすることもその一例です。Amazon の科学者は Amazon におけるこの種の実世界のビジネス用途を、高い精度で解決するために DeepAR などのアルゴリズムを開発します。 DeepAR アルゴリズムのハイライト DeepAR 予測アルゴリズムはいわゆる自己回帰和分移動平均 (ARIMA) や指数平滑化 (ES) といった、予測用のオープンソース型ソフトウェアパッケージと商用ソフトウェアパッケージの多くに実装されている従来の予測技法と比較してより高い精度の予測を提供します。DeepAR アルゴリズムはまた、実世界の用途に特によく適した、他の機能およびシナリオをサポートしています。 コールドスタート予測 コールドスタートのシナリオとは、既存の履歴データがほとんど存在しない、またはまったく存在しない時系列の予測を生成する必要があるときに生じます。これは、実際には新商品の投入時、新 AWS リージョンが登録されたときによく起こります。ARIMA または ES といった従来の手法では個々の時系列に対し履歴データのみに依存するため、コールドスタートのケースでは精度が落ちるのが一般的です。スニーカーのような衣料品の予測を例にして考えてみましょう。 DeepAR のようなニューラルネットワークベースのアルゴリズムは、スニーカーが最初に売り出された時点で他のタイプのスニーカーの販売パターンをベースに新商品のスニーカーの一般的な販売動向を学習できます。 トレーニングデータ内で複数の関連時系列から関係を学習することで、DeepAR は既存の代替アルゴリズムより正確な予測を提供できるのです。 確率予測 DeepAR はまた、ポイント予測と (例: 1 週間に売り上げたスニーカーの量が X) および確率予測 (例: 1 […]

Read More

AWS オンラインテックトーク – 2018 年 1 月

新年明けましておめでとうございます。新しいテックトークの素晴らしい第一陣で AWS の知識を広め、2018 年の幸先良いスタートを切りましょう。今回のテックトークでは、Amazon Neptune、Amazon Rekognition Video、AWS Fargate、AWS Cloud9、Amazon Kinesis Video Streams、AWS PrivateLink、AWS Single-Sign On などを含む re:Invent 一番のビッグローンチをいくつか紹介する予定です。 2018 年 1 月 – スケジュール 以下は、1 月に行われることが予定されているライブのオンラインテクニカルセッションです。AWS 関連のエキスパートによるトークは無料ですが、お見逃しないよう早目にご登録ください。 今月行われるウェビナーは次のとおりです。 1 月 22 日 (月) 分析 & ビッグデータ 午前 11:00~11:45 (太平洋時間) Analyze your Data Lake, Fast @ Any Scale  レベル: 300 データベース 午後 1:00~1:45 (太平洋時間) Deep Dive […]

Read More

今すぐ利用可能: AWS で使用する Machine Learning や人工知能について学べる新しいデジタルトレーニング

※本リンク先には英語トレーニングも含まれています。日本語版ができた時点で改めてご案内をさせていただきます。 先日、AWS トレーニングと認定で無料のトレーニングコースをリリースしました。このコースはクラウドのスキルを磨いたり Machine Learning (ML) や人工知能 (AI) を学びやすくするために提供しています。これには「ディープラーニングの概要 (Introduction to Deep Learning)」や「Amazon SageMaker の概要 (Introduction to Amazon SageMaker)」といった新しいコースが含まれています。 AWS エキスパートが構築した aws.training では、アクセス制限なしに 100 件以上のデジタルトレーニングを無料で利用することができます。ML や AI のデジタルトレーニングへのアクセスは簡単です。[Find Training] ページの [Artificial Intelligence] カテゴリを選択すると、使用可能なトレーニングをブラウズできます。キーワードに [Filter] を使用して特定のトレーニングを検索することもできます。 推奨トレーニング 初めてのご利用ですか、それとも新しいサービスに関する情報をお探しですか?次のデジタルトレーニングコースをご覧ください。 AWS Machine Learning サービスの概要 (AWS Machine Learning Services Overview) (所要時間: 5 分) このコースではフレームワーク、インフラストラクチャ、Machine Learning プラットフォーム、API によるサービスで機能を有効にする Amazon Machine Learning や人工知能ツールについて紹介します。 […]

Read More

Amazon EMR での Spark にバックアップされた Amazon SageMaker ノートブックの構築

2017年の AWS re:Invent で発表された Amazon SageMaker は、データサイエンスと機械学習ワークフローのためのフルマネージド型サービスを提供します。Amazon SageMaker の重要な部分のひとつは、モデルの構築に使用できる強力な Jupyter ノートブックインターフェイスです。Amazon SageMaker 機能は、ノートブックインスタンスを Amazon EMR で実行されている Apache Spark クラスターに接続することによって強化することができます。Amazon EMR は、大量のデータを処理するためのマネージドフレームワークです。この組み合わせにより、大量のデータに基づいてモデルを構築することが可能になります。 Spark はビッグデータの迅速な処理を可能にするオープンソースのクラスターコンピューティングフレームワークで、機械学習ワークロードのための MLlib が含まれています。Amazon SageMaker ノートブックと Spark EMR クラスターとの接続を容易にするには、Livy の使用が必要になります。Livy は、Spark クライアントを必要とすることなく、どこからでも Spark クラスタとやり取りするためのオープンソース REST インターフェイスです。 このブログ記事では、Spark EMR クラスターをスピンアップする、Amazon SageMaker と EMR 間のコミュニケーションを許可にするために必要なセキュリティグループを設定する、Amazon SageMaker ノートブックを開く、そして最後に Livy を使用してそのノートブックを EMR 上の Spark に接続する方法を説明します。このセットアップは、PySpark、PySpark3、Spark、および SparkR ノートブックで利用できます。 EMR […]

Read More

2018年1月のAWS Black Belt オンラインセミナーのご案内

あけましておめでとうございます。パートナーソリューションアーキテクトの相澤です。2018年1月のAWS Black Belt オンラインセミナーの配信についてご案内させて頂きます。 昨年度開催された、re:invent 2017の振り返りは、みなさまお済みでしょうか? 多くの新サービス、新機能が発表されましたが、2018年1月のBlackBeltでは、その振り返りをしていきたいと思います。 1月16日(火) 12:00~13:00 Machine Learning / Database 1月17日(水) 18:00~19:00 Compute、Container / Network 1月23日(火) 12:00~13:00 IoT / DevOps 1月24日(水) 18:00~19:00 Security / Other お申し込みは、それぞれ上記のリンクより行って頂けます。キャンセルの際も連絡不要ですので是非お早めにご登録ください。Speaker、Staff 一同みなさまのご参加をお待ちしております。        

Read More

AWS Lambda および Tensorflow を使用してディープラーニングモデルをデプロイする方法

ディープラーニングは、実際のデータを処理する方法に革命をもたらしました。ディープラーニングアプリケーションの種類は、ユーザーの写真アーカイブの整理から、本のレコメンド機能、不正な動作の検出、自動運転車周辺の認識まで、多岐にわたります。 この投稿では、AWS Lambda で独自にトレーニングしたモデルを使用して、単純なサーバーレスのコンピューティング手法を大規模に活用する方法を段階的にご説明します。このプロセスの中で、サーバーレスを使って推論を実行するために使用できる AWS の主要なサービスをいくつかご紹介します。 ここでは、イメージ分類について取り上げます。パフォーマンスが高いオープンソースモデルを多数利用できます。イメージ分類では、ディープラーニングで最も一般的に使用されている畳み込みニューラルネットワークと全結合ニューラルネットワーク (Vanilla Neural Networks としても知られる) の 2 種類のネットワークを使用することができます。 トレーニングされたモデルを配置する AWS の場所や、AWS Lambda が推論のためのコマンドで実行できる方法でコードをパッケージ化する方法についてご紹介します。 このブログ投稿では、AWS のサービス (AWS Lambda、Amazon Simple Storage Service (S3)、AWS CloudFormation、Amazon CloudWatch、AWS Identity and Access Management (IAM)) についてご説明します。使用する言語フレームワークおよびディープラーニングフレームワークには、Python や TensorFlow などがあります。ここで説明するプロセスは、MXNet、Caffe、PyTorch、CNTK などの他のディープラーニングフレームワークを使用して適用できます。 全体的なアーキテクチャ AWS アーキテクチャ プロセスの視点から、ディープラーニングの開発およびデプロイは、従来のソフトウェアソリューションの開発やデプロイと同じように行う必要があります。 以下の図は、開発ライフサイクルの一例です。 図を見て分かるように、通常のソフトウェア開発プロセスは、アイデア開始や開発環境のモデリングから、本番稼働用のモデルの最終デプロイまで複数の段階があります。ほとんどの場合、この開発段階では、環境を絶えず、繰り返し変更する必要があります。通常、この反復は、ソフトウェア/モデルの開発時に使用されるリソースの性質や量に影響を及ぼします。アジャイル開発では、環境をすばやく構築/再構築/解放できることが不可欠です。構築されているソフトウェアにすばやく変更を加えるには、インフラストラクチャの調整が必要です。アジャイル開発やイノベーションの加速の前提条件のひとつに、コードによってインフラストラクチャを管理できること (IaC: infrastructure as code) があります。 ソフトウェア設計の管理、構築およびデプロイの自動化は、継続的な統合および継続的な配信 (CI/CD) の一環です。この投稿では、綿密に計画された CI/CD パイプラインの詳細には触れていませんが、開発/デプロイの俊敏性およびプロセスの自動化を促進する反復可能プロセスを構築する開発チームは、念頭に置いておくべきです。 […]

Read More

AWS Direct Connectアップデート– 2017年後半に追加された新ロケーション10か所

2018年 あけましておめでとうございます。いよいよ年も明けて、近日中にリリースされる製品について学ぶためにチームの仲間たちと作業し、それを最新情報をブログ記事として皆さんにお届けするなど、通常業務に戻るのを心待ちにしています。今のところ、2017年後半にリリースされた製品や発表など、まだ記事にしていない内容について遅れを取り戻そうとしているところです。と 今日の記事で最初にご紹介するのは、AWS Direct Connectに適用される最新都市についての情報です。世界中のAWSのお客様は自社のネットワークコストを削減し、スループットの増大を図り、より一貫性のあるネットワークエクスペリエンスを実現する目的で、自社施設からAWSへの専用ネットワーク接続を確立するために、Direct Connectを使用しています。 12月には新たに10か所のロケーションがDirect Connectリストに追加されました。いずれも1GBと10GBの接続速度を提供し、パートナー提供のオプションを利用すれば1GB以下の速度も選択できます。以下は最新ロケーションの情報です。各ロケーションごとにデータセンター、関連するAWS地域を示します。 インド、バンガロール – NetMagic DC2 – アジア太平洋(ムンバイ)。 南アフリカ、ケープタウン – Teraco Ct1 – EU (アイルランド)。 南アフリカ、ヨハネスブルク – Teraco JB1 – EU (アイルランド)。 英国、ロンドン – Telehouse North Two – EU (ロンドン)。 米国、フロリダ州マイアミ – Equinix MI1 – 米国東部(北バージニア)。 米国、ミネソタ州ミネアポリス – Cologix MIN3 – 米国東部(オハイオ) 中国、寧夏 – Shapotou IDC – 中国(寧夏)。 中国、寧夏 […]

Read More

Amazon Auroraを使用したMagento Content Servicesの構築をAWS Quick Startで加速させる

AWS Quick Startでは、2015年9月にオープンソースのコンテンツ管理システムであるMagentoを初めてリリースしました。最初のリリース以来、このQuick Startは常にお客様に最も人気のあるQuick Startのトップ10に入っています。 2017年10月、AWS Quick Start for Magentoのアップデートをリリースしました。Amazon Aurora MySQL-compatible editionのサポートが追加されました。また、Magentoのバージョンを2.1.2にアップデートしました。更新されたMagentoのQuick Startを利用することで、最新のMagentoバージョンでAuroraのパフォーマンスとスケーラビリティを使用して、コンテンツシステムの構築を迅速に行うことが出来ます。 数年前にAmazon Auroraの開発を開始した際に、私たちは次のような考え方を念頭に置いていました: ハイエンドの商用データベースのパフォーマンスと可用性を、オープンソースのシンプルさとコスト効率で実現 一般的なオープンソースデータベースであるMySQLとの完全な互換性を提供し、既存のアプリケーションを変更する必要がない アプリケーションの開発に専念できるように、データベースをマネージドデータベースとして提供することで管理コストを軽減 最新アプリケーションのスケーラビリティのニーズを満たすクラウドネイティブデータベースを提供 すでに何千もの顧客やパートナーが、Amazon AuroraMySQL-compatible editionを採用しています。お客様とISVパートナーは、様々なデータベースからAmazon Auroraに移行を行っています。オンプレミスデータベースからAmazon Auroraに移行されるお客様や、Amazon EC2上のMySQLまたは商用データベースからAmazon Auroraに移行を行うお客様もいらっしゃいます。 Magento on AWS with Amazon Aurora Magentoは、e-commerceウェブサイト用のオープンソースのコンテンツ管理システムです。セラーと開発者はオープンアーキテクチャ、柔軟性、拡張性(何百もの拡張機能)を評価しています。また、独自のニーズに合わせて、バックエンドのワークフローを調整できます。 Magento Community Edition(Magento CE)とMagento Enterprise Edition(Magento EE)は、我々のお客様に人気があります。多くのお客様は、Anchor Hosting、Elastera、Tenzing、Razorfish、OptarosなどのAWSパートナーを利用してMagentoをAWSでホストしています。他の企業はAWS MarketplaceからMagentoを起動しています。 Magentoを検索すると、2015年の20件から70件以上のリストが返されるようになりました。さらに、MagentoのAWS Quick Startを直接利用している企業もあります。 Amazon AuroraはMySQLと互換性があるため、MagentoのAWS Quick Startを更新するのは簡単です。新しいQuick Startでは、Magentoまたはその設定を変更する必要はありません。今使用しているコード、ツール、アプリケーションを、Amazon Auroraと既存のMySQLデータベースと併用することが可能です。 MagentoのAWS Quick Startを使用してデプロイした場合は、Amazon RDS […]

Read More

【開催報告】AWS-HUB

全国70以上の支部で構成される勉強会コミュニティを中心とした、Japan AWS User Group (JAWS-UG)の2017年納会が12月20日に行われました。インターネットで各会場を接続した「オンライン納会」は、各会場が個別に年末勉強会や忘年会を企画し、午後8時にビデオチャットで仙台、東京、金沢、名古屋、神戸、愛媛、高知、長野の全国8会場を結んで乾杯を行い、一年の労をねぎらいました。   ユーザーグループの活動のメインは勉強会ですが、今回のように各人のネットワーキングを広げる懇親会も非常に重要です。この場でコミュニティの雰囲気を感じていただき勉強会に参加されるようになったかたも多くいらっしゃいます。「AWS-HUB」とはAWSユーザーが集まって懇親を深める「パーティー」をさし、この言葉は日本のみならず、グローバルでも使われています。   東京会場のアマゾン ウェブ サービス ジャパン アルコタワーには30名を超えるメンバーと数名の社員が集まりました。AWSのノベルティープレゼントクイズなどを行い、メンバー間の懇親を深めました。             [AWS-HUB@目黒アルコタワー]             [立食形式で各テーブルで会話がはずみます(東京会場)]   午後8時前には各会場をビデオチャットツールで接続し、それぞれの会場の模様をネット越しで共有し、AWSJのコミュニティプログラム担当の沼口の発声により全員で乾杯をしました。                                           今回のオンライン納会は全国8会場、おおよそ100名のJAWS-UGメンバーをつなげて行われました。30名をこえる会場もあれば、3名のこじんまりとした会場もありました。場所と規模の違いを超えネットとディスプレイを通して各会場で経験を共有するこの方法は、全国に支部を展開するJAWS-UGのメンバーにとって容易にネットワーキングを広げる手段です。 JAWSへの参加にご興味がある方は勉強会カレンダーを是非ご確認ください。またAWS-HUBの開催情報もチェックしてみてください。 そして、来年3月、JAWS最大のイベント、JAWS DAYS 2018が五反田で開催されます。みなさんにお会いするのを楽しみにしています。 […]

Read More

kopsを使ってKubernetesクラスタをAWS上で構成

この記事では、KubernetesクラスタをAWS上で構成し運用するツールの1つであるkopsを利用すると、簡単にKubernetesを始められることをご紹介します。なお最新情報は、GitHubで公開しているAWS Workshop for Kubernetesをご覧頂き、さらに構築したクラスタを使って様々なワークショップをご自身の手で試して頂くことをお勧めします。 kopsについて Kubernetesのトップレベルプロジェクトで、Kubernetesのクラスタを構成し運用するためのツールです。また、クラスタのローリングアップデートや、アドオンもサポートしています。必要に応じて、AWS CloudFormationやTerraformのテンプレートを出力することもできるので、それを基準にカスタムして行くということも可能です。 kopsをインストール kopsは2017年12月26日時点では、macOS、Linux、Windows 10 Linux Subsystemで利用可能です。この記事ではmacOSを利用していきます。Homebrewが対応しているので以下のコマンドでインストールするのが最も簡単です: $ brew update && brew install kops SSH鍵の生成 kopsはクラスタ作成の際にSSHの公開鍵を利用します。デフォルトの配置場所は~/.ssh/id_rsa.pubとなります。ssh-keygenコマンドを利用して作成しておきます。 $ ssh-keygen Generating public/private rsa key pair. Enter file in which to save the key (~/.ssh/id_rsa): Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in ~/.ssh/id_rsa Your […]

Read More