Amazon Web Services ブログ

Savings Plan のよくいただくお問い合わせについて

みなさん、こんにちは。アマゾン ウェブ サービス ジャパン、プロダクトマーケティング シニアエバンジェリストの亀田です。 2019年11月12日にリリースされました、AWSの新しい割引プランであるSavings Plansについて、多くのお問い合わせをお客様から頂いておりますので、改めてそのご回答を纏めてお届けいたします。 Savings Plansとは ・お客様が Amazon EC2で最大 72%、AWS Fargate で最大52% 節約することを可能にする新しい柔軟な料金モデルです。RI と同等の割引が適用されることに加え、スケールアップ等、構成の変更を行なった場合も柔軟に割引が適用されることが特徴です。 Savings Plans では、1年または3年の期間で、一貫したコンピューティング使用量をコミットすることにより、 コミット分に対し Savings Plans の割引価格が適用されます。 たとえば、1時間あたり10ドルのコンピューティング使用量をコミットすると、その使用量の Savings Plans の 価格が最大10ドルになり、コミットメントを超える使用量にはオンデマンド料金が請求されます。 Savings Plans には 2種類のプランがあります。 Compute Savings Plans 最も柔軟性が高く、コストを最大 66% 削減できます(コンバーティブル RI と同様)。 こちらは、インスタンスファミリー、サイズ、AZ、リージョン、OS、テナンシーに関係なく、EC2 インスタンスの使用量に対し自動的に適用されます。また、Fargate の使用量にも適用されます。 たとえば、C4 インスタンスから C5 インスタンスに移行したり、リージョンをダブリンからロンドンに移行したり、EC2 から Fargate に移行した場合にも、自動的に割引が適用されます。 EC2 Instance Savings Plans […]

Read More

AWS Launch Wizard を使用して SQL Server Always On のデプロイを加速する

ドメインの専門家でも、クラウドに慣れていないがゆえに、クラウドの開始に手間と時間がかかることがあるそうです。クラウドへの移行を加速するためにも、AWS プラットフォームに関するトライバルな知識やベストプラクティスを前もって必要とせずに、AWS にエンタープライズアプリケーションをすばやく簡単にデプロイしたいという専門家からの声も聞きます。 お知らせAWS Launch Wizard for SQL Server AWS Launch Wizard for SQL Server はシンプルかつ直感的な無償のウィザードベースで、AWS での高可用性 SQL ソリューションの迅速、簡単なデプロイを実現します。ウィザードは、手引きとなるガイドブックを使って、Always On 可用性グループのエンドツーエンドのデプロイを段階的に説明します。必要なパフォーマンス特性といったアプリケーションに関するいくつかの高レベルの質問に答えていくと、ウィザードが一致する AWS リソース (Amazon Elastic Compute Cloud (EC2) インスタンス、Amazon Elastic Block Store (EBS) ボリューム、Amazon Virtual Private Cloud など) の識別、プロビジョニング、設定を行います。選択に基づいて、ウィザードが動的に生成されたデプロイの推定コストを提示します。リソースの選択を変更した場合でも、更新したコスト評価を確認し、お客様の予算に合わせることができます。 承認が完了すると、AWS Launch Wizard for SQL Server がこれらのリソースをプロビジョニングし、わずか数時間で完全に機能する本番対応の SQL Server Always On のデプロイを作成するように設定します。作成したリソースにはタグが付けられるため、識別と操作が容易になります。さらに、ウィザードは AWS CloudFormation テンプレートを作成し、反復可能で一貫性のあるアプリケーションをデプロイするためのベースラインを提供します。 お客様に代わって […]

Read More

AWS Data Exchange – データ製品の検索、登録、および使用について

私たちが暮らす世界は、データ集約型、そしてデータ駆動型に依存しています。 どんな種類の組織でも、データの収集、保存、処理、分析を行い、そのデータを使って意思決定プロセスの通知や改善を行っています。AWS Cloud は、こうした活動すべてに適しています。膨大な量のストレージ、あらゆるケールのコンピューティング能力へのアクセス、多くの異なる種類の分析ツールを実現しています。 たいていの組織では、内部でデータを生成したり操作したりするだけでなく、データセットを生成し、それを一般の人々や業界内で共有しています。2008 年に AWS パブリックデータセット (研究者、アナリスト、および開発者のページング) を立ち上げることで、こうした動きを奨励しようと最初の一歩を踏み出しました。この取り組みは Registry of Open Data on AWS (新しくは Registry of Open Data on AWS (RODA)) に発展し、現在 118 件の興味深いデータセットが含まれ、常に追加されています。 新しくなった AWS Data Exchange 本日、弊社は AWS Data Exchange を立ち上げ、次の一歩を踏み出しました。AWS Marketplaceにこれを追加したことで、80 件を超えるデータプロバイダからの 1,000 件を超えるライセンス可能なデータ製品が含まれることになります。金融サービス、ヘルスケア/ライフサイエンス、地理空間、天気、マッピングなどのカテゴリでは、無料と有料のサービスを含むさまざまなカタログがあります。 データサブスクライバーの場合、これらの製品をすばやく見つけて調達し、使用を開始できます。データプロバイダーなら、独自の製品を簡単にパッケージ化し、ライセンス供与と配信が可能です。両者の観点から Data Exchange を見て、いくつか重要な詳細を確認しましょう。 詳細を見る前に、重要な用語をいくつか定義します。 データプロバイダー – 共有する複数のデータ製品を持つ組織。 データサブスクライバー – データプロバイダーのデータ製品の利用を考えている AWS のお客様。 データ製品 – […]

Read More

re:Invent 2019 で AWS ファイルストレージソリューションを探る

今日のビジネス環境において、データはイノベーションやトランスフォーメンションの基盤とされています。データを正しい方法で使えば、文字通りマーケットリーダーを目指してビジネスを推進することができます。 そのため、データの保管、保護、保全がどんなビジネスにとっても最重要事項となります。 今年のre:Inventでは、AWS がデータストレージ分野について何をどのように行っているのか網羅した 150 以上のブレイクアウトセッションやワークショップ、チョークトーク、ビルダーセッションを開催します。 データ移行の事例についてお客様からもお話しいただきます。「What’s new in AWS file storage」セッションには、Discover Financial Services 取締役の Brandon Harris 氏、専務の Mark Bixler 氏をお呼びしています。MINDBODY, Inc. のクラウドエンジニアの方からはクラウド移行についてお話しいただきます。 re:Inventをご存じない場合または見直したい場合、弊社が最近発行したAWS Storage re:Invent guide がおすすめです。 AWS Storage チームがおすすめする必見のセッションはこちらです: ブレイクアウトセッション STG201-L – リーダーシップセッション: ユニオンのストレージの状態 STG202 AWS ファイルストレージの新機能 STG208 AWS のバックアップ・復元および災害復旧ソリューション STG211 オンプレミスのファイルベースのアプリケーションで AWS ストレージを使用する方法 STG238 AWS でファイルベースのアプリケーションをリフト & シフトする STG304 [REPEAT] Network File System (NFS) の進化: Amazon […]

Read More

機械学習と感度分析を組み合わせてビジネス戦略を開発する

機械学習 (ML) は、意思決定を支援するために無数の企業で日常的に使用されています。ただし、ほとんどの場合、ML システムによる予測とビジネス上の決定には、判断を下すために人間のユーザーの直感がまだ必要です。 この記事では、ML を感度分析と組み合わせて、データ駆動型のビジネス戦略を開発する方法を示します。この記事では、顧客の解約 (つまり、競合他社への顧客の離反) に焦点を当て、ML ベースの分析を使用するときにしばしば発生する問題を取り上げます。これらの問題には、不完全で不均衡なデータの処理、戦略的オプションの導出、およびそれらのオプションの潜在的な影響の定量的評価に関する困難が含まれます。 具体的には、ML を使用して解約する可能性の高い顧客を特定し、機能の重要性とシナリオ分析を組み合わせて定量的および定性的な推奨事項を導き出します。次に、組織はその結果を使用して、将来の解約を減らすための適切な戦略的および戦術的決定を下すことができます。このユースケースは、以下のように、データサイエンスを実践する際に発生するいくつかの一般的な問題を示しています。 低い信号と雑音比と、特徴と解約率の間の明確な相関関係の欠如 非常に不均衡なデータセット (データセット内の顧客の 90% が解約しない) 確率論的な予測と調整を使用した、解約問題への過剰投資のリスクを最小限に抑える意思決定メカニズムの特定 エンドツーエンドの実装コードは、Amazon SageMaker で利用でき、Amazon EC2 でスタンドアロンとして利用できます。 このユースケースでは、さまざまなタイプの製品を提供する架空の会社を考えます。その会社の 2 つの主要な製品を製品 A と製品 B と呼びます。会社の製品と顧客に関して部分的な情報しか持っていません。同社は最近、競合他社への顧客離反 (解約とも) が増加している様を見ています。データセットには、数か月にわたって収集およびソートされた数千の顧客の多様な属性に関する情報が含まれています。これらの顧客の一部は解約しており、一部はそのままです。特定の顧客のリストを使用して、個人が解約する確率を予測します。このプロセス中、次のいくつかの質問に対して回答しようと思います。顧客離れの信頼できる予測モデルは作成できるのか? 顧客が解約する可能性を説明する変数は何か? 会社は解約を減らすためにどのような戦略を実行できるか? この記事では、ML モデルを使用して解約削減戦略を策定するための次の手順について説明します。 データの探索と新機能のエンジニアリング 最初に、個々の入力機能と解約ラベルの間の単純な相関関係と関連性を調べて、顧客データを探索する方法を説明します。また、機能自体の間の関連付け (相互相関、または共分散と呼ばれる) も調べます。これにより、アルゴリズムの決定、特に、どの機能を派生、変更、または削除するかを決定できます。 ML モデルのアンサンブルの開発 次に、自動機能選択を含むいくつかの ML アルゴリズムを構築し、複数のモデルを組み合わせてパフォーマンスを向上させます。 ML モデルのパフォーマンスの評価と改善 3 番目のセクションでは、開発したさまざまなモデルのパフォーマンスをテストします。そこから、解約する顧客の数を過大評価するリスクを最小限に抑える意思決定メカニズムを特定します。 ビジネス戦略設計への ML モデルの適用 最後に、4 番目のセクションでは、ML の結果を使用して、顧客の解約に影響する要因を理解し、戦略的オプションを導き出し、解約率に対するこれらのオプションの影響を定量的に評価します。そのためには、感度分析を実行します。この分析では、実際の生活で制御できるいくつかの要因 (割引率など) […]

Read More

AWS Systems Manager の新しいオートメーション機能

本日、AWS Systems Manager 内で追加された自動化機能を発表します。Systems Manager をまだ使用していない方のために説明すると、本サービスは統合されたユーザーインターフェイスを提供するため、複数の AWS サービスから運用データを表示し、AWS リソース全体の運用タスクを自動化できます。 この新しいリリースで、さらに強力になりました。AWS Systems Manager に追加機能を追加しました。これにより、チーム内または組織内の他のユーザーと自動化を構築、実行、共有できるため、インフラストラクチャの管理を繰り返すのがより簡単になり、エラーが発生しにくくなります。 ナビゲーションメニューの AWS Systems Manager コンソール内には、オートメーションという項目があり、このメニュー項目をクリックするとオートメーションを実行ボタンが表示されます。 これをクリックすると、実行するドキュメントを尋ねられます。AWS では、選択可能なドキュメントのライブラリを提供しますが、今日は独自のドキュメントを作成するため、ドキュメントを作成ボタンをクリックします。 これにより、新しい画面が表示され、Python または PowerShell スクリプトを実行するドキュメント (オートメーションプレイブックとも呼ぶ) を作成できます。 コンソールには、ドキュメントを編集するための 2 つのオプションがあります。YAML エディタまたはガイド付きの段階的なユーザーインターフェイスを提供する「ビルダー」ツールで、各ワークフローステップのドキュメントを含めることができます。 それでは、簡単なオートメーションを構築して実行してみましょう。ビルダーツールを使用してドキュメントを作成する場合、最初に必要なのはドキュメント名です。 次に、説明を入力する必要があります。以下に示すように、Markdown を使用して説明の書式を設定できます。説明は、ドキュメントの機能を説明する絶好の機会です。ほとんどのユーザーは、これらのドキュメントをチームの他のユーザーと共有し、日常の問題を解決するためのドキュメントライブラリを構築したいと思っています。 オプションで、ドキュメントのパラメータを指定するように求められます。これらのパラメータは、後で作成するすべてのスクリプトで使用できます。この例では、3 つのパラメータ imageId、tagValue、instanceType を作成しました。このドキュメントを実行するときに、設定したデフォルトを上書きするこれらのパラメータの値を提供する機会があります。 誰かが私のドキュメントを実行すると、実行されるスクリプトは AWS サービスと対話します。ドキュメントは、Assume ロールを提供するオプションとともに、ほとんどのアクションに対するユーザー権限を使用して実行されます。ただし、スクリプトを実行する操作を含むドキュメントの場合、スクリプトが AWS API を呼び出すときにロールが必要です。 ビルダーツールで、Assume ロールをグローバルに設定できます。ただし、ドキュメントに assumeRole というパラメータを追加したいので、それを実行している人であれば誰でも別のパラメータを提供できます。 次に、Assume ロールプロパティのテキストボックスで {{assumeRole}} 構文を使用して、このパラメータをグローバルに assumeRole に結び付けます (パラメータ名 […]

Read More

Amazon SageMaker RL Notebook を使用した AWS DeepRacer のカスタム深層強化学習およびマルチトラックトレーニング

re:Invent 2018 で開始された AWS DeepRacer は、開発者が強化学習 (RL) を実践するのに役立ちます。  それ以来、世界中の AWS Summits で開催された 21 の AWS DeepRacer リーグイベントで、何千人もの人々が仮想的に AWS DeepRacer コンソールを通じてモデルを開発し、競い合いました。サミット以外にも、AWS Lofts でのいくつかのイベント、開発者のミートアップ、パートナーセッション、企業イベントなどがありました。 AWS DeepRacer で学び、実験する開発者の熱意は非常に高いものがあります。多くの人は、さらに探求し、ニューラルネットワークアーキテクチャやトレーニングプリセットを改良したり、複数のトラックで並行してトレーニングしたりする能力を高めたいと考えています。 AWS DeepRacer は、Amazon SageMaker、AWS RoboMaker、Amazon Kinesis Video Streams、Amazon CloudWatch、Amazon S3 など、他のいくつかの AWS のサービスを利用しています。こうした各コンポーネントをよりきめ細かく制御してシミュレーション環境とモデリング環境を拡張するために、この記事にはこうした環境のプロビジョニングと管理に役立つノートブック環境が含まれており、AWS DeepRacer でのエクスペリエンスのあらゆる側面を改良できます。詳細については、この記事の GitHub リポジトリを参照してください。 この記事では、環境の設定方法を探り、AWS DeepRacer コードベースの主なコンポーネントを掘り下げ、ニューラルネットワークやトレーニングプリセットの変更、アクションスペースのカスタマイズ、複数のトラックでの並行トレーニングについて詳しく説明します。最後には、Amazon SageMaker を使用して AWS DeepRacer モデルトレーニングを変更する方法を理解できているはずです。 開発者は、AWS DeepRacer コンソールの背後にあるツールを利用することで、AWS DeepRacer トレーニングとモデルのあらゆる側面をカスタマイズおよび変更し、モデルを直接レースにダウンロードして、NeurIPS […]

Read More

AWS Data Exchange を使用してデータ製品を動的に公開し、更新する

あらゆるサイズの組織において、データがビジネスの方法を大変革しています。会社はますます、サードパーティのデータを、社内のデータを補完し、顧客に価値を提供できるようにするために使用するようになっています。サードパーティのデータは、様々なユースケースで使用されています。その中には、顧客のためのアプリケーションの構築、事業の運営とマーケティング活動を改善するためのワークロードの分析、機械学習(ML)のテクニックに基づく予測モデルの構築が含まれます。 しかし、データが会社の事業の中心になったにもかかわらず、データプロバイダーがサブスクライバーにデータを提供する方法は何年も変わっていません。データプロバイダーの側からすると、提供物としてのデータと、エンタイトルメントの管理機構を構築するために、代わり映えのしないヘビーリフティングに時間と労力を費やして、顧客にサービスを提供してきたわけです。多くのデータプロバイダーは、従来式の販売方法と配信チャネルに依存しており、多くの場合、自社のデータに関心を持っている多くの見込み客にアクセスすることはできないでいます。そのため、データ製品をニーズに適合させることは遅れています。 AWS Data Exchange の世界に入ってください。 AWS Data Exchange を使用すると、クラウド内のデータを簡単に交換できます。顧客は数分で、金融サービス、ヘルスケア、ライフサイエンス、消費者および小売などの業界の 80 を超える認定データプロバイダーからの数百のデータ製品を見つけて購読できます。購読の後、顧客はデータセットをダウンロードすること、またはAmazon S3 にコピーして、AWS の様々な分析と機械学習サービスを使用しての分析することができます。AWS Data Exchange を使えば、データプロバイダーは、セキュアで透明、そして信頼できるチャネルを通して幾百万の AWS の顧客に接触する機会が得られます。AWS Data Exchange はまた、データの配信、ライセンス、または課金のインフラストラクチャを構築する必要をなくすので、既存の顧客サブスクリプションをより効率的に、そしてより低コストで提供できるようにする点でも助けになります。 多くのデータプロバイダーは、定期的に更新されるデータ製品を公開しています。たとえば、株式価格のデータプロバイダーは毎日の終値を公開したいと思うでしょうし、天気予報のデータプロバイダーは、予報を毎週更新したいと思うでしょう。この記事では、AWS Data Exchange で製品の公開と更新を動的に行う方法について、手順を追って説明します。まず、新しい製品を公開して、サブスクライバーが利用できるようにします。これは AWS Data Exchange コンソールを使用して数分間で行えます。それから、Lambda 関数を使用して、基本となるデータセットに新しいリビジョンを公開することにより、製品を自動的に更新するワークフローも知ることができます。 前提条件 開始する前に、次の前提条件を満たしてください。 AWS Data Exchange の登録プロバイダーとなる必要があります。資格があり、登録プロバイダーだけが、AWS Data Exchange でデータ製品を公開できます。資格があるプロバイダーは、米国または EU の成員国に本拠を置く有効な法人の下で AWS Marketplace の利用条件に合意し、有効な銀行および課税当局の身分証明書を提出し、AWS Data Exchange のビジネスオペレーションチームによって資格を認定される必要があります。詳細については、Providing Data Products on AWS Data Exchange(AWS […]

Read More

現在利用可能: Amazon Personalize のバッチレコメンド

本日、Amazon Personalize がバッチレコメンドをサポートするようになったことをお知らせいたします。 AWS re:Invent 2018 にて開催された Personalize は機械学習の経験をほとんど必要とせずに、アプリケーション用に個人にカスタマイズしたレコメンドを作成できる完全マネージド型サービスです。 Personalize ではオプションで顧客の人口統計情報 (年齢、場所など) だけでなく、アクティビティデータ (ページ閲覧数、サインアップ、購入など) を独自に表示します。次に、記事、製品、ビデオ、音楽など、レコメンドする項目のインベントリを提供します。以前のブログ記事で説明したように、Amazon Simple Storage Service (S3) に保存された履歴データと、JavaScript トラッカーまたはサーバー側からリアルタイムで送信されたストリーミングデータの両方を使用できます。 さらに Personalize はデータの処理と検証、重要なものの特定、正しいアルゴリズムの選択、データに合わせてカスタマイズし API を介してアクセス可能なパーソナライゼーションモデルのトレーニングと最適化を行います。これによってお客様のビジネスアプリケーションを簡単に呼び出すことができます。 ただし、一部のお客様からは、バッチのレコメンドがユースケースにより適しているとの声が寄せられています。たとえば、非常に多数のユーザーまたは項目に対するレコメンド事項を一度に計算し、それらを保存して、電子メールや通知送信などのバッチ指向のワークフローに時間をかけてフィードする機能が必要な場合があります。そのような方法を使うこともできますが、リアルタイムのレコメンドエンドポイントを使用すると、バッチ処理がより便利になり、費用対効果が高まります。 簡単なデモを見てみましょう。 バッチレコメンド事項の紹介 簡単にするために、この投稿でトレーニングされた映画のおすすめソリューションを MovieLens データセットで再利用します。ここでは、このソリューションに基づいてリアルタイムキャンペーンをデプロイする代わりに、バッチレコメンドジョブを作成します。 まず、映画をおすすめしたいユーザーを定義しましょう。S3 バケットに保存する JSON ファイルにユーザー ID を表示しただけです。 {“userId”: “123”} {“userId”: “456”} {“userId”: “789”} {“userId”: “321”} {“userId”: “654”} {“userId”: “987”} 次に、そのバケットにバケットポリシーを適用して、Personalize がバケット内のオブジェクトを読み書きできるようにします。ここでは AWS コンソールを使用していますが、PutBucketAcl API […]

Read More

新機能 ‐ Amazon EMR と Apache Hudi を使用して S3 でデータを挿入、更新、削除する

Amazon S3 のデータの保存により、スケール、信頼性、コスト効率の観点で多くの恩恵が得られます。 その上、Amazon EMR を利用して、Apache Spark、Hive、および Presto のようなオープンソースツールを使用してデータを処理し、分析することができます。 これらのツールと同じように強力ですが、増分データ処理、レコードレベルの挿入、更新、および削除を行うために必要なユースケースを処理するには引き続き課題があることが考えられます。 お客様と話して、個々のレコードに対する増分変更を処理することが必要なユースケースがあることがわかりました。たとえば、次のような場合です。 データプライバシー規制に準拠する。この場合、ユーザーは忘れられる権利を行使するか、データを使用する方法に関する同意を変更するかを選択することができます。 ストリーミングデータを操作する。この場合、特定のデータの挿入とイベントの更新を取り扱う必要があります。 エンタープライズデータウェアハウスまたは運用データストアからデータベースの変更ログを追跡し取り込むために、変更データ取り込み (CDC) アーキテクチャを使用する。 後で到着するデータを復元するか、特定の時点でのデータを分析する。 本日より、EMRリリース5.28.0にはApache Hudi (incubating)が搭載され、レコードレベルの挿入、更新、削除の操作を行うためのカスタムソリューションを構築する必要がなくなりました。Hudiの開発は、インジェストとETLパイプライン全体の非効率性に対処するため、2016年にUberで始まりました。ここ数カ月、EMRチームはApache Hudiコミュニティと緊密に連携し、HudiをSpark 2.4.4にアップデート(HUDI-12)、Spark Avroをサポート(HUDI-91)、AWS Glue Data Catalogのサポートを追加(HUDI-306)、さらに複数のバグフィックスを含むパッチを提供してきました。 Hudi を使用して、S3 でレコードレベルの挿入、更新、削除を実行して、データプライバシー法を順守し、リアルタイムストリームを消費してデータキャプチャを変更し、遅れて到着するデータを復元し、ベンダーに依存しないオープンな形式で履歴とロールバックを追跡できます。データセットとテーブルを作成し、Hudi は基礎のデータ形式を管理します。 Hudi は Apache Parquet および Apache Avro をデータストレージに使用し、Spark、Hive、および Presto との組み込み統合が含まれており、現在使用しているものと同じツールを使用して Hudi データセットをクエリし、最新のデータにほぼリアルタイムでアクセスできます。 EMR クラスターを開始するときに、Hive、Spark、または Presto のいずれか少なくとも 1 つのコンポーネントが選択されるときにはいつでも、Hudi のライブラリとツールがインストールされ、自動的に設定されます。 Spark を使用して、新しい Hudi データセットを作成し、データを挿入、更新、および削除できます。それぞれの Hudi データセットはクラスターの設定された メタストア (AWS Glue Data […]

Read More