Amazon Web Services ブログ

AWS Database Migration Serviceを使用し、Amazon Kinesis Data Streamingを実施する

この投稿では、AWS Database Migration Service (AWS DMS) を使用し、Amazon Kinesis Data Streamsに変更データをストリーミングする方法について議論します。 以前の投稿 Load CDC Data では、データ処理アーキテクチャについてリアルタイムで議論しました。その一環として、AWS DMS を使用して Amazon RDS for Microsoft SQL Server のデータベースの変更を取得し、AWS Lambdaを使用して Kinesis Data Streams に送信する方法について扱いました。AWS DMS のターゲットとしての Kinesis Data Streams の開始により、変更データの取得データ(CDC)のストリーミング、分析、および格納がより簡単になりました。DMSは、成功事例を使用してデータからの変更を自動的に収集し、それを Data Streams にストリーミングします。 Kinesis Data Streamsをターゲットとして追加したため、お客様がデータレイクを構築し、データストアからデータを変更してリアルタイムで処理することができます。 データ統合パイプラインで AWS DMS を使用して、ほぼリアルタイムで Kinesis Data Stream にデータを複製できます。このアプローチを使用すれば、アプリケーションを高価なデータベース上に構築しなくても、デカップリングされ、最終的に一貫したデータベースビューを構築が可能になります。 リアルタイムの変更データのアーキテクチャ 数多くの組織がKinesis Data ストリームを使用して変更データを分析し、Webサイト、不正検出、広告、モバイルアプリケーション、IOTなどを監視しています。 この投稿では、AWS DMSを使用して関連データベースの変更データを Kinesis Data […]

Read More

近日登場 – コンピューティング能力と GPU を増強した Snowball Edge

お客様のニーズに基づいたイノベーションが実現するのを目の当たりにする経験は、飽きることがありません。 AWS のお客様からペタバイト単位のデータを AWS に出し入れする簡単な方法が必要だという要望をいただいたとき、私たちは AWS Snowball でお応えしました。その後、AWS にデバイスを送信してデータを戻す前に (多くの場合、オフラインで) ローカルデータ処理やフィルタリングを行いたいという要望をお客様からいただいたときは、AWS Lambda 関数を使用してローカル処理を行える AWS Snowball Edge を提供しました。今年の始めには、EC2 コンピューティングインスタンスのサポートを追加し、デバイスごとに最大 10 個の AMI を事前ロードできるサイズと機能を備えた 6 つのインスタンスが利用可能になりました。 素晴らしい進歩ですが、これで終わりではありません! コンピューティング能力と GPU の増強 嬉しいことに、私たちは 2 つの新しい Snowball Edge オプションを提供する準備ができています。それは、Snowball Edge Compute Optimized と Snowball Edge Compute Optimized with GPU です (元の Snowball Edge は、Snowball Edge Storage Optimized という名称になりました)。どちらのオプションにも、42 TB の […]

Read More

新機能 – Machine Learning を中核とする EC2 の予測スケーリング

AWS の歴史を振り返り、クラウド本来の特徴である動的なオンデマンド性を真の意味で象徴するようなサービスとは何であったかを思い起こしてみます。2 つありました。それは、2006 年のAmazon EC2 のスタートと 2009 年の CloudWatch Metrics、Auto Scaling、Elastic Load Balancing の同時スタートです。前者は計算能力へのアクセスをもたらし、後者はその計算能力へのアクセスを需要の変化に対応できるよう高速かしました。それ以来、これらのサービスに多数の機能を追加してきました。私の知る限りでは、今でもその重要性、基本性は変わっていません。 新しい予測スケーリング 本日、Auto Scaling は予測スケーリングの追加によりさらに強化されます。ユーザーが使用する EC2 から収集されたデータおよび弊社独自の観測結果から得られた情報をもとに、十分にトレーニングを重ねた Machine Learning モデルを使用して、予想されるトラフィック量 (および EC2 使用量) を日次パターンと週次パターンで予測します。当該モデルで予測を開始するには、履歴データを最低でも 1 日分必要とします。その予測結果は 24 時間ごとに再評価され、次の 48 時間分を予測します。 このモデルを使いやすくするために、最善を尽くしてきました。クリック 1 回で有効化し、次に、3 ステップのウィザードに従って観測およびスケーリング対象のリソースを選択します。EC2 インスタンスのウォームアップ時間を設定できます。また、実際および予測の使用状況を見やすく視覚化します。 予測プロセスではスケーリングプランが作成され、Auto Scaled EC2 インスタンスのグループを 1 つまたは複数動作させることが可能です。 新しいスケーリングプランが動作を開始すると、日次ベースや週次ベースでピークに達する前に先を見越したスケーリングができるようになります。この結果、ユーザーのウェブサイトやビジネスに関してユーザーエクスペリエンス全体が向上し、オーバープロビジョニングを防止して EC2 コスト削減に役立ちます。 それでは、具体的にご覧いただきます。 動作中の予測スケーリング まず Auto Scaling コンソールを開いて、[今すぐ始める] をクリックします。 観測および予測スケーリング対象のリソースを選択するには、3 […]

Read More

AWS GovCloud (米国東部) が開設されました

昨年、2011 年に開設された既存の AWS GovCloud (米国西部) リージョンの米国東部パートナーとなる AWS GovCloud (米国東部) の開設に取り組んでいることについてお話しました。この度、この新しいリージョンが開設され、連邦政府、州政府、および地方政府の各機関、それらの機関にサービスを提供する IT 請負業者、ならびに規制対象のワークロードをお持ちのお客様のニーズに対応する準備が整いました。このリージョンは、冗長性、データ耐久性、および回復性をさらに高めると共に、災害復旧のための追加オプションも提供します。これは、FedRAMP の High および Moderate ベースラインの対象となる隔離された AWS リージョンで、米国内で米国市民によって運営されています。このリージョンには、審査を受けた米国事業体と root アカウント所有者のみがアクセスでき、root アカウント所有者がアクセス権を得るには、米国人 (市民または永住者) であることを確認する必要があります。詳細については、Achieve FedRAMP High Compliance in the AWS GovCloud (US) Region を参照してください。 AWS GovCloud (米国) は、審査済みの政府のお客様、および規制対象産業のお客様とそのパートナーに対して、FedRAMP High ベースライン、米国司法省の犯罪司法情報サービス部 (CJIS) セキュリティーポリシー、米国武器国際取引規則 (ITAR)、輸出管理規則 (EAR)、米国国防総省 (DoD) のラウドコンピューティングセキュリティ要件ガイド (SRG) インパクトレベル2、4、および 5、FIPS 140-2、IRS-1075、ならびにその他コンプライアンス体制に準拠したセキュアなクラウドソリューションを設計する柔軟性を提供します。 豊富なサービス このリージョンで実行されるアプリケーションは、Auto Scaling (EC2 および Application)、AWS […]

Read More

只今準備中 – イタリア、ミラノの AWS リージョン

先月下旬、私は 南アフリカの AWS リージョンに取り組んでいることをお知らせしました。本日は、イタリアの AWS リージョンを構築中で、2020 年初頭には開設予定であることをお知らせします。 ミラノ、2020 年 予定されている欧州 (ミラノ) リージョンには 3 つのアベイラビリティーゾーンがあり、これで既存のフランス、ドイツ、アイルランド、英国、今年後半に開始される新しいスウェーデンリージョンを合わせて、ヨーロッパで 6 番目のリージョンになります。当社は現在、全世界 19 の地理的リージョンに 57 のアベイラビリティーゾーンがあり、これに加えて現在から 2020 年の前期の間に、5 つのリージョンの 15 のアベイラビリティーゾーンが準備中です (詳細については、AWS グローバルインフラストラクチャ ページを参照ください)。既存のすべてのリージョンと同じく、これは最も厳格なコンプライアンス基準を満たし、AWS のお客様に最高レベルのセキュリティを提供するように設計されています。 イタリアの AWS イタリアの AWS のお客様は、既存のリージョンを 10 年以上使っています。イタリアのホットなスタートアップ、企業、公共部門組織はすべて、AWS クラウドでミッションクリティカルなアプリケーションを実行しています。すでに起こっていることをお知らせするための例を紹介します。 Ferrero は世界最大のチョコレート製造メーカーの 1 つです (私のブログ執筆を力づけるポケットコーヒーも作っています)。同社は 2010 年から AWS を使用しており、80 か国の 250 Web サイト全体で機能を共有できるテンプレート駆動モデルを使用して、トラフィックサージを処理しながらコストを 30% 削減しています。 Mediaset は複数の放送ネットワークとデジタルチャンネル、有料テレビサービス、広告代理店、イタリア映画スタジオ Medusa […]

Read More

新 – CloudFormation ドリフト検出

AWS CloudFormation は、Infrastructure as Code (IaC) を実装する取り組みをサポートします。テンプレートを使うことで、希望する AWS リソース設定を定義し、それを使って CloudFormation スタックを起動することができます。スタックには、指定通りに設定されたテンプレートに定義されている、一連のリソースが含まれています。設定を変更する必要があるときは、このテンプレートを更新し、CloudFormation の変更セットを使って変更を適用します。テンプレートはインフラストラクチャを完全かつ詳細に指定するので、ユーザーは自信をもって、いつでもこれを使って新しいリソースセットを作成できます。 実に理想的といえるでしょう。 現実には、多くの企業でいまだに IaC の完全な実装が行われています。こうした企業は、並行して従業員の研修やプロセスの調整を行っています。いずれも、ある程度の時間が必要です。移行期間中に、テンプレートを更新することなく、AWS リソース (とそのプロパティ) を直接変更して終わることもよくあります。また、帯域外でその場しのぎの修正を行って EC2 インスタンスタイプを変更したり、Auto Scaling パラメータを修正したり、IAM パーミッションを更新したりしている場合もあります。こうしたアンマネージド型の変更は、再起動時に問題を発生させる要因となります。実行中のスタックの設定がテンプレートから乖離してしまい、適切に記述されなくなるためです。深刻なケースでは、変更によってスタックの更新や削除が妨害される場合もあります。 新しいドリフト検出 本日、当社は、上記のような状況に対応するために設計された、強力な、新しいドリフト検出機能を発表します。テンプレートからスタックを作成した後に、コンソール、CLI、またはユーザー自身のコードからのドリフトを検出できます。スタック全体、または特定のリソースでドリフトを検出し、結果を数分以内に確認することが可能です。その後、テンプレートの更新に必要な情報や、リソースをコンプライアンスに準拠した適切な状態に戻すための情報が提供されます。 ドリフト検出のチェックを開始すると、CloudFormation が、現在のスタック設定と、スタックを作成または更新するために使用された、テンプレートが指定する設定とを比較し、誤差があれば報告し、それぞれの詳細な情報を提供します。 当社は、核となる一連のサービス、リソース、プロパティへのサポートを開始します。サポートは今後さらに追加される予定です。初回のリソースリストには、API ゲートウェイ、Auto Scaling、CloudTrail、CloudWatch Events、CloudWatch Logs、DynamoDB、Amazon EC2、Elastic Load Balancing、IAM、AWS IoT、Lambda、Amazon RDS、Route 53、Amazon S3、Amazon SNS、Amazon SQS その他が含まれています。 ドリフト検出は、CREATE_COMPLETE、UPDATE_COMPLETE、UPDATE_ROLLBACK_COMPLETE、UPDATE_ROLLBACK_FAILED の状態にあるスタックに実行できます。ドリフト検出は、チェックしたスタックにネストされている他のスタックには適用されません。これらのチェックはユーザーが自ら行います。 実行中のドリフト検出 Provisioned Throughput for Amazon EFS の記事を書いたときに使用した単純なタスクで、この機能を実際に使ってみました。スタックを選んで [Action] メニューから [Detect […]

Read More

新機能 – 複数のインスタンスタイプをサポートする新しい EC2 Auto Scaling グループ & 購入オプション

今年はじめに EC2 フリートについてお話しました。EC2 フリートは、EC2 オンデマンドインスタンス、リザーブドインスタンス、複数の EC2 インスタンスタイプをカバーするスポットインスタンスを組み合わせるフリートを簡単に編成する AWS ビルディングブロックを指します。その記事でお話ししたのは、フリートの作成方法と、M4 および M5 インスタンスの組み合わせたゲノミクス処理パイプラインを作成した例についてでした。また、EC2 フリートを Auto Scaling および他の AWS サービスと統合することに取り組んでいることもお知らせしました。 複数のインスタンスタイプにわたる Auto Scaling とその購入オプション 本日より条件の変更に対応して拡張および縮小できる Auto Scaling グループの作成ができるようになったことをお知らせいたします。EC2 インスタンスタイプと料金モデルでもっとも経済的な組み合わせもご利用になれます。オンデマンドおよびスポットの組み合わせの管理機能とともに、グループ構築の際に使用される複数のインスタンスタイプの完全管理が可能です。さらに、既存の Auto Scaling グループを更新することでも、この新機能を利用できるようになります。 作成する Auto Scaling グループは、スケールアウトイベントまたはスケールインイベントの発生ごとに最適化されます。また、ご利用の設定によるその他の要件を満たしつつ、常に最低の総コストを求めます。新しいインスタンスタイプが利用可能になると設定を変更できるため、EC2 に合わせて展開するグループを作成できます。 Auto Scaling グループの作成 Auto Scaling グループは、EC2 コンソール、CLI、API から作成できます。最初のステップとして、適切な起動テンプレート (スポットインスタンスの使用を指定しないもの) があることを確認します。私の例をご紹介します。 Auto Scaling グループに移動し、[Auto Scaling グループの作成] をクリックします。 [起動テンプレート] をクリックして [ProdWebServer] テンプレートを選択し、[次のステップ] […]

Read More

Oracle データベースを Amazon RDS PostgreSQL または Amazon Aurora PostgreSQL に移行するベストプラクティス: 移行プロセスとインフラストラクチャに関する考慮事項

AWS クラウドで Oracle から PostgreSQL に移行するプロセスは何段階もあって複雑になりがちです。評価ステージから切り替えステージまで、さまざまなテクノロジーとスキルが必要になります。このブログシリーズでは、ソースの Oracle データベースとターゲットの PostgreSQL サービス、そして AWS Database Migration (AWS DMS) サービスについて、その環境と構成の設定方法をお伝えしています。特に焦点を当てているのが、ソースおよびターゲットデータベースのインフラストラクチャと設定、そして開発からテスト、本稼働、ステージングデータベースまでの各環境の移行に使用するツールと構成です。まずは、Oracle から、PostgreSQL との互換性がある Amazon RDS for PostgreSQL または Amazon Aurora ベースのデータベースへのデータ移行から始めることにします。 環境はそれぞれ異なりますが、機能は共通です。このシリーズのブログ記事では、各コンポーネントについて、データベースを移行する際に考慮する概要情報をお伝えするにとどめています。アプリケーションのコンポーネントや各種のシナリオについて、込み入った複雑な点までは取り上げていません。利用状況に応じて大きく変わるからです。細かい点まで深く把握する必要がある場合は、AWS Database ブログの記事 Database Migration—What Do You Need to Know Before You Start? をお読みください。 このシリーズには 3 つのブログ記事があり、それぞれで移行の 3 段階を扱っています。 ステージ 1: 移行プロセスとインフラストラクチャに関する考慮事項。この記事では、ソースサーバーのインフラストラクチャ設定について説明しています。移行プロセスの概要レベルについても触れており、Oracle データベースとクライアントハードウェアおよびオペレーティングシステムに適宜アクセスする必要があります。 ステージ 2: Oracle および AWS DMS […]

Read More

Re:Invent 2018 での AWS ビッグデータと分析セッション

re:Invent 2018 が間もなく開催です! 今年は、データと分析の追跡が盛り上がっています。 このブログ記事では、re:Invent 2018 のデータと分析セッションを特集しています。本年のイベントに参加されるなら、会議で行われるセッション、ワークショップ、チョークトーク、ビルダーセッションを確認してください。これまでと同じく、分析、深層学習、AI Summit、サーバーレス、アーキテクチャ、データベースなど、さまざまなトピックカテゴリーのイベントが行われます。 Intuit、Nike、Intel、WuXi NextCODE、Warner Brothers、AutoDesk、NFL、SendGrid、McDonald、AirBnB、Hilton、Guardian Life、Amazon Go、Pfizer など、多くの企業の素晴らしいセッションが行われます。 これらのセッションは録画され、会議後に YouTube から視聴可能です。また、これらのセッションのすべてのスライドデッキは、会議後に SlideShare.net で入手できます。 ブレークアウトセッションの詳細については、この記事のリンクを選択してください。 注意: 機械学習に興味があれば AI Summit と Machine Learning、AI ワークショップとセッションを確認してください。次のブレークアウト分析セッションは、今年のセッションカタログを構成します。 AWS Analytics と DB Services のバイスプレジデント Anurag Gupta と、Amazon Machine Learning (Amazon ML) のバイスプレジデント Swami Sivasubramanian による 2 つのセッションがあります。 ANT205 – テクノロジーの動向: データレイクと分析 この講演では、AWS Analytic と Transactional […]

Read More

最新 – Amazon Comprehend でカスタム文書分類子をトレーニングする

Amazon Comprehend は自然言語のテキストを大量に処理するパワーをもたらします (詳しくは、入門的な内容を記した、私の投稿記事、Amazon Comprehend – Continuously Trained Natural Language Processing をご覧ください)。2017 年に英語およびスペイン語のサポートとともに立ち上げて以来、私たちはお客様のニーズに基づいた機能を追加してきました。たとえば、非同期バッチオペレーション、構文分析、多言語サポート (フランス語、ドイツ語、イタリア語、ポルトガル語)、リージョンの追加などが挙げられます。 自動機械学習 (AutoML) を使用することで、Comprehend は ML の入力と出力を学習する必要のない、お客様が既にお持ちのデータを使用したカスタム自然言語処理 (NLP) モデルの作成を実現します。お客様のデータセットとユースケースに基づき、適切なアルゴリズムを自動的に選択して、パラメータ、ビルドのチューニング、および結果モデルのテストを行います。 タグ付き文書のコレクションを既にお持ちであれば (サポートチケット、Amazon Transcribe 経由、フォーラムの投稿などといったコールセンターの会話)、開始点としてこれらをご使用いただけます。この場合、タグ付きとは単に、各文書が検証済みであり、望ましい方法で特徴づけるラベルが割り当てられていることを意味します。カスタム分類には少なくともラベルごとに 50 件の文書が必要ですが、数百または数千件の文書があれば特徴づけの精度が上がります。 この記事では主にカスタム分類について取り上げ、適切なテキストから不適切な表現を含むテキストを分離するモデルのトレーニング方法をご紹介します。続いて、新しいテキストを分類するモデルの使用方法をご紹介します。 分類子の使用 開始点となるのは次の様なトレーニングテキストの CSV ファイルです (ここでは画像を加工していますが、不適切な言葉が多数含まれています)。 トレーニングデータは S3 オブジェクト内に常駐している必要があり、また、1 行につきラベルと文書を 1 つづつ指定します。 次に、Amazon Comprehend コンソールへ移動し、[Classification] (分類)をクリックします。私は既存の分類子を持っていないので、[Create classifier] (分類子の作成) をクリックします。 分類子に名前をつけ、文書の言語を選択し、自分のトレーニングデータが置かれている S3 バケットを選択します。その後、そのバケットへのアクセス許可をもつ AWS Identity and Access Management […]

Read More