Amazon Web Services ブログ

Localization Team

Author: Localization Team

機械学習で、マーチ・マッドネスを予測!

3 月中旬の米国では、何百万人もの人々が大学のバスケットボールを観戦し、賭けています (私はここに住んでいますが、見ていませんでした)。NCAA カレッジ選手権が続く中、プロフェッショナルサービス機械学習スペシャリストである Wesley Pasfield の仕事を簡単に紹介したいと思います。 Wesley は、kenpom.com およびカレッジバスケットボールの参考データからデータを取得し、Amazon SageMaker に組み込まれている XGBoost アルゴリズムを使用してマーチ・マッドネスの結果を予測するモデルを構築することができました。 Wesley は、データの取得、探索的データ分析の実行 (データサイエンス用語集の EDA)、xgboost アルゴリズム向けのデータの再構成、SageMaker SDK を使用した 2 つの異なるモデルのトレーニングジョブの作成、最後に https://cbbpredictions.com/ で予測を提供するための SageMaker 推論エンドポイントの作成を示してくれます。ブログの投稿のパート 1 およびパート 2 をご確認ください。 素晴らしいですね。ノートパソコンを開いて、xgboost アルゴリズムを試してみませんか?予測にはいくつかの注意点があるので、チャンピオン予測はまだ作成していないことにご注意ください。 – Randall

Read More

EFS File Sync、Amazon EFS ファイルシステムへの高速なファイル転送

AWS re:Invent 2017 の数日前に使用可能になった EFS File Sync について、お話できるようになりました。 大量のファイルをオンプレミスまたはクラウドのファイルシステムから Amazon Elastic File System に移動させる必要があるなら、このツールが最適です。たとえば、 cp および rsync などのシンプルで、シングルスレッドのコマンドラインツールは、クラウドに対応しておらず、膨大な量のデータをある場所から別の場所へ移動するために必要なスループットを提供することができません。こうしたツールは、多くの場合、スケジューリング、オーケストレーション、ネットワークセキュリティに関するスクリプトで、ビルディングブロックとして使用されるのが一般的です。 安全および並列 EFS File Sync は、安全で高度な並列データ転送メカニズムを使用しており、前述のツールよりも最大 5 倍高速で動作します。VMware ESXi または EC2 インスタンスで実行され、NFS (v3 および v4) 経由でソースファイルシステムにアクセスし、EFS が利用可能なすべての AWS リージョンで使用できるエージェントとして利用できます。このエージェントが AWS とのすべての通信を開始するので、VPN を設定したり、ファイアウォールを介してインバウンド接続を許可したりする必要はありません。 AWS マネジメントコンソールで、エージェントと同期タスクを起動、制御、監視することができます。ジョブは、ファイルシステム全体または特定のディレクトリツリーの転送を指定することができ、転送先にすでに存在するファイルを検出してスキップすることもできます。ファイルのメタデータ (変更やアクセスの時間、POSIX の所有権とアクセス許可、シンボリックリンク、ハードリンク) もコピーされます。 EFS File Sync の使用 このブログへの投稿を書くために、EC2 インスタンスを起動し、NFS ファイルシステム (/data) をエクスポートし、ファイルシステムに Linux カーネルのソースコードを転送しました。 […]

Read More

Amazon EC2 リソース ID の更新 – 移行する詳細なリソースタイプ

いくつかの必須の EC2 リソースに対する長い ID を提供するための以前の仕事のフォローアップとして、当社は移行の期日を 2018 年 7 月に設定して、同じことを残りの EC2 リソースに対しても行っています。ユーザーごと、リージョンごと、タイプごとにオプトインして、コード、正規表現、データベーススキーマおよびデータベースクエリが期待通りに動作することを確認できます。 EC2 リソースのタイプについて ID を認識、処理、または保存するコードがある場合は、注意深く、この投稿をお読みください。知る必要があることは、次のとおりです。 移行期日 – お使いのコードおよびスキーマが新しい、長い ID を処理し、保存できるのは、2018 年 7 月までです。その後、長い ID はすべての新しく作成されたリソースにデフォルトで割り当てられます。既存のリソースの ID は、そのまま残り、機能し続けます。 詳細なリソースタイプ – 長い ID はすべてのタイプの EC2 リソースに対してサポートされ、希望に応じてオプトインすることができます。 できるだけ早く、テストアカウントから始めて、オプトインするようにお勧めします。このことは、コードを徹底的にテストし、コードを本番稼働させるためにプロモーションする前に、必要な変更を行うための時間を与えます。 その他のリージョン – 長い ID は、現在、AWS 中国 (北京) および AWS 中国 (寧夏) リージョンで使用可能です。 AMI のテスト – テストするために使用できる長い ID をもつ AMI を発行しました […]

Read More

Amazon Kinesis Analytics でのリアルタイムのホットスポット検知

AWS では本日、Amazon Kinesis Data Analytics でストリーミングデータの「ホットスポット」を検知するための新しい機械学習機能をリリースしました。AWS は Kinesis Data Analytics を 2016 年8月に公開して以来、機能を追加し続けています。すでにご存じかもしれませんが、Kinesis Data Analytics はストリーミングデータ用の完全マネージド型リアルタイム処理エンジンで、データから意味を引き出し、結果を Kinesis Data Firehose、Kinesis Data Streams、または AWS Lambda 関数にさえも出力する SQL クエリを記述することができます。新しい HOTSPOT 関数は、お客様がストリーミングベースの教師なし機械学習アルゴリズムを活用することを可能にする、Kinesis の既存機械学習能力を高めます。これらの能力を利用するために、お客様がデータサイエンスや機械学習の専門家である必要はありません。 ホットスポット HOTSPOTS 関数は、複雑な機械学習モデルを明示的に構築して訓練することなく、データの比較的高密度な領域を特定するために使用できる新しい Kinesis Data Analytics SQL 関数です。早急な対応が必要なデータのサブセクションを特定し、Kinesis Data ストリーム、Firehose 配信ストリームにストリーミングする、または AWS Lambda 関数を呼び出すことによって、プログラム的にアクションを実行することができます。 これが業務を容易にし得る非常に素晴らしいシナリオが数多くあります。交通渋滞に関する時空間データを伝えるライドシェアプログラムや自動化された車両運行、または多数のサーバーが過熱状態になり始め、HVAC 問題を示しているデータセンターを想像してみてください。 HOTSPOTS は、時空間データ以外にも数多くの問題領域にわたる適用が可能です。 この関数はいくつかのシンプルな構文に従い、 DOUBLE、 INTEGER、 FLOAT、 TINYINT、 SMALLINT、 REAL、および BIGINT […]

Read More

最新の AWS コミュニティヒーロー (2018 年春季)

AWS コミュニティヒーロープログラムでは、世界中の腕の良い AWS デベロッパーによって行われている革新的な作業の一部を紹介しています。 このようなヒーローは、クラウドの専門知識と、コミュニティ構築および教育に対する熱意を組み合わせて、ソーシャルメディアや実際に顔合わせができるイベントで時間と知識を共有しています。ヒーローは、ミーティング、ワークショップ、会議などでコンテンツの推進を積極的に支援しています。 今年 3 月、私たちのクラウドイノベーターのネットワークに、5 人のヒーローが加わりましたのでご紹介させていただきます: Peter Sbarski Michael Wittig Fernando Hönig Anders Bjørnestad Peter Sbarski Peter Sbarski は、A Cloud Guru のエンジニアリング担当副社長です。サーバーレスアーキテクチャとテクノロジーに特化した世界初の会議 Serverlessconf の主催者です。彼は A Cloud Guru の仕事として、サーバーレスアーキテクチャー、クラウドコンピューティング、AWS について講演したり、執筆活動などを行っています。彼は Serverless Architectures on AWS という書籍を執筆しています。現在 Tim Wagner および Yochay Kiriaty と「Serverless Design Patterns」という書籍を共同執筆中です。 Peter はクラウドコンピューティングと AWS について、いつも喜んで語っています。彼の姿は年間を通じて、カンファレンスやミーティングで見かけることができます。彼はオーストラリアのメルボルンとシドニーにおける Serverless Meetups の開催を援助しおり、興味深く革新的なクラウドプロジェクトに取り組んできた経験を共有したいと常に心がけています。 Peter が熱意を注いでいるものとして、サーバーレステクノロジー、イベント駆動型プログラミング、バックエンドアーキテクチャ、マイクロサービス、システムのオーケストレーションなどがあります。Peter はオーストラリアのモナッシュ大学でコンピュータサイエンスの博士号を取得しており、Twitter、LinkedIn、Medium、GitHub で彼をフォローできます。 […]

Read More

Scikit Docker コンテナを構築して、Amazon SageMaker で Scikit-learnモデルのトレーニングとホストを行う

re:Invent 2017 で登場した Amazon SageMaker は機械学習モデルを規模に応じてビルド、トレーニング、デプロイするためのサーバーレスデータサイエンス環境を提供します。お客様はまた、Scikit-learn など、最も身近なフレームワークで作業できます。 このブログ記事では次の 2 つの目標に沿って進めていきます。まずは、Amazon SageMaker がモデルのトレーニングやホストのためにどのようにコンテナを使用するかについて、高水準の説明を行います。続いて、Amazon SageMaker で Scikit モデルのトレーニングおよびホスト用に Docker コンテナをビルドする方法について説明します。 概要では、モデルのトレーニングとホスト用に Amazon Elastic Container Service (ECS) からロードされた Docker イメージが Amazon SageMaker 上でどのように実行されるかについて説明します。また、トレーニングコードや推論コードなど、SageMaker Docker イメージの仕組みについても説明します。 そのため、Amazon SageMaker で Scikit モデルをビルド、トレーニング、デプロイする方法についてのみ興味をお持ちの場合は、概要の部分を飛ばしてお読みください。SageMaker で最小限の手間で Scikit モデルをコンテナ化するかについて、ハンズオンでもご覧いただけます。 目次 Amazon SageMaker 用コンテナの概要 Scikit-学習との連携のビルド Amazon SageMaker 用コンテナの概要 SageMaker は、ユーザーがアルゴリズムをトレーニングし、デプロイできるように、Docker コンテナの用途を拡張します。開発者とデータサイエンティストたちは、コンテナを活用することで Docker をサポートするあらゆるプラットフォームで着実に稼動する標準化されたユニットにソフトウェアをパッケージングできるようになります。コンテナ化することで、コード、ランタイム、システムツール、システムライブラリ、設定などのすべてを 1 か所にまとめ、環境から分離し、どこで開始するかに関係なく、一貫したランタイムを確保します。 […]

Read More

AWS ドキュメントがオープンソースになり、GitHub でご利用可能に

今年に入ってから GitHub のリポジトリとして、AWS SDK の開発者ガイドを公開 (すべて awsdocs 組織で閲覧可能) し、関心を示した団体・組織を招いて、プルリクエスト (編集結果の送信) 方式で変更および改善への協力を募りました。 今日現在で、さらに 138 件の開発者ガイドとユーザーガイドが組織に追加されています。さらに皆さんからのリクエストが届くのを楽しみにしています。皆さんには正確さや分かりやすさの観点から、バグの修正、コードサンプルの改善 (または新しいサンプルの送信)、詳細の追加、 文や段落の書き換えなどにご参加いただけます。また新しい機能やサービスの開始についてさらに詳しく学んだり、ドキュメントの改善を追跡するために、コミット履歴を見ることもできます。 参加する 始める前に、関心のある AWS サービスについて Amazon Open Source Code of Conduct を一読し、Contributing Guidelines の文書をご覧ください (一般的に CONTRIBUTING.mdという名称)。その後、GitHub のアカウントをまだお持ちでなければ、アカウントを作成します。 変更または改善する内容を見つけたら、文書の HTML 版にアクセスし、ページの上部で Edit on GitHub (GitHub で編集) ボタンをクリックします。 この操作により、ソース形式 (一般的な Markdown または reStructuredText 方式) で文書を編集できるようになります。 ソースコードは文書を HTML、PDF、および Kindle 版で生成するために使用されます。 GitHub にアクセスしたら、鉛筆アイコンをクリックしてください。 これにより「フォーク」が作成されます。フォークとは独立した環境でファイルを編集できるようにファイルを別途コピーしたものです。 […]

Read More

新登場 – 使用量に応じた Amazon Chime 料金

私は Amazon Chime を定期的に高頻度で使用するユーザーで、私の同僚の大半も同様です。同僚たちそれぞれと行う数多くの継続的なポイントツーポイントセッションに加えて、私は AWS ブログチームのチャットルームと、AWS エバンジェリストのチャットルームにも参加しています。また、毎日数件のミーティングに参加し、Amazon Chime の会議機能を使用して月に何度か自分のミーティングを設定しています。毎月の請求額を実際に見ることはありませんが、私はユーザー 1 人につき月額 15 USD の Amazon Chime Pro プランを使用しています。 お客様からのフィードバックによると、これは定期的にミーティングをホストするユーザーにとっては値打ちのあるものですが、他の機能を使用するユーザーや、ミーティングをホストするよりも参加することのほうが多いユーザーにとってはこころもち高額すぎるようです。 使用量に応じた料金 これらのユーザーのニーズを満たし、Amazon Chime をさらに経済的にするため、AWS は 2018 年 4 月 1 日から実施される新しい使用量に応じた料金モデルを導入します。 最初の 30 日無料体験期間中、ユーザーはすべての Amazon Chime 機能に無料でアクセスできます。 体験期間終了後、ユーザーはユーザー同士のチャット、そしてミーティングへの参加の両方を無料で行うことができます。ミーティングをホストする日は、毎月の上限を 15 USD として、1 日あたり 3 USD が課金されます。履歴的な使用パターンに基づくと、これは実質上すべての Amazon Chime のお客様に対する全体的な値下げにつながります。 体験期間終了後にスケジュール機能とホスティング機能を使用するには、ユーザーが AWS アカウントに接続し、管理者がそのアカウント用に Amazon Pro 機能を有効にする必要があります。使用量ベースのモデルによって、管理者は組織内のユーザーそれぞれにライセンスを購入する必要がなくなりました。その代わりに、Active Directory 設定と […]

Read More

Amazon Polly が Nexmo の次世代型テキスト読み上げのユースケースを強化

この記事は Nexmo, the Vonage API Platform の プロダクトディレクター、ボイスアンド RTC、Roland Selmer 氏によるゲストブログ記事です。彼は Nexmo についてこのように述べています。「テキストメッセージング、チャット、ソーシャルメディア、音声などを通じて、リアルタイムかつ容易にカスタマーと情報を共有するのに必要なツールを提供することで、デジタルカスタマーエクスペリエンスを再考できるようにします。」 ビジネスがアプリケーションにコミュニケーション機能を統合できるようにするクラウドコミュニケーションプロバイダーとして、Nexmo, the Vonage API Platform は、 当社のカスタマーために提供している合成音声ユースケースの多くに役立つテキスト読み上げ (TTS) ソリューションが必要でした。私たちの選ぶソリューションは、Nexmo のグローバル TTS 製品を強化するために、当社のテクノロジー要件と製品哲学に合致している必要がありました。 Amazon Polly はこれらの基準のすべてを完璧に満たしていました。このパワフルなサービスは、Nexmo の合成音声ユースケースの核となるメインエンジンとなっています。このサービスは言語と音声で幅広い分野を網羅しています。 Amazon Polly を活用した Nexmo ユースケース Nexmo では、アプリケーショントゥパーソン (A2P) コミュニケーションのインターフェイスとして音声に注目しており、当社のカスタマーがこの最も自然なコミュニケーション方法を第一に独自のアプリケーションに統合できるようにします。Amazon Polly はその屋台骨と言えます。 特に、様々な業界のお客様が次に示す主要なユースケースにおいて、より良いビジネス収益を上げるために、Amazon Polly を活用した TTS を利用することができました。 音声放送 重大な音声アラート 着信通話通知 2 要素認証 (2FA) による PIN コードのフェイルオーバー音声配信 音声放送: […]

Read More

Auto Scaling が Amazon SageMaker で使用できます

AWS ML プラットフォームチーム担当製品マネージャーである Kumar Venkateswar は、Amazon SageMaker でオートスケールの発表の詳細を共有します。 Amazon SageMaker により、何千もの顧客が容易に Machine Learning (ML) モデルを構築、訓練、およびデプロイすることができました。当社は Amazon SageMaker のオートスケール対応により、本番稼働の ML モデルの管理をさらに容易にしました。インスタンスの必要があるスケールと照合するために数多くのインスタンスを手動で管理する代わりに、SageMaker に AWS Auto Scaling ポリシーに基づいてインスタンスの数を自動的にスケールさせることができます。 SageMaker は多くの顧客のために ML プロセスの管理を容易にしました。顧客がマネージド型 Jupyter ノートブックとマネージド型配布トレーニングを利用するのを見てきました。SageMaker は、マシン学習をアプリケーションに統合するため、顧客が推論のために SageMaker ホスティングにモデルをデプロイしたのを見てきました。SageMaker はこのことを容易にします。推論ホスト上でオペレーティングシステム (OS) または枠組みをパッチすることについて考える必要はなく、アベイラビリティーゾーン全体で推論ホストを設定する必要はありません。SageMaker にモデルをデプロイするだけで、残りの部分は処理されます。 今まで、エンドポイント (または本番バリアント) ごとのインスタンスの数とタイプを指定して、推論に必要なスケールを求める必要がありました。推論の容量が変更された場合、その変更に対応するために、ダウンタイムの発生なしに、各エンドポイントに対応するインスタンスの数またはタイプ、もしくはその両方を変更できます。プロビジョニングの変更が容易であることに加えて、顧客は SageMaker の管理機能をさらに容易にするために私たちが行っている方法を尋ねてきました。 Amazon SageMaker の Auto Scaling を使用して、SageMaker コンソールで、AWS Auto Scaling API と AWS […]

Read More