Amazon Web Services ブログ

Localization Team

Author: Localization Team

Amazon EC2 C5 および P3 インスタンスで、最適化された TensorFlow 1.6 により、高速なトレーニングを実行する

AWS Deep Learning AMI には、別々の仮想環境にプリインストールされた、よく使われるディープラーニングフレームワークの最新の pip パッケージが付属しています。それで開発者は、すぐにディープラーニングモデルのトレーニングを始めることができます。Ubuntu および Amazon Linux 向けの、ディープラーニング AMI の新しいバージョンには、Amazon EC2 インスタンスファミリー全体にわたってハイパフォーマンスのトレーニングを行えるように高度な最適化を施して構築された、TensorFlow 1.6 が付属するようになりました。 Amazon EC2 C5 インスタンスでの高速なトレーニング AMI には、インテルの Advanced Vector Instruction (AVX、AVX-2 および AVX-512) で構築された TensorFlow 1.6 が付属しており、Amazon EC2 C5 インスタンスで用いられている Intel Xeon Platinum プロセッサでのベクタ-および浮動小数点演算の性能を向上させています。AMI には、 十分な設定が施された、インテルのディープニューラルネットワーク向け Math Kernel Library (Intel MKL-DNN) も付属します。これは、ディープニューラルネットワークのトレーニングで使用される数学ルーチンを CPU で加速するためのものです。c5.18xlarge インスタンスタイプ上で、合成 ImageNet データセットに対し、当社の最適化された TensorFlow 1.6 […]

Read More

Amazon SageMaker を使用して Word-Pronunciation シーケンスツーシーケンスモデルを作成する

Amazon SageMaker seq2seq は、シーケンス ツー シーケンスタスクで、最新鋭のエンコーダーデコーダーアーキテクチャ (アテンションメカニズムなど) を利用するための非常に単純な方法を提供します。あなたがすべきことは、recordio-protobuf 形式のシーケンスデータと、JSON 形式のボキャブラリマッピングファイルを用意して、それを Amazon Simple Storage Service (Amazon S3) にアップロードすることのみです。その後は、Amazon SageMaker の内蔵アルゴリズムが、あなたに代わって、ディープラーニング (DL) アーキテクチャの構築とトレーニングを行います。 このブログポストでは、あなたに SageMaker seq2seq を習熟してもらうために、サンプルの Amazon SageMaker Word-Pronunciation ノートブックを使って手順に沿って説明します。英語の場合、単語の発音をスペルに基づいてデコードするために、暗黙的ではあるものの複雑なルールがあります。私たちは、アルファベット文字のシーケンスをソース入力として、そしてそれらに対応する音素のシーケンスをターゲット出力として使って、ルールをモデル化します。このモデルの種類は、シーケンス ツー シーケンスと呼ばれます。 seq2seq モデルの用途は、単語と発音の関係に留まりません。他の使用例としては、英語の文章からドイツ語の文章、テキストからサマリ、テキストからタイトル、質問から回答などが挙げられます。このブログポストでは、Amazon SageMaker を使用して、独自のシーケンスデータをデプロイして、独自のカスタム seq2seq モデルを開発する方法について紹介します。 Amazon SageMaker seq2seq は、Apache MXNet を使用した seq2seq モデリングのフレームワークである、Sockeye パッケージをベースにしています。詳細については、この AWS ブログを参照してください。 ただしそこでは、Amazon SageMaker を効果的に機能させるために、異なる入力データ形式が使われており、いくつかのハイパーパラメーターについては名前が変更されています。 データ: カーネギーメロン大学の発音辞書 (cmudict-0.7b) このブログポストでは、カーネギーメロン大学の発音辞書 (cmudict-0.7b)のデータを使用します。ボキャブラリの単語を音素のシーケンスにマッピングする表音辞書は、テキスト読み上げシステムでは非常に重要です。オリジナルのローデータは、以下のリンク先にあります。 […]

Read More

Initiafy と Amazon Polly でアクセス可能なトレーニングを作成する

これは、Initiafy の Ronan O’Sullivan と Conor McNally によって投稿されたゲストブログです。彼ら自身の言葉を借りれば、「Initiafy は、会社が契約社員、一時労働者、または季節労働者を採用し、仕事を始める前にトレーニングする点で助けとなる、契約社員管理ソフトウェアのリーディングプロバイダーです。このソフトウェアには、世界中に 30 万人以上のユーザーがいます」。 私たちは摩天楼、道路のネットワーク、油田リグ、水力発電のダム、原子力発電所、風力発電機、吊り橋、そして世界を満たしている他の信じがたいような人間工学の偉業に慣れてしまっており、それらの建設のために払われた驚くべき労力を見過ごしてしまうことがあります。こういったプロジェクトはロボットにより構築されたのではありません。それらを生み出すには、プロセスを設計、合理化、改善するのに用いられたテクノロジーに加えて、人々の巨大な労力が必要でした。 Initiafy は、プロジェクトの労働力の要素をより生産的で、効率的なものにします。重工業のプロジェクトは契約社員に依存しており、それには文書、健康と安全、品質管理を扱う管理上の課題が伴っています。Initiafy は、労働者に柔軟性のある仕方でトレーニングを施し、一時労働力全体にわたって高い標準を保つ点で役立つ、オンラインプラットフォームでの契約社員管理システムを提供しています。Initiafy は多くの国で事業を運営しており、様々な国から来た労働者を対象としています。それで、すべての労働者がトレーニングを受けられるようにすることは非常に重要です。 このブログでは、Amazon Polly を、様々な会社が Initiafy のプラットフォーム上で契約社員のために構築したトレーニングコースと完全に統合するという問題を扱っています。Amazon Polly が、コースの構築とコースのコンテンツにどのように柔軟性をもたらすか、そしてあらゆる種類の契約社員にとってアクセスしやすいものとするかについて説明します。 契約社員の採用に関する問題 重工業では、労働者の採用に関して、多くの課題に直面します。契約社員は、自分の役割に固有の、密度の高い技術情報を受け取ること、そして重要な健康と安全のための慣行に関するトレーニングを受けることが必要です。Initiafy は、会社に対し、契約社員のためにマルチメディアコンテンツを含むコースをデザインする機会を与えています。 非常に重要な安全と技術情報を与えることはひとつの課題です。重工業では、労働力として、様々な国からの、リテラシーのレベルも異なる契約社員を雇用するからです。Initiafy は、労働者間の言語の障壁を乗り越え、教育を受けられなかった、または教育が不足しているために非識字である場合もある労働者をサポートするためのツールを探していました。 Amazon Polly の使い方 Initiafy のプラットフォームでは、労働者はオンラインのトレーニングコースを受講します。コースはテキスト、ビデオ、画像、そして通常はコースのチャプターの終わりごとに用意されたクイズのようなインタラクティブコンテンツを含む、スライドに分割されています。Amazon Polly を使えば、テキスト形式のコンテンツは、あらゆる労働者がアクセスできるものになります。テキスト形式はなっていない、その他の音声コンテンツも追加できます。 コースを準備する担当者は、Amazon Polly で音声と言語を選択します。それからこれはオーディオファイルとして保存され、Amazon S3 バケット内に置かれます。コースの作成者は、労働者がどの程度多くのオーディオを聞く必要があるかもコントロールできます。たとえば、オーディオが 100% 再生されるまでは、次のスライドに進めないように設定することができます。このようにして、労働者がコースのコンテンツに取り組むように促します。 HTML 形式のコースコンテンツは削除されます。テキストストリームの残りはスライド単位で分割されて、バックグラウンドで Amazon Polly にアップロードされます。コースコンテンツには、次のように 3 つのタイプがあります。 HTML コンテンツは完全に削除されます。 テキストはスライドごとに含められていて、Amazon Polly によって読み上げられます。 トレーニング中に労働者に対して読み上げられる隠しテキストというものもあり、これはスライドには表示されません。 […]

Read More

AWS AppSync – 6 つの新機能を加え本番提供開始

データ指向のウェブおよびモバイルアプリを構築し (または構築したいと思い)、リアルタイムの更新やオフライン作業の機能が必要な場合は、AWS AppSync を確認する必要があります。AWS re:Invent 2017 においてプレビュー形式で発表され、ここで詳しく説明されている AWS AppSync は、iOS、Android、JavaScript、および React Native アプリで使用するために設計されています。AWS AppSync は、アプリケーションでクラウドから必要とする正確なデータを要求することを容易にするオープンで標準化されたクエリー言語である GraphQL を中心に構築されています。 アプリケーション開発プロセスを簡素化し、合理化する次の新しい 6 つの機能を備えた AWS AppSync のプレビュー期間が終了し、一般利用可能になり、本番稼働の準備ができたことを発表できることをうれしく思います。 コンソールログアクセス – AWS AppSync コンソールの中から GraphQL クエリー、ミューテーション、サブスクリプションをテストするときに作成される CloudWatch Logs を確認することができるようになりました。 モックデータによるコンソール試験遂行 – 試験遂行の目的でコンソールにモックコンテキストオブジェクトを作成し、使用することができるようになりました。 サブスクリプションリゾルバ – すでにクエリに対して行い、リクエストを変更する方法と同様に、AWS AppSync サブスクリプションリクエストに対するリゾルバを作成することができるようになりました。 DynamoDB のバッチ GraphQL オペレーション – DynamoDB のバッチオペレーション (BatchGetItem と BatchWriteItem) をリゾルバ機能の中の 1 つ以上のテーブルにわたって利用することができるようになりました。 CloudWatch […]

Read More

Amazon Kinesis Video StreamsとAmazon Rekognition Videoでハイエンドコンシューマーエクスペリエンスを提供するために顔認識を使用する

これは 1995 年、Amazon.com のウェブサイトが誕生してからわずか 1 か月の頃の画面です。この画面から見てすぐに分かることを 1 つ、もう少しよく見なければならないことを 1 つお話ししましょう。まず、この 23 年間という時の流れを感じさせるのはウェブデザインです。2 つ目は Eyes の広告文のあなたの気に入りそうな本が見つかったら疲れを知らぬ自動検索エージェントがメールを送りますという一節です。 Eyes は Amazon 初のパーソナライズされたオンラインショッピング環境でした。これは昔ながらの、店を訪れる顧客を知り尽くした地元の店のような、最高のサービスを再現するという旅路の、最初の一歩だったわけです。皆がある時期に、私たちのニーズすべてにぴったり合った体験ができるこの種のサービスを受けたことは、だれにとっても大変幸運なことだったと言えます。 そして 23 年後の今に時代を移しましょう。様々なところで、オンライン体験が主流になりました。世界のどこからでも Amazon.com へログオンし、皆さんの日頃のお買い物の仕方と同じ、一貫した体験を受けることができます。それも偏にウェブサイトが私たちのことを「知っている」からです。人によるサービスではこれは容易なことではありません。皆さんのお気に入りの店に行くとしましょう。それも、あなたの住み慣れた町にある店です。そこでは他の一般客と同じような対応を受けるのが普通です。 これを変えるにはどうすればいいと思いますか? たとえば、あなたが服の小売店の店員だとします。もし、店にやってくる顧客のことを知っていて、この情報を賢く活用できたとしたら、あなたはその顧客に素晴らしいサービスを提供できるはずです。たとえば、その顧客が既に購入した商品にぴったりな商品をすすめられます。もし、その商品の在庫に顧客のサイズがなければ、その商品をすすめることはできません。その顧客から前回、なんらかのトラブルや苦情があれば、特に気を配ることができます。顧客の顔とその顧客に関する情報をくまなく記憶できる驚異の記憶力をもった店員がいればいいだけです。 AWS で機械学習について読んだ後、あなたはこれを構築してみることにしました。アーキテクチャの中心となるのは、re:Invent 2017 で発表された 2 つのサービス、Amazon Kinesis Video Streams と Amazon Rekognition Video です。Kinesis Video Streams を使用すると、分析、機械学習のために、接続されたデバイスから AWS へ動画を簡単かつ安全にストリーミングできるようになります。Rekognition Video は簡単に Kinesis Video Streams に統合でき、顔のメタデータを集めたプライベートデータベースに対し、リアルタイムの顔認識を実行できます。あなたのソリューションのアーキテクチャは次のとおりです。 システムのプロトタイプを素早く構築するために、Raspberry Pi でホストされているカメラを使用します。これで店内の様子を撮影し、Amazon Kinesis […]

Read More

Amazon Kinesis Video Streams および Amazon AI サービスを使用した注意とエンゲージメントを測定するためのボディーランゲージの自動分析の構築

この記事は、Ned T. Sahin 博士 (Brain Power LLC およびハーバード大学)、Runpeng Liu (Brain Power LLC および MIT)、Joseph Salisbury 博士 (Brain Power LLC) と Lillian Bu (Brain Power LLC および MIT) によるゲストブログです。 広告からゲーム、そして教材に及ぶコンテンツの作成者は通常、事後アンケートやテスト、またはクリックスルーやバウンスなどのユーザーアクションによってコンテンツが成功したかどうかを判断します。これらの手法では、コンテンツの作成者が測定したいもの、つまりコンテンツの知覚価値が、客観的、遅発的、略式、事後、および/または相対的な代用物になりがちです。このようなメトリクスは、視聴者がその場で示すボディーランゲージに含まれる可能性がある視聴者の経時的な注意、エンゲージメント、そして快楽に関する継続的で意味のあるデータを見逃します。しかし、ボディーランゲージを数値化する、またはしばしば圧倒的な量になるビデオのデータセット内のパターンや重要なジェスチャーを単一のメトリックに要約するための系統的な手法はありません。 私たちは、落ち着きのない動き (fidgeting) や、その他の身体の動作を行動バイオマーカーとして数値的に要約するために、「Fidgetology」と親しみをこめて呼ばれる手法を発明しました。私たちは当初、自閉症および/または ADHD を持つ子供の拡張現実感システムを使用した後での症状の改善における新しい臨床的評価指標として、これらの子供たちの臨床試験ビデオを分析するために Brain Power (www.Brain-Power.com) で Fidgetology を発明しました。このブログ記事では、より一般化されたアーキテクチャと、目的に応じてすぐに試してみることができるサンプルコードをご提供します。これは、例えばあなたのコンテンツを閲覧している人のビデオなどで身体の動作を自動的に分析するために、アマゾンから新しくリリースされた人工知能製品を使用します。この手法は、映画、広告、テレビ番組、ビデオゲーム、政治運動、スピーチ、オンラインコース、または教室での授業など、様々なコンテンツタイプに応用できます。 この手法を使用することで、視聴者のビデオをストリームまたはアップロードして、視聴者の動作のレベルとパターンのわかりやすい数学的プロットとシングルイメージのサマリーを即座に取得することができます。これらの動作は、注意、焦点、エンゲージメント、不安、または快楽などの要因を推定するために役立ちます。また、これらの要因を確認して分離したり、ユニークなユースケースおよび/または個々のユーザーのためにカスタマイズしたりするために、高度な AWS Lambda 関数や機械学習モデルを追加することもお勧めします。 仕組み システムアーキテクチャダイアグラム Kinesis Video Streams インジェスチョン ビデオストリームを作成するクライアントウェブアプリケーションは、ユーザーが 1) 事前に録画されたビデオをアップロードする、および/または 2) ウェブカムフィードを […]

Read More

あなたが主役の自動ビデオ編集!

何時間ものビデオ映像の中で特定の人物を見つけたいと思ったことはありませんか? 21 才のお誕生日パーティー用にビデオを準備していて、お誕生日を迎える子供の楽しい思い出を見つけたいのかもしれません。特定の社員が最後の勤務日に何をしたかを見るためにビデオ映像を探し回っているのかもしれませんし、ネイサンズ国際ホットドッグ早食い選手権での自分の活躍のハイライト映像を作りたいのかもしれません。 このブログ記事では、Amazon Rekognition Video と Amazon Elastic Transcoder の機能を組み合わせて、長時間のビデオを所定の人物の全映像を映し出すハイライトビデオに自動で変換する方法を学んでいただけます。 シンプルなデモ このプロセスを説明するため、私は AWS の Day in the Life of an AWS Technical Trainer ビデオを使用します。ビデオを見ると、カメラに向かって話す人、お客様を訓練する人、そしてオフィス内を歩く人が数人が出演しているのがわかります。 このビデオは、このブログで後ほど説明するプロセスで処理されたもので、このプロセスは具体的に選択した人物のビデオを自動で作成します。これらのアウトプットビデオを見て、最終版を確認してください。 John のビデオ Karthik のビデオ MJ のビデオ Edward のビデオ 現に、MJ のビデオは 2 つの個別のシーンが自動的に結合されたため、単一の連続した撮影ショットのように見えます。シーンがどこでつながれているかは、ビデオをじっくり見なければわかりません! プロセス これがハイライトビデオを作成するために使用された全体的なプロセスです。 Amazon Rekognition で顔コレクションを作成し、認識するべき人を教える。 Amazon Rekognition Video を使って、保存されたビデオファイル内の顔を検索する。 顔が認識された箇所の個々のタイムスタンプを収集して、それらを定義された長さのクリップに変換する。 Amazon Elastic Transcoder を使用して新しいビデオを結合する。 各ステップの説明は次のとおりです。 ステップ 1: […]

Read More

AWS Deep Learning AMI に、最適化された TensorFlow 1.7 が追加され、Amazon EC2 C5 および P3 インスタンスでの高速なトレーニングが可能に

Ubuntu および Amazon Linux 用の AWS Deep Learning AMI に、TensorFlow 1.7 に合わせた高度な最適化が提供され、Amazon EC2 インスタンスファミリ全体で高性能なトレーニングを提供できるようになりました。これは 3 月下旬に開始した TensorFlow 1.6 の最適化されたビルドの更新です。 最適化された TensorFlow 1.7 で、トレーニングをより高速に Amazon Machine Images (AMI) に、インテルの高度ベクトル命令 (AVX)、SSE、FMA 命令セットを備えた TensorFlow 1.7 ビルドが追加されました。AMI は、インテルの深層ニューラルネットワーク用数学カーネルライブラリ (Intel MKL-DNN) で完全に構成されており、インテル Xeon Platinum プロセッサ搭載の Amazon EC2 C5 インスタンスで高性能なトレーニングを提供できるようになりました。合成 ImageNet データセットによる ResNet-50 ベンチマークのトレーニングは、c5.18xlarge のインスタンスタイプでの最適化されたビルドを使用する、ストック TensorFlow 1.7 バイナリでのトレーニングよりも 9.8 倍高速でした。 また、AMI […]

Read More

ASLens について学ぶ – AWS DeepLens を使用してアメリカ手話の英字を音声に変換するディープラーニングプロジェクト

Chris Coombs は、オーストラリアのメルボルンから AWS re:Invent 2017 に出席しました。彼は、AWS DeepLens に手を差し伸べる幸運な一人になれて喜んでいました。彼は、AWS DeepLens Challenge ハッカソンに参加して、AWS DeepLens を有効活用しました。多くの才能を持つ彼は夫であり、2 人の小さな子供の父であり、元弁護士からソフトウェアエンジニア/クラウドアーキテクトになりました。AWS DeepLens Challenge ハッカソンのために、彼は ASLens と呼ばれるプロジェクトを作りました。 ASLens は、AWS DeepLens を使用して、アメリカ手話 (ASL) にサインインしている人のビデオをキャプチャします。次に、各フレームに対してディープラーニングモデル (Amazon SageMaker で構築) を実行します。ASL アルファベットの文字が認識されると、AWS DeepLens はその文字の音声を再生します (Amazon Polly を使用して生成される MP3 ファイルを使用)。ASLens は AWS DeepLens でローカルに実行されるため、インターネット接続は不要で、帯域幅の問題がなくなり、速度が向上します。 Chris は、AWS に精通しています。彼は、AWS メルボルンユーザグループの共同主催者であり、Datacom の AWS APN Cloud Warrior として働いています。彼は、AWS DeepLens を使用して機械学習を実践することでスキルをさらに磨くことに熱心でした。Amazon SageMaker、AWS […]

Read More

新機能 – AWS Greengrass を使用したエッジでの機械学習推論

IoT、機械学習とエッジコンピューティングを組み合わせると何が起こるでしょうか。答をお教えする前に、それぞれを見直して、AWS が何を提供するかについてお話ししましょう。 モノのインターネット (IoT) – 物理的な世界とデジタルの世界を結びつけるデバイスです。ひとつ、または複数のタイプのセンサーが装備されていることがほとんどのこれらのデバイスは、工場、車両、鉱山、農地、家庭などその他いろいろな場所に設置されています。重要な AWS のサービスには、AWS IoT Core、AWS IoT Analytics、AWS IoT Device Management、および Amazon FreeRTOS に加え、AWS IoT ページに記載されているその他サービスが含まれます。 機械学習 (ML) – 大規模のデータセットと統計アルゴリズムを使用して訓練できるシステムで、新しいデータから推論を得るために使用されます。アマゾンでは、お買い物のときに表示される推薦を駆動させたり、フルフィルメントセンターのパスの最適化、ドローンの飛行などを行ったりするために機械学習を使用します。AWS は TensorFlow および MXNet といった優れたオープンソース機械学習フレームワークをサポートし、Amazon SageMaker を通じて ML をアクセスが簡単で、使いやすいものにしています。また、イメージとビデオ用に Amazon Rekognition、チャットボット用に Amazon Lex を提供し、テキスト分析、翻訳、音声認識、そして Text to Speech 用に幅広い言語サービスを提供しています。 エッジコンピューティング – 異なる場所にコンピューティングリソースと意思決定機能を備える力で、多くの場合、クラウドに対しては断続的な接続性しかないか、接続されていません。AWS Greengrass は AWS IoT を基礎としており、Lambda 関数を実行し、インターネットに接続されていないときでさえもデバイスを同期状態に保つ機能を提供します。 エッジにおける ML 推論 私は今日、これらの重要な新テクノロジーをすべてブレンダーに投げ込みたいと思います!AWS […]

Read More