Amazon Web Services ブログ

AWS Localization

Author: AWS Localization

AWS 深層学習 AMI は現在、Chainer と最新バージョンの PyTorch と Apache MXNet をサポートしています

AWS 深層学習 AMI は、完全に設定された環境を提供するため、人工知能 (AI) の開発者とデータ科学者はすぐに深層学習モデルを使い始めることができます。Amazon Machine Images (AMI) には、柔軟で直感的な深層学習 (ディープラーニング) のフレームワークである Chainer (v3.4.0) のみならず、最新バージョンの Apache MXNet と PyTorch を含みます。 Chainer の Define by Run アプローチにより、開発者はトレーニング中にすぐに計算グラフを変更することができるようになります。これは、シーケンスからシーケンスへの翻訳や質疑応答システムなど、自然言語処理 (NLP) タスクに使用されるリカレントニューラルネットワーク (RNN) などのダイナミックニューラルネットワークを実装する上でより大きな柔軟性を与えます。Chainer は、Amazon EC2 P3 インスタンスに搭載されている NVIDIA Volta GPU の計算処理を加速するための NVDIA CUDA 9 と cuDNN 7 ドライバーを使う CuPy を利用するように設定されています。当社のステップバイステップのチュートリアルを使用して、Chainerをすぐに使い始めることができます。 Ubuntu と Amazon Linux に対応している深層学習AMI は、各深層学習フレームワークの公式な最新バージョンのビルド済pipバイナリを、Condaベースの仮想環境で分離して提供します。各フレームワークは、サポートする NVIDIA CUDA […]

Read More

いよいよモバイルワールドコングレスの開催です。コネクテッドカーのデモをご覧ください!

バルセロナ (私たちのお気に入りの都市のひとつ) で開催される Mobile World Congress 2018 (モバイルワールドコングレス) へ参加のご予定ですか? それなら、第 5 ホール、5E41 ブースで実施中の、コネクテッドカーのデモをお見逃しなく。 AWS Greengrass チームでは、コネクテッドカーで自動車業界がどう変わるかを実証するために Vodafone と Saguna の友人とともに、概念実証に取り組んできました。今回のデモは MEC (マルチアクセスエッジコンピューティング) の新進コンセプトに基づいて構築されています。 自動車メーカーは自社の車両に最新のデジタル技術を組み込みたいと考えてはいるものの、コスト、パワー、製品化までの時間といった懸念事項により、車両に搭載されたコンピューティングリソースへの大がかりなアップグレードは望んでいません。また、既に道を走っている車両への後付けによって生じるであろう問題については言うまでもありません。MEC はモバイルネットワークのエッジを活用すること、たとえば、アクセスネットワークのハブサイトの活用によって、処理リソースの負担を軽減します。このモデルは自動車メーカーが、ローレイテンシーのコンピューティングリソースを活用し、その一方で自動車を発展させ、車両の寿命をときには 20 年以上も延ばす技術を提供するのに一役買います。また、複雑さや車載部品のコストも抑制します。 MWC のデモでは Vodafone の 4G LTE ネットワーク上で、AWS Greengrass を活用する Saguna の AI 搭載 MEC ソリューションを使ったライブビデオフィードをストリーミングしています。今回のデモではドライバーの安全性に重点を置くとともに、他の人とのおしゃべりや車内の別のものに気をとられているドライバーの検知を目標としています。モバイルネットワークのエッジで稼動する、AI 搭載の動作追跡およびパターン検出機能を備える車載カメラをドライバーに向け、注意散漫の状態を検知し、ドライバーに警告するというものです。このアーキテクチャではほとんどのコンピューティング機能はモバイルネットワークのエッジで処理されることから、これを使用することで、自動車メーカーは既存の自動車にも機能強化を実装しやすくなります。 モバイルワールドコングレスに参加できない方もご心配は無用です。このソリューションのビデオはこちらからご覧いただけます。 — Jeff;

Read More

提供開始– AWS Serverless Application Repository

昨年、私は AWS Serverless Application Repository の準備をするように申し上げ、その内容について少し説明いたしました。このリポジトリは、できるだけ容易にサーバーレスアプリケーションとコンポーネントを AWS 上で検索、設定、デプロイできるように設計されています。また、AWS パートナー、エンタプライズ顧客、独立した開発者がそれぞれのサーバーレス作成を共有するための、理想的な場所でもあります。 提供開始 公開プレビューでの好感を得た後、AWS Serverless Application Repository は、一般公開され、今すぐ使い始めることができます。 消費者として、皆様はマシン学習、画像処理、IoT、および汎用作業を完璧に補完するサーバレスアプリケーションとコンポーネントの益々盛んなエコシステムを活用できるようになります。それらをそのまま設定し、消費するか、別に取り出して、機能を追加し、プルリクエストを作成者に送信することもできます。 発行者として、容易に Serverless Application Repository で寄稿を発行することができます。名前と説明を入力し、いくつかのラベルを選択して検索しやすくして、メニューから適切なオープンソースライセンスを選択し、README を提供して、ユーザーがすぐに使い始めることができるようにするだけです。次に、既存のソースコードレポにリンクを入力し、SAM テンプレートを選択して、セマンティックバージョンを指定します。 両方の操作を見てみましょう… サーバーレスアプリケーションを消費する Serverless Application Repository は、Lambda コンソールからアクセスできます。既存のアプリケーションを順を追ってみていくか、次のような検索を開始することができます。 「todo」の検索では、いくつかの興味深い結果が返されます。 詳細を確認するには、アプリケーションをクリックするだけです。 すでにアプリケーションの知識がある場合は、アプリケーションを設定し、それをすぐにデプロイできます。 各セクションを展開して、詳細を見ることができます。アクセス権限セクションは、使用する IAM ポリシーを示します。 また、テンプレートセクションは、アプリケーションをデプロイするために使用される SAM テンプレートを表示します。 テンプレートを調べて、テンプレートがデプロイされるときに作成される AWS リソースについて確認できます。また、テンプレートを自分独自のアプリケーションを作成し発行するための準備するための学習リソースとして使用することもできます。 ライセンスセクションは、アプリケーションのライセンスを表示します。 todo を展開するために、アプリケーションを指定し、[Deploy (デプロイ)] をクリックします。 デプロイは直ちに開始され、1 分以内に完了します (アプリケーションのデプロイ時間は、作成されるリソースの数と種類に応じて異なります)。 Lambda コンソールでデプロイされたアプリケーションすべてを確認できます。 現在は、SAM テンプレートで API […]

Read More

WordPress 向けの Amazon Polly プラグインが Bitnami の AMI にプレインストールされました

2 月 8 日、AWS はウェブサイトからコンテンツを簡単に音声出力し、ポッドキャストを公開することができるようにする WordPress 向けの Amazon Polly プラグインをリリースしました。音声を活用することにより、読者にあなたのコンテンツを楽しむ別の手段を提供し、より多くのオーディエンスのニーズを満たすことができます。 本日、AWS は人気が高い Bitnami の Amazon Mahcine Image (AMI) で Amazon Polly プラグインが利用可能になったことをお知らせします。最新の WordPress image packaged by Bitnami と、Amazon Polly WordPress プラグインにプレインストールされている WordPress Multisite image packaged by Bitnami は AWS Marketplace からご利用いただけます。WordPress for Production または WordPress Multi-Tier などのその他 Bitnami ソリューションにも、間もなくこのプラグインが包含される予定です。 統合された Amazon Polly プラグインを使用して、Bitnami WordPress Stack […]

Read More

Amazon Relational Database Service – 2017 年を振り返って

2017 年には Amazon RDS チームによって、およそ 80 個もの機能がリリースされました。一部はこのブログでもご紹介しましたが、AWS データベースブログや AWS の最新情報またはフォーラムの投稿でもご紹介しています。今週のしめくくりに、これらの情報を振り返って整理したいと思います。ではご紹介します! 認証とセキュリティ 1 月 – FedRAMP Certification for Amazon RDS for MySQL, Oracle, and PostgreSQL 2 月 – Forced SSL Support for SQL Server 4 月 – AWS IAM で RDS for MySQL と Amazon Aurora データベースへのアクセスを管理 6 月 – TDE Encrypted Cross-Region Snapshots for RDS […]

Read More

AWS 深層学習 AMI は TensorFlow と Microsoft Cognitive ツールキット用の Volta GPU に対するより高速のトレーニングを提供します

Ubuntu と Amazon Linux の AWS 深層学習 AMI に最新バージョンの TensorFlow (1.5) と Microsoft Cognitive ツールキット (2.4) が含まれます。 これらのフレームワークは、NVIDIA CUDA 9 と cuDNN 7 ドライバーのサポートを提供します。これにより、ユーザーは Amazon EC2 P3 インスタンスに対応する V100 Volta GPU によりサポートされる複合精度のトレーニングを利用できるようになります。当社の Volta における TensorFlow 1.5 のテストでは、ResNet-50 ベンチマークを合成 ImageNet データを使って FP16 モードの p3.8xlarge インスタンスでトレーニングすると、TensorFlow 1.4.1 でのトレーニングよりも 1.8 倍高速になりました。 深層学習フレームワークの最新の更新 深層学習 AMI は、個別のConda ベースの仮想環境で、深層学習フレームワークの最新の正式バージョンに対して、事前構築された pip バイナリを提供します。 […]

Read More

ご利用の WordPress ブログに新しい Amazon Polly の声を

私は最初、皆さまに 2016 年後半に Polly について、 「Amazon Polly – 24 か国語 47 種類の声で音声変換」の投稿でお話ししました。 AWS re:Invent が起動した後、韓国語、5 種類の新しい声のサポートを追加し、Polly を aws パーティションのすべてのリージョンで利用可能にしました。また、ウィスパリング、スピーチマーク、ティンバーエフェクト、および ダイナミックレンジ圧縮などの機能を備えています。 新しい WordPress プラグイン 当社は今日、お客様のブログ投稿の高品位音声バージョンを作成するために、WordPress プラグインを使い始めています。Amazon Pollycast と呼ぶ機能を使用して、投稿中やポッドキャスト内の音声にアクセスできます! 両方のオプションにより、お客様のコンテンツにより容易にアクセスできるようになり、より広い対象者に達することを支援できます。このプラグインは、AWS アドバンストテクノロジーパートナーである WP Engine の AWS チームの共同作業でした。 ご覧の通り、このプラグインのインストールと構成は容易です。お使いのインフラストラクチャまたは AWS 上で実行する WordPress のインストレーションと共に使用できます。いずれの方法でも、Polly のすべての音声に幅広い構成オプションと共にアクセスできます。 生成される音声 (各投稿の MP3 ファイル) は、WordPress コンテンツと共に保存するか、Amazon Simple Storage Service (S3) に保存し、その際に、Amazon CloudFront 経由のコンテンツ配布のための任意のサポートが利用できます。 プラグインのインストール 既存の […]

Read More

New – DynamoDB の保存時の暗号化

AWS re:Invent 2017 では、Werner は対象者に対して、次のように勧めました。「誰も見ていないようにダンスをして、誰もがしているように暗号化してください。」 AWS チームは常に、機密データを保護し、またコンプライアンスの目標を達成するために支援することを容易にする機能を追加したいと考えています。たとえば、2017 年に当社は SQS と EFS に対して保存時の暗号化を開始し、S3 に対して追加の暗号化オプション、さらに Kinesis データストリームのサーバー側の暗号化を開始しました。 今日、Amazon DynamoDB に対して保存時の暗号化の導入に、別のデータ保護オプションを提供しています。新規テーブルを作成するときに暗号化を有効にするだけで、後は DynamoDB が行います。お使いのデータ (テーブル、ローカルセカンダリインデックス、グローバルセカンダリインデックス) は、AES-256 およびサービスデフォルトのAWS Key Management Service (KMS) キーを使用して暗号化されます。暗号化はストレージオーバーヘッドを追加せず、完全に透過的です。以前のように、アイテムを挿入、クエリ、スキャン、および削除できます。チームは暗号化を有効にして、暗号化した DynamoDB テーブルで異なるいくつかのワークロードで実行した後、レイテンシーで変更を観察しませんでした。 暗号化テーブルの作成 AWS マネジメントコンソール、API (CreateTable)、または CLI (create-table) から暗号化テーブルを作成できます。私はコンソールを使用します。私は通常通り、次のように名前を入力して、プライマリーキーを設定します。 先に進む前に、[デフォルト設定の使用] をオフにして、[暗号化] セクションまで下方にスクロールして、[暗号を有効化] をオンにします。次に、[作成] をクリックすると、私のテーブルが暗号化形式で作成されます。 一目でテーブルの暗号化設定を確認することができます。 コンプライアンスチームが、DynamoDB でキーを使ってデータを暗号化する方法を尋ねられたら、AWS CloudTrail トレールを作成して、アイテムを挿入し、テーブルをスキャンして AWS KMS API へのコールを確認することができます。以下がトレールからの抽出です。 { “eventTime”: “2018-01-24T00:06:34Z”, “eventSource”: […]

Read More

Amazon Lex 対話ボックスの対応を強化

AWS マネジメントコンソールから Amazon Lex 対話ボットに応答を直接追加できるようになりました。ユーザーと活発に説得力のある対話を行うための応答メッセージを使用しましょう。 応答を使用する 応答はボットによるやり取りの最終要素であり、ボットのやり取りがすべて行われたあとに、ユーザーに表示されます。 応答にはお別れの挨拶といったシンプルなものから、メッセージを表示して別のやり取りにつながる様々なボタンの付いた画像のカルーセル表示などがあります。  応答は一部の事例ではやり取りの主要な要素となることもあります。たとえば、ユーザーを別のボット機能へ導くのに役立つやりとりなどがその例です。 応答は事前に定義され、デベロッパーによって作成されたメッセージのグループから動的に選択されるメッセージで構成されています。  たとえば、予約ボットでは最初のメッセージグループとして、ボットがユーザーに使用できる様々な挨拶(「こんにちは」、「いらっしゃいませ」、「お待たせいたしました」)などを含めることができます。2 つ目のメッセージグループには様々な自己紹介メッセージを指定できます。たとえば、「私は予約用ボットです」、「こちらは予約用ボットです」など。 3つ目のメッセージグループにはやり取りするための言葉を指定します。「レンタカーのご予約、ホテルのご予約はお任せください」など。  Amazon Lex は各メッセージグループの各メッセージを動的に使用して会話の受け答えを構築します。たとえば、会話の一例として次のメッセージをご覧ください。 会話例をもう 1 つご覧ください。 応答は簡単なもので、ユーザーが別の表現を使って答え、それにより別のやり取りがトリガーされるものを使用します。  たとえば、ユーザーが「レンタカー」と答えるとします。「レンタカー」がレンタカーを支援するやり取りの対話に一致すれば、そのやり取りが同時にトリガーされます。 応答には次に示すコンポーネントを 3 件まで指定できます。 メッセージ (いずれの応答にも 1 件以上のメッセージが必要) 応答の質問に対するユーザーの回答が「いいえ」であれば、終了メッセージ 応答カード 応答は Amazon Lex コンソール上で、Amazon Lex SDK を介して実行できます。  コンポーネントを見ながら応答の作成方法をご紹介します。 メッセージ Amazon Lex コンソールでは、応答セクションの最初のコンポーネントはメッセージまたはメッセージグループです。エディターではメッセージグループはこのように表示されます。 より自然な会話の流れを作るのに役立つのであれば、1 件の応答に 1 つまたは複数のメッセージグループを作成できます。  メッセージはメッセージグループごとにマークが付いた状態 (メッセージグループ 1、メッセージグループ 2 など) でクライアントに送信されるため、それぞれのグループはサポート対象の Amazon Lex チャンネルに 1 行ずつ自動的に表示されます。  […]

Read More

Model Server for Apache MXNet、ONNX サポートと Amazon CloudWatch の組み込みを開始

AWS は、大規模な予測を行うための深層学習モデルをパッケージ化してサービスを提供するオープンソースライブラリである Model Server for Apache MXNet (MMS) のバージョン 0.2 をリリースしました。それにより、Open Neural Network Exchange (ONNX) 形式でモデルを提供し、ダッシュボードとアラームを作成できる Amazon CloudWatch に直接、運用メトリックを公開できるようになります。 MMS とは? MMS は、大規模の推論のための深層学習モデルの展開を簡素化するオープンソースライブラリです。MMS は、次の機能を備えています。 モデルアーティファクトを単一のモデルアーカイブにパッケージ化するためのツール。アーカーブはモデルを提供するために必要なすべてのアーティファクトをカプセル化します。 モデルアーカイブにパッケージ化されたカスタムコードを使用して、推論の実行パイプラインの各段階をカスタマイズする機能。 REST API エンドポイントと推論エンジンを含む、事前構成されたサービススタック。 スケーラブルなモデルの提供のために、MMS、MXNet、および nginx を含む Docker イメージ。 MMS およびエンドポイントを監視するためのリアルタイム運営メトリックス。 事前構成された Docker イメージである PyPI (Python Package Index) パッケージから、または Model Server GitHub リポジトリから直接、MMS をインストールできます。 ONNX モデルサービスの開始 ONNX は、複数の深層学習フレームワークの間の相互運用性を可能にします。MMS バージョン 0.2 […]

Read More