Amazon Web Services ブログ

Amazon Polly が Nexmo の次世代型テキスト読み上げのユースケースを強化

この記事は Nexmo, the Vonage API Platform の プロダクトディレクター、ボイスアンド RTC、Roland Selmer 氏によるゲストブログ記事です。彼は Nexmo についてこのように述べています。「テキストメッセージング、チャット、ソーシャルメディア、音声などを通じて、リアルタイムかつ容易にカスタマーと情報を共有するのに必要なツールを提供することで、デジタルカスタマーエクスペリエンスを再考できるようにします。」 ビジネスがアプリケーションにコミュニケーション機能を統合できるようにするクラウドコミュニケーションプロバイダーとして、Nexmo, the Vonage API Platform は、 当社のカスタマーために提供している合成音声ユースケースの多くに役立つテキスト読み上げ (TTS) ソリューションが必要でした。私たちの選ぶソリューションは、Nexmo のグローバル TTS 製品を強化するために、当社のテクノロジー要件と製品哲学に合致している必要がありました。 Amazon Polly はこれらの基準のすべてを完璧に満たしていました。このパワフルなサービスは、Nexmo の合成音声ユースケースの核となるメインエンジンとなっています。このサービスは言語と音声で幅広い分野を網羅しています。 Amazon Polly を活用した Nexmo ユースケース Nexmo では、アプリケーショントゥパーソン (A2P) コミュニケーションのインターフェイスとして音声に注目しており、当社のカスタマーがこの最も自然なコミュニケーション方法を第一に独自のアプリケーションに統合できるようにします。Amazon Polly はその屋台骨と言えます。 特に、様々な業界のお客様が次に示す主要なユースケースにおいて、より良いビジネス収益を上げるために、Amazon Polly を活用した TTS を利用することができました。 音声放送 重大な音声アラート 着信通話通知 2 要素認証 (2FA) による PIN コードのフェイルオーバー音声配信 音声放送: […]

Read More

Amazon CloudFront & Lambda@Edge で画像をリサイズする

多くの画像に対してリサイズを行ったり、新しいデザインレイアウトにウォーターマークを付与したり、ブラウザのサポートのためにフォーマットの最適化を行ったことはありませんか? 画像毎に事前処理を行う必要なく、必要に応じてその場ですぐに画像を自動生成できないかとおもったことはありませんか? Lambda@Edge はそれらを可能にし、ユーザーの利便性を向上させ、帯域使用量を削減します。

Read More

Auto Scaling が Amazon SageMaker で使用できます

AWS ML プラットフォームチーム担当製品マネージャーである Kumar Venkateswar は、Amazon SageMaker でオートスケールの発表の詳細を共有します。 Amazon SageMaker により、何千もの顧客が容易に Machine Learning (ML) モデルを構築、訓練、およびデプロイすることができました。当社は Amazon SageMaker のオートスケール対応により、本番稼働の ML モデルの管理をさらに容易にしました。インスタンスの必要があるスケールと照合するために数多くのインスタンスを手動で管理する代わりに、SageMaker に AWS Auto Scaling ポリシーに基づいてインスタンスの数を自動的にスケールさせることができます。 SageMaker は多くの顧客のために ML プロセスの管理を容易にしました。顧客がマネージド型 Jupyter ノートブックとマネージド型配布トレーニングを利用するのを見てきました。SageMaker は、マシン学習をアプリケーションに統合するため、顧客が推論のために SageMaker ホスティングにモデルをデプロイしたのを見てきました。SageMaker はこのことを容易にします。推論ホスト上でオペレーティングシステム (OS) または枠組みをパッチすることについて考える必要はなく、アベイラビリティーゾーン全体で推論ホストを設定する必要はありません。SageMaker にモデルをデプロイするだけで、残りの部分は処理されます。 今まで、エンドポイント (または本番バリアント) ごとのインスタンスの数とタイプを指定して、推論に必要なスケールを求める必要がありました。推論の容量が変更された場合、その変更に対応するために、ダウンタイムの発生なしに、各エンドポイントに対応するインスタンスの数またはタイプ、もしくはその両方を変更できます。プロビジョニングの変更が容易であることに加えて、顧客は SageMaker の管理機能をさらに容易にするために私たちが行っている方法を尋ねてきました。 Amazon SageMaker の Auto Scaling を使用して、SageMaker コンソールで、AWS Auto Scaling API と AWS […]

Read More

Amazon AppStream 2.0 の ID フェデレーションを AD FS 3.0 で実現する

既存のエンタープライズ認証情報を使用して AppStream 2.0 へのシングルサインオンアクセスを提供したいですか? Active Directory Federation Services (AD FS) 3.0 は SAML 2.0 を使用した Amazon AppStream 2.0 へのシングルサインオンを提供するために使用することができます。 既存の Active Directory や任意の SAML 2.0 準拠の認証サービスを使用してユーザーに AppStream 2.0 アプリケーションへのシングルサインオンアクセスをセットアップすることができます。SAML 2.0 を使用した ID フェデレーションは現在すべての AppStream 2.0 リージョンで利用可能です。 この記事では Windows Server 2012 R2 で使用できる AD FS 3.0 を使用して AppStream 2.0 への ID フェデレーションを構成する方法について説明します。記事の最後に追加で、Windows Server 2016 で使用できる AD FS 4.0 を使用する場合についても補足します。

Read More

DeNA TechCon 2018 – AWS IoTを用いたDeNAオートモーティブアーキテクチャ

AWS IoTを用いたDeNAオートモーティブアーキテクチャ   先日、2018年2月7日に、渋谷ヒカリエにて開催された、DeNA TechCon 2018におきまして、「AWS IoTを用いたDeNAオートモーティブアーキテクチャ」と題した、DeNAの放地宏佳様による講演がありました。 AWS IoTをふんだんに活用して、Vehicle Architecture on AWSを実現されている舞台裏に関し、車両情報管理基盤の話を中心に、詳細な内容を発表いただきました。 車載デバイスから車両管理情報を収集して、車両情報集約基盤へと連携している具体的なワークフロー デバイス認証にどのような実装を施して、AWS IAMとのスムーズな連携を行なっているのかの詳細な解説 ビジネス要求の変化に柔軟に対応できるよう、拡張性を考慮したデバイスシャドウとルールエンジンの組み合わせによる利用の工夫 バックエンドのElasticsearchへのindexingのしやすさを考慮したデバイスシャドウのアトリビュート設計に対する工夫 もちろん、この他にも様々なAWSを活用いただいた事例を、Deep Learningや機械学習など、多くのセッションで触れていただいております。 ぜひ皆様にも、DeNA TechCon 2018のイベントページに訪れて、それぞれのセッションスライドに目を通していただきたいです。 DeNA様、放地様、素晴らしいカンファレンスと発表を、本当にありがとうございました!   ソリューションアーキテクト 半場光晴

Read More

AWS Batch および Amazon SageMaker を使用してオンラインの化合物溶解度予測ワークフローを構築する

計算化学の分野の Machine Learning (ML) メソッドは、急速に成長しています。アクセスが容易なオープンソルバー (TensorFlow と Apache MXNet など)、ツールキット (RDKit 化学情報ソフトウェアなど)、オープン科学イニシアチブ (DeepChem など) は、毎日の研究でこれらのフレームワークを容易に使用できるようにします。科学情報分野では、多くのアンサンブル計算化学ワークフローが多数の化合物を消費し、さまざまな記述子特性をプロファイリングする能力を必要とします。 このブログ投稿では、2 段階ワークフローについて説明します。最初のステージでは、約 1100 の候補の分子を採取し、AWS Batch を使用して、Dockerized RDKit を使用した 2D 分子記述子を計算します。  MoleculeNet.ai – ESOLV からの元のデータセットには、各化合物の測定済みの logSolubility (mol/L) が含まれます。第 2 ステージでは、Amazon SageMaker を Apache MXNet で使用して、線形回帰予測モデルを作成します。ML モデルはトレーニングと検証の 70/30 分割を実行し、30 エポック後の RMSE = 0.925 で、適合度 (Rˆ2) は 0.9 になります。 このブログ投稿では、単純化された分子入力ライン入力システム (SMILES) の入力を処理するワークフローを作成し、その後、Amazon SageMaker に送出して、logSolubility […]

Read More

Amazon SageMaker が TensorFlow 1.5、MXNet 1.0、CUDA 9 をサポート

Amazon SageMaker の事前構築済み深層学習フレームワークコンテナが TensorFlow 1.5 および Apache MXNet 1.0 のサポートを開始。いずれも、SageMaker ml.p3 インスタンス上でより優れたパフォーマンスを出すために CUDA 9 最適化を活用します。パフォーマンスのメリットに加えて、TensorFlow での Eager の実行、MXNet での NDArrays の高度なインデックス作成機能など、最新の機能を活用できるようになります。変更内容の詳細についてはこちらとこちらをご覧ください。 Amazon SageMaker の事前構築型深層学習コンテナのご利用が初めての方は、使用方法について解説したサンプルのリポジトリをご覧ください。ユーザーが人間に理解しやすい様式で TensorFlow または MXNet のコードを書き、そのコードを Amazon SageMaker の分散型管理トレーニングクラスタやリアルタイムにホストされるエンドポイントへ送って処理できるようにします。これにより、ノートパソコン上のデータのサンプルで深層学習コードを書いたり、テストしたりし、その後、複数のマシンや GPU 環境のフルデータセット上で実行するために、容易に拡張する能力と柔軟性を提供します。 最新のコンテナを使用するには次のステップに従ってください。 次を使って SageMaker Python SDK の最新バージョンをインストール (または更新)pip install -U sagemaker ユーザーの新しいジョブではデフォルトで各フレームワークの最新バージョンが使用されます。しかし、ワークローでフレームワークの古いバージョンを使用する必要があるときは、次の手順でバージョンを指定できます。 MXNet の 場合: from sagemaker.mxnet import MXNet estimator = MXNet(entry_point=’mnist.py’, framework_version=’0.12’, role=role, […]

Read More

AWS 深層学習 AMI は現在、Chainer と最新バージョンの PyTorch と Apache MXNet をサポートしています

AWS 深層学習 AMI は、完全に設定された環境を提供するため、人工知能 (AI) の開発者とデータ科学者はすぐに深層学習モデルを使い始めることができます。Amazon Machine Images (AMI) には、柔軟で直感的な深層学習 (ディープラーニング) のフレームワークである Chainer (v3.4.0) のみならず、最新バージョンの Apache MXNet と PyTorch を含みます。 Chainer の Define by Run アプローチにより、開発者はトレーニング中にすぐに計算グラフを変更することができるようになります。これは、シーケンスからシーケンスへの翻訳や質疑応答システムなど、自然言語処理 (NLP) タスクに使用されるリカレントニューラルネットワーク (RNN) などのダイナミックニューラルネットワークを実装する上でより大きな柔軟性を与えます。Chainer は、Amazon EC2 P3 インスタンスに搭載されている NVIDIA Volta GPU の計算処理を加速するための NVDIA CUDA 9 と cuDNN 7 ドライバーを使う CuPy を利用するように設定されています。当社のステップバイステップのチュートリアルを使用して、Chainerをすぐに使い始めることができます。 Ubuntu と Amazon Linux に対応している深層学習AMI は、各深層学習フレームワークの公式な最新バージョンのビルド済pipバイナリを、Condaベースの仮想環境で分離して提供します。各フレームワークは、サポートする NVIDIA CUDA […]

Read More

いよいよモバイルワールドコングレスの開催です。コネクテッドカーのデモをご覧ください!

バルセロナ (私たちのお気に入りの都市のひとつ) で開催される Mobile World Congress 2018 (モバイルワールドコングレス) へ参加のご予定ですか? それなら、第 5 ホール、5E41 ブースで実施中の、コネクテッドカーのデモをお見逃しなく。 AWS Greengrass チームでは、コネクテッドカーで自動車業界がどう変わるかを実証するために Vodafone と Saguna の友人とともに、概念実証に取り組んできました。今回のデモは MEC (マルチアクセスエッジコンピューティング) の新進コンセプトに基づいて構築されています。 自動車メーカーは自社の車両に最新のデジタル技術を組み込みたいと考えてはいるものの、コスト、パワー、製品化までの時間といった懸念事項により、車両に搭載されたコンピューティングリソースへの大がかりなアップグレードは望んでいません。また、既に道を走っている車両への後付けによって生じるであろう問題については言うまでもありません。MEC はモバイルネットワークのエッジを活用すること、たとえば、アクセスネットワークのハブサイトの活用によって、処理リソースの負担を軽減します。このモデルは自動車メーカーが、ローレイテンシーのコンピューティングリソースを活用し、その一方で自動車を発展させ、車両の寿命をときには 20 年以上も延ばす技術を提供するのに一役買います。また、複雑さや車載部品のコストも抑制します。 MWC のデモでは Vodafone の 4G LTE ネットワーク上で、AWS Greengrass を活用する Saguna の AI 搭載 MEC ソリューションを使ったライブビデオフィードをストリーミングしています。今回のデモではドライバーの安全性に重点を置くとともに、他の人とのおしゃべりや車内の別のものに気をとられているドライバーの検知を目標としています。モバイルネットワークのエッジで稼動する、AI 搭載の動作追跡およびパターン検出機能を備える車載カメラをドライバーに向け、注意散漫の状態を検知し、ドライバーに警告するというものです。このアーキテクチャではほとんどのコンピューティング機能はモバイルネットワークのエッジで処理されることから、これを使用することで、自動車メーカーは既存の自動車にも機能強化を実装しやすくなります。 モバイルワールドコングレスに参加できない方もご心配は無用です。このソリューションのビデオはこちらからご覧いただけます。 — Jeff;

Read More

AWS Certificate Manager (ACM) が Certificate Transparency (CT) をサポートするための準備

  2018年4月30日 より、Google Chrome は全ての公式に信頼する証明書は少なくても 2 箇所の Certificate Transparency ログに記録されている事を必須条件とします。これにより Google Chrome ではログに記録されていない発行済の証明書にはエラーメッセージが表示される事になります。2018年4月24日より、お客様が Certificate Transparency ログへの記録を無効にしない限り、アマゾンは全ての新規や更新した証明書について少なくても 2 箇所以上の公開ログに記録を行うようにします。 Certificate Transparency ログが無い場合、所有するドメイン名に対する予期しない証明書発行を把握することは難しいでしょう。現行システムでは、発行された証明書の記録は保管されておらず、ドメインの所有者は不正な証明書を見つける信頼性のある方法はありませんでした。 この状況に対処するために、Certificate Transparency は発行された各証明書についての暗号化技術による安全なログを実現します。ドメインの所有者は間違いや悪意で発行されたものも含め、予期しない証明書を見つけるためにログを検索することができます。また、ドメインの所有者は不適切に証明書を発行している認証局 (CA) を見つける事も可能です。このブログ記事では、Certificate Transparency についてより詳細に説明し、どうやって準備をすればよいのかお伝えします。

Read More