Amazon Web Services ブログ

Category: Artificial Intelligence

新登場 – アプリケーションのエラーと修正の特定に役立つ Amazon DevOps Guru

本日、完全マネージド型運用サービスの Amazon DevOps Guru を発表します。Amazon DevOps Guru は、運用上の問題を自動的に検出して修正を推奨することで、デベロッパーやオペレーターがアプリケーションの可用性を容易に向上させることができるようにするサービスです。DevOps Guru は、Amazon.com とアマゾン ウェブ サービス (AWS) の長年にわたるオペレーショナルエクセレンスを習得した機械学習を適用し、アプリケーションメトリクス、ログ、イベントなどのデータを自動的に収集および分析し、通常の運用パターンから逸脱した動作を特定します。 動作が運用上の問題またはリスクとして特定されると、DevOps Guru はデベロッパーとオペレーターに問題の詳細を通知し、問題の範囲と原因の可能性を迅速に把握できるようにします。DevOps Guru では問題を解決するためのインテリジェントな推奨事項が提供されるため、解決までにかかる時間を節約できます。DevOps Guru では、ハードウェアやソフトウェアをデプロイする必要はなく、分析されたデータに対してのみ課金されます。前払いコストやコミットメントは発生しません。 分散された/複雑なアーキテクチャとオペレーショナルエクセレンス アプリケーションの分散化と複雑化が進むにつれ、オペレーターはアプリケーションの可用性を維持し、運用上の問題の検出、デバッグ、および解決に費やす時間と労力を削減するために、より自動化されたプラクティスを必要とします。例えば、設定ミス、不均衡なコンテナクラスター、またはリソースの枯渇などによるアプリケーションのダウンタイムは、企業にとって大きな収益損失につながる可能性があります。 多くの場合、企業は、メトリクス、ログ記録、トレース、イベントなどの複数のモニタリングツールをデプロイおよび管理し、それらをさまざまな場所に保存して分析するといった、デベロッパーの作業にかかる時間に投資する必要があります。また、デベロッパーやオペレーターは、ロードバランサーでのエラーのスパイクやアプリケーションのリクエストレートの異常な低下などの問題を警告するために、カスタムアラームの開発と保守に時間を費やしています。問題が発生すると、オペレーターは同じ問題に関連する複数のアラートを受け取り、アラートを組み合わせて、すぐに対応しなければならないアラートに優先順位を付けます。 DevOps Guru の仕組み DevOps Guru の機械学習モデルは、過去 20 年にわたって、AWS の専門知識を活用して世界最大の電子商取引ビジネス向けに高可用性アプリケーションを実行しています。DevOps Guru は、運用上の問題を自動的に検出し、考えられる原因を詳述し、修復アクションを推奨します。DevOps Guru は、Amazon CloudWatch、AWS Config、AWS CloudTrail、AWS CloudFormation、AWS X-Ray をサポートする複数のソースにまたがるデータを統合することにより、運用データを検索および可視化する単一のコンソールエクスペリエンスをお客様に提供し、複数のツールを使用する必要がなくなります。 DevOps Guru の開始方法 DevOps Guru のアクティブ化は簡単で、AWS マネジメントコンソールにアクセスして [Enable (有効)] をクリックだけです。DevOps Guru […]

Read More

【開催報告】 e コマース業界における フェーズ別 ML/ANALYTICS 活用セミナー

こんにちは!アマゾンウェブサービスジャパン株式会社 ソリューションアーキテクトの石本です。 2020/11/25 に、 e コマース業界におけるフェーズ別 ML/ANALYTICS 活用セミナーを開催いたしました。セミナーの開催報告として、セミナーでご紹介した内容や、当日の資料・収録動画などを公開いたします。 開催の背景 私たちが普段お客様と接する中で、 e コマース事業に必要となる機能が共通的に存在し、多くのお客様の中で課題になっていることを認識しています。 そこで、みなさまの課題やお悩みを迅速に解決し、 e コマースサイトをさらに成長していただくため、 AWS ユーザー様からご相談の多かった機能にフォーカスして、実現方法やソリューション、事例などをご紹介するセミナーを実施しました。セッションでは、 “画像検索、レコメンド・プッシュ通知を用いた広告ソリューション、次世代カスタマーサポート、不適切コンテンツ・不正行動検知、ライブコマース” と、6つの機能群を取り上げております。 セミナーの内容 / 収録動画 / スライド それぞれのセッションでは、お客様が直面されるであろう課題や、昨今よく話題にあがっているトピックにフォーカスして、課題を解決するソリューション、必要となるデータ、実装に向けたステップ、事例などをご紹介しています。各セッションの概要を下記に記載しておりますので、ご関心をお持ちの内容があれば資料もご覧いただれば幸いです。 画像検索ソリューション (SA 半場 光晴) 20201125 EC Solution Seminar Image Search from Amazon Web Services Japan サイトに訪れたエンドユーザが商品検索時に使うだけではなく、“お客様が興味を示した商品の画像“から、”類似する画像の商品“ をレコメンドするためのバックエンド処理として使われるようなユースケースがあります。また実現方法として、画像をそのまま検索するのではなく、検査される画像群の特徴量を抽出して Indexing しておき、検索対象の画像の特徴量を使って検索する手法をとること、またそれらをサポートする MobileNet や Faiss などの OSS フレームワークが存在することや、 Amazon Elasticsearch Service との連携など、 AWS […]

Read More

AWS DeepRacer Championship Cup を応援しよう! / AWS DeepRacer が日本から購入可能に

11月30日よりAWS re:Inventがスタートしました。 ちょうど1年前、2019年のAWS re:Invent にてAWS DeepRacer リーグのグローバル最終決戦「Championship Cup」が開催され、日本のレーサー、Solaさんが優勝、Fumiakiさんが準優勝という快挙が成し遂げられました。 2020年のAWS re:InventにおいてもAWS DeepRacerリーグを締めくくるグローバル最終決戦「Championship Cup」が開催されます。全てのレースがオンラインで開催される今大会には、3月から続いた予選を勝ち抜いた総勢112名のファイナリストが出場予定。日本からも16名(11月30日時点)のレーサーがファイナリストとして名を連ねています。(下図は112名のファイナリストの初戦の対戦表) ここから世界一になるにはre:Invent期間中に開催される「Group Knockout」でまず上位32位までに入り、準決勝「Bracket of 32」で上位8名に残らなければなりません。そして決勝戦「Grand Prix Finale」で世界一が決まります。 Group KnockoutからGrand Prix Finaleにいたるまで、レースの様子はTwitchにてライブ公開されます。日本のレーサーが登場する初戦は12月2日 10:00スタート(日本時間)を予定しています。 Twitchにアクセスし、レーサーのみなさんを応援しましょう! Championship cupの詳細はこちら(英語)   そしてもうひとつうれしいお知らせがあります。 これまで日本からの購入ができなかったAWS DeepRacerですが、2020年11月10日より、Amazon.com(USサイト)にて購入することができるようになりました。 販売内容および注意事項は以下のとおりです。 ◆販売内容 DeepRacer :399$ DeepRacer + Sensor Kit (Evo) : 598$ Sensor Kit : 249$ ※価格は予告なく変更される場合があります 最新の情報は購入サイトでご確認ください ◆ご注意いただきたいこと ご購入にあたっては、購入可能な台数に制限があります 1つのAmazonアカウントで1週間に2台までの購入が可能です 1出荷あたり80$~87$ほどの送料がかかります ※上記送料は目安であり実費は購入サイトでご確認ください USからの直接出荷のため、日本ではサポートを受け付けておりません 購入、返品、故障などサポートが必要な場合は購入サイトへ英語にて直接依頼してください   […]

Read More

Amazon SageMaker Model Monitor と Debugger を使って不正な予測を検知して分析する

この記事は、Detecting and analyzing incorrect model predictions with Amazon SageMaker Model Monitor and Debugger を翻訳したものです。 畳み込みニューラルネットワーク(CNN)は、画像分類や物体検出などのタスクにおいて、最先端の結果をもたらします。自動運転において道路上の交通標識や物体を検出したり、ヘルスケアにおいて画像から異常部位をより正確に分類したり、小売業において在庫管理をしたりと、さまざまなアプリケーションで使用されています。

Read More

Amazon Transcribe が、日本語、韓国語、ブラジルポルトガル語のストリーミング機能に対応

Amazon Transcribe は、自動音声認識 (ASR) サービスで、アプリケーションに音声からテキストへの機能を簡単に追加できます。本日、Amazon Transcribe ストリーミングについて、日本語、韓国語、ブラジルポルトガル語のサポートを開始しました。これらの言語のストリーミングトランスクリプションを低レイテンシーで配信するため、アジアパシフィック (東京)、アジアパシフィック (ソウル)、南米 (サンパウロ) リージョンで Amazon Transcribe Streaming のサポートも開始となりました。

Read More

Amazon SageMaker RL を利用した Unity 上での強化学習エージェントの作成

Unityはゲーム業界をはじめ、映画や自動車業界など幅広い分野で利用されている仮想環境エンジンです。ユーザーはUnityで提供されるツールを通して、独自の物理法則、地形、キャラクターを作成することが可能です。Unity Machine Learning Agents Toolkit (ML-Agents)はオープンソースプロジェクトで、Unityで構築した仮想環境内で動作する強化学習エージェントを作成することが可能です。強化学習とは機械学習の一種であり、エージェントはある環境上の一連のアクションに対して受け取る総報酬を最大化するための方策を学習します。SageMakerにおける強化学習の取り組みについてはこちらのブログを参照ください。Unity ML-Agentsは強化学習エージェントの作成において広く使われているツールであり、作成された強化学習エージェントはレベルデザイン、バグ検出、チート検出など様々な用途で応用されています。より複雑な環境における強化学習エージェントの作成には、分散学習、ハイパーパラメータチューニングなどにおいて効率よくコンピューティングリソースを配置することが重要となります。このブログでは、SageMaker RLとUnity ML-Agentsを統合し、フルマネージドな環境で効率よくコンピューティングリソースを配置し強化学習エージェントを作成する方法について紹介します。 SageMaker RLを使う利点 Amazon SageMaker はフルマネージドサービスであり、機械学習モデルを迅速に構築、トレーニング、デバッグ、デプロイなどをするための様々な機能を提供しています。SageMaker RLはこのSageMaker上で動作し、ビルド済みのRL ツールキットを提供しています。SageMaker RLを用いることで、容易にRL環境を構築でき、TensorflowやPyTorchといったフレームワークを使用した強化学習が可能です。学習、推論ジョブはSageMakerによって管理されており、お客様は強化学習エージェントの作成に多くの時間を割くことができます。また、SageMaker RLは複数のサンプルノートブックを提供しており、どのように強化学習をロボティクス、オペレーションズ・リサーチ、金融に利用するのかなどを学ぶことが可能です。以下に紹介するソリューションもこのサンプルノートブックからすぐさま利用可能です。 SageMaker RL – Unity ML-Agents integrationの利用方法 今回利用するSageMaker RLの学習ジョブの構成は以下のようになっています。強化学習ツールとしてはRay-RLLibを使用しています。分散学習、アルゴリズム構築、ネットワーク構築、パラメータ設定などをRay-RLLib上で管理することで煩雑な作業を減らすことが可能です。Unity環境はOpenAI Gym環境としてラップすることでRay-RLLibからはUnity独自の仕様を意識することなく一般的な強化学習タスクとして扱えます。そして、学習を実行するリソースや設定についてはSageMakerで管理しています。 では、実際にこの構成で強化学習エージェントを作成する方法を順を追って説明します。 セットアップ はじめに、ノートブックの環境設定を行います。下記を実行することで、API実行用のIAMロール、S3バケットの設定やPythonライブラリのインポートなど環境設定を行うなうことができます。 import sagemaker import boto3 # set up the linkage and authentication to the S3 bucket sage_session = sagemaker.session.Session() s3_bucket = sage_session.default_bucket() s3_output_path = ‘s3://{}/’.format(s3_bucket) print(“S3 […]

Read More

閉域網で Amazon SageMaker を利用する際のポイントと手順

みなさま、こんちには!ソリューションアーキテクトの辻です! このブログでは Amazon SageMaker を閉域網で利用する際のポイントや設定方法、使い方を紹介します。長い記事となりますので、以下の構成に沿って、閉域網における利用まで順を追って説明します。 全体像の紹介 – パート1 閉域網の作成 (閉域網を新規作成したい方向けです) – パート2 ネットワークと権限の設定 (管理者による設定の手順などを紹介します) – パート3 エンドユーザーによる利用 (パート2, 3の手順で構築した環境での Amazon SageMaker の各種機能の利用方法を説明します) – パート4 リソースの後片付けとまとめ – パート5,6 いずれのパートも Amazon SageMaker に関して経験があり、SageMaker Python SDK などを利用したことのある方を前提としています。設定方法は東京リージョンを前提としているので、他のリージョンをお使いになる方は適切に読み替えてください。

Read More

Alexa の大部分で、より高速でコスト効率の高い Amazon EC2 Inf1 インスタンスによる実行を開始

本日、Amazon Alexa チームが、GPU ベースの機械学習推論ワークロードの大部分を、 AWS Inferentiaを搭載した Amazon Elastic Compute Cloud (EC2) Inf1 インスタンスに移行したことを発表しました。これにより、Alexa のテキスト読み上げワークロードで使用している GPU ベースのインスタンスに比べて、エンドツーエンドのレイテンシーが 25% 短縮し、コストは 30% 削減しました。レイテンシーがより低くなったことにより、Alexa のエンジニアはより複雑なアルゴリズムを使った革新が可能となり、お客様の Alexa の使用感を全体的に向上させることが可能となりました。 AWS はAWS Inferentiaのチップを1から開発し、クラウドの中でも最も低コストでの機械学習 (ML) 推論を提供しています。このチップは、AWS re: Invent 2019 で発表した Inf1 を増強します。Inf1 インスタンスは、GPU ベースの G4 インスタンスと比較して、最大で 30% 高いスループットを実現し、推論あたりのコストを最大 45% 削減しています。Inf1 以前は、G4インスタンス が ML 推論のクラウドの中で最も低コストのインスタンスでした。 Alexaは Amazon のクラウドベースの音声サービスで、Amazon Echoデバイスや、スマートスピーカー、ライト、プラグ、スマートテレビ、カメラの 14 万種類以上のモデルに対応しています。今日、Alexa には 1 億台以上のデバイスが接続されています。毎月、数千万人のお客様が […]

Read More

RAPIDSをAmazon SageMaker Processingで実行する

こんにちは、アマゾン ウェブ サービス ジャパンの藤田です。Amazon SageMakerは、すべての開発者が機械学習モデルを迅速に構築、トレーニング、デプロイできるようにするための完全マネージド型サービスです。Amazon SageMakerは機械学習モデルの開発を容易にするため、機械学習の各プロセスから負荷の大きな部分を取り除きます。 今回は、開発者が機械学習の前処理、後処理、モデル評価といったワークフローをAmazon SageMaker上で簡単に行うためのPython SDKであるAmazon SageMaker ProcessingとデータサイエンスのワークフローをGPUで高速化するフレームワーク、RAPIDSを使用し、サーバレスに前処理、特徴量作成を行う方法を紹介します。

Read More

【開催報告 & 資料公開】 AI/ML@Tokyo #7 AWSにおけるMLOps 開催報告

アマゾン ウェブ サービス ジャパン株式会社 機械学習ソリューションアーキテクトの卜部です。AWS Japan では、AI/ML 関連情報を発信するイベント「AWS AI/ML@Tokyo」を定期的に開催しています。2020年10月15日にオンラインで開催された AWS AI/ML@Tokyo #7では、AWS ソリューションアーキテクトより、AWSにおけるMLOpsプロセス実装のベストプラクティスや ML CI/CD環境の構築についてお話ししました。また、お客様活用事例として、株式会社コナミデジタルエンタテインメント様、ヤフー株式会社様 におけるAmazon SageMakerの事例をお話しいただきました。

Read More