Amazon Web Services ブログ

【開催報告】第9回Amazon SageMaker 事例祭り

アマゾン ウェブ サービス ジャパン株式会社 機械学習ソリューションアーキテクトの上総 (Twitter:@tkazusa ) です。AWS Japan 目黒オフィスでは「Amazon SageMaker 事例祭り」(Twitter: #sagemaker_fes) を定期的に開催しています。2019年10月30日に開催された 第9回 Aazon SageMaker 事例祭り では、AWS Japan のソリューションアーキテクトによるサービスの最新情報や技術情報と、Amazon SageMaker をご利用いただいているお客様をゲストスピーカーにお招きし、実際に導入頂いたお客様による「体験談」をお話し頂きました。

 「AWSの機械学習サービス概要とAmazon SageMakerの基礎」[Slides]

アマゾン ウェブ サービス ジャパン株式会社
機械学習ソリューションアーキテクト 宇都宮 聖子

 

Amazon SageMaker は、機械学習モデルの開発・学習・推論を効率よく行うためのマネージドサービスです。機械学習の環境構築はライブラリのインストールやアップデート、CUDA の設定など開発者への均一な環境構築や、定期的なメンテナンスなど、開発者の負担が大きい割にビジネス上の課題解決に直接寄与しづらいワークロードです。SageMaker をお使いいただくことで、その負荷を削減できる点をお伝えしました。お客様は SageMaker が提供するコンテナイメージと SageMaker Python SDK を用いて SageMaker がサポートするフレームワークで学習・推論を効率的に行うことができます。また、コンテナをイメージをカスタムいただくことで、お客様の開発環境に合わせて SageMaker をご活用いただけます。コンテナイメージでは、機械学習モデルをすぐに使うことができるビルトインアルゴリズムを提供しており、簡単に機械学習をスタートできます。

セッションの後半では、学習・推論を効率的にまた低コストで実行する tips をご紹介させて頂きました。SageMaker の 学習ジョブにスポットインスタンスを使ったコスト削減方法 など、実行手順も含めご案内致しました。大規模なデータに関してはデータ格納先として Amazon S3 だけでなく、 Amazon FSx for Lustre または Amazon EFS を直接学習インスタンスにマウントいただけるように なりました。これにより、大規模データの転送のオーバーヘッドを減らすことが可能になります。また、推論コストを下げる方法として、バッチ推論や Elastic Inference の活用に加え、SageMaker で 推論に最適な G4 および R5 インスタンス を選択いただけるようになりました。ワークロードに応じて選択頂くことでコスト効率良くリアルタイム推論が可能になります。詳細については「 Amazon SageMaker で、リアルタイム推論用の G4 および R5 インスタンスのサポートを開始  」のブログ記事をご確認下さい。

「Amazon SageMaker Ground Truth」[Slides]

アマゾン ウェブ サービス ジャパン株式会社
機械学習ソリューションアーキテクト 大渕 麻莉

独自のデータを利用した教師あり学習を行うためには、ラベル付きデータを準備する必要となりますが、アノテーション(データへのラベル付け)にはコスト・時間がかかるため、今日では機械学習のビジネス活用の一つの大きなハードルとなっていることも多いのではないでしょうか。特に、深層学習モデルの構築などでは、大量のデータセットに対して高精度なアノテーションが求められたり、アノテーション担当者向けにツールの準備(認証・UI・進捗管理)を行う必要性が出てきたりしています。これらのアノテーションについての課題を解決するのが Amazon SageMaker Ground Truth です。
Amazon SageMaker Ground Truth は、犬と猫どちらが写っているかなどの画像分類、画像の中の指定された被写体に枠を付ける物体検出、画像の中の指定された被写体にピクセル単位でラベルを付けるセマンティックセグメンテーション、テキスト分類といった様々なタスクに対し、GUI を用いて容易なアノテーションを実現します。アノテーションを行うワーカーは、クラウドソーシングの Amazon Mechanical Turk によるパブリック 、友人や社員などを登録して活用するプライベート、登録済みのアノテーション専門企業へ依頼するベンダーの3種類からお選びいただくことができます。自動ラベリング機能を活用して、アノテーションの時間とコストを削減することも可能です。また、アノテーションの質を担保する仕組みとして複数人数による同一データへのラベリングについてご説明しました。ラベルの決定については、単純な多数決ではなく、ワーカーの正答率をもとにラベルを決定することで、アノテーションの質を担保するような機能があります。
セッションの後半では、Ground Truth でのラベリングジョブ作成について順を追ってご案内し、デモにてご体験頂きました。特にデモの最後では、既にラベル付けされたデータに対するラベルの検証についても紹介致しました。一度実行されたラベリングジョブを検証し、品質が悪いアノテーションデータを抽出した上で再度アノテーションするような流れをご説明しました。詳細については「 Amazon SageMaker Ground Truth にデータラベルの検証と調整の組み込みワークフローが追加 」をご覧下さい。

「リアルタイム画像配信システムのプライバシーフィルタAI開発におけるSageMaker活用例」[Slides]

パイオニア株式会社
ソリューションアーキテクト 山内 龍之介 様

パイオニア株式会社では、カーナビを始めとしたコネクテッドカーソリューションを20年間に渡り提供しており、近年はドライブレコーダーなどの車載 IoT 端末から収集した動画像の活用に取り組んでおります。 行き先の交通状況を実写画像で確認できる、クラウド型リアルタイム情報共有サービス スマートループ アイ を開発するにあたり、画像上でのプライバシーの保護が課題でした。配信画像に含まれるナンバープレートや顔など、個人を特定できる情報をマスクしなければなりません。このプライバシーフィルタは当初 OpenCV で実装されていましたが、本番適用に向けて継続的な性能改善の必要がありました。この機械学習モデルの改善において、開発当初は EC2 ( GPU インスタンス) 上に Docker コンテナを構築して開発されていましたが、ライブラリのバージョン違いなどがあるとスクリプトが動かないなどで環境構築に工数が取られる、開発用インスタンスと学習用インスタンスの切り替えを手動で実行するのが煩雑である、サービスへ適用するための本番環境構築が難しい、といった課題を抱えれおられました。こういった開発環境へ SageMaker を導入することによって、開発環境構築においては、マネージドサービスである SageMaker の活用で煩雑な作業をする必要がなくなったことに加え、データ整理からデプロイまでの開発過程をドキュメントとして残せることがメリットと感じられておられました。また、学習時にジョブの自動終了やマルチ GPU インスタンスによる分散学習を活用することにより、モデル学習にかかるコストが3割以上も削減されたようです。さらに、本番環境構築については、API コールでのモデルのデプロイで開発サイクルの高速化を実現されたり、A/B テストや ハイパーパラメータ自動調整などモデルをアップデートしてサービスへ適用する際の課題も解決されたようでした。SageMaker 上での開発にあたって、YOLOv3 の開発を Keras から MXnet/GluonCV に変更されたようでした。これにより、マルチ GPU でのトレーニングが容易であったり、その API が開発・デバッグしやすいなどから、開発効率を向上されたようです。また SageMaker の導入がチームにもたらす良い効果として、Notebook を共有することで実施内容を共有できる点や、S3 にアーティファクトとして実施結果が残っている点を強調されておられました。今後は、スマートループ アイへの本番環境での稼働はもちろん、Amazon SageMaker Neo で機械学習モデルをコンパイルして実行環境へ最適化することで、推論速度の高速化やコスト削減、エッジデバイスへのデプロイなども検討されているようでした。

「DRIVE CHARTにおけるSageMaker Migration」[Slides]

株式会社ディー・エヌ・エー
AI本部AIシステム部MLエンジニアリングG 外山 寛 様

株式会社ディー・エヌ・エーよりリリースされたサービス DRIVE CHART では、Amazon SageMaker の登場以前より、EC2 の GPU インスタンスを利用した機械学習基盤を構築し、開発・運用を進められてきました。その後、SageMaker ローンチの当初から AWS と協議し、学習環境の SageMaker への移行を進めてこられました。 移行前の学習環境では、リサーチャーによる EC2 インスタンス管理、インスタンスの停止忘れによる無駄なコスト、CUDA の設定などの独自 AMI の構築コストが高い、などといった課題をお持ちでした。SageMaker への移行後では、仮想マシン管理が不要になり、学習終了時のインスタンス自動削除でのコスト削減や、環境構築工数の削減といったメリットを得られたようです。

今回は、その移行の中で得られた SageMaker 移行についての知見や開発効率の向上のための tips をユースケースを交えながらご紹介頂きました。例えば、SageMaker を使用開始当初は S3 からコンテナにデータを転送するしか選択肢になかったところ、Amazon EFS を学習インスタンスから直接読み込めるようになり、データの転送が発生せずに読み込み速度の向上に繋がりました。また、スポットインスタンスを使った学習では、実体験として P2 や P3 でオンデマンドインスタンスでの学習と比較して6割程度のコストが相場になるとご紹介されました。また学習の際に、checkpoint を s3 に保存しておき、かつ、中断した際の再開処理を実装することで、スポットインスタンスでの学習も問題なく業務で活用できるとのことでした。また SageMaker Python SDK のローカルモードを利用することで学習インスタンスの起動時間を待つこと無く、素早くデバッグを行っているとのことでした。その際、出力結果の保存先の設定を工夫することで S3 への実行結果のアップロードを無効化すると、ローカル環境だけで完結できるようにしたとのことでした。さらに、Amazon CloudWatch Events を活用して学習終了を検知し、その結果を必要に応じて詳細なメッセージをつけて、Slack 経由でリサーチャーに通知して効率的な開発を行うなど、開発現場ですぐに使える SageMaker の具体的なを活用方法を余すところなく豊富にご紹介いただきました。

まとめ

今回は AWS の機械学習サービス全体の話をご紹介した上で、Amazon SageMaker を活用されているゲストの方々をお迎えし、ご活用実例についてお話し頂きました。なお、過去の Amazon SageMaker 事例祭りの開催概要と登壇スライドは下記のリンクからご覧いただけます。

  • 第1回 Amazon SageMaker 事例祭り 2019年1月15日 [Web]
  • 第2回 Amazon SageMaker 事例祭り 2019年2月12日 [Blog]
  • 第3回 Amazon SageMaker 事例祭り 2019年3月12日 [Blog]
  • 第4回 Amazon SageMaker 事例祭り 2019年4月24日 [Blog]
  • 第5回 Amazon SageMaker 事例祭り 2019年5月21日 [Blog]
  • 第6回 Amazon SageMaker 事例祭り 2019年7月18日 [Blog]
  • 第7回 Amazon SageMaker 事例祭り 2019年8月29日 [Blog]
  • 第8回 Amazon SageMaker 事例祭り 2019年9月19日 [Blog]

今後もセミナーやハンズオンを通じてサービスのご紹介やゲストによる体験談のご紹介をしていく予定です。次回の 第 10 回 SageMaker 事例祭り は 11月28日(木)に予定しております。また、11月15日(金)には第1回目となる 「 AWS ML@Osaka #1  」を、11 月 19 日(火)には「 【福岡開催】AWS Solution Seminar〜今日からはじめるML(機械学習)とAI(人工知能)サービス〜  」をそれぞれ開催します。

さらに、年末にかけて「機械学習をビジネスに活用したい」という皆様にぴったりのイベントがいくつかございます。今回ご紹介します 3 つのパートを一通り実施していただくことで、AWS の機械学習サービスである Amazon SageMaker を利用した機械学習の開発・学習・運用に関する知識を、実装レベルで身につけることが可能です。ハンズオンの内容を、現在の機械学習の業務に適用いただくことで、業務の効率化だけでなく、困難な機械学習タスクへの挑戦も可能にします。

今回のイベントにご参加頂き、条件 を満たされた皆様には、200 ドル分の AWS クーポンをプレゼント致します。ぜひ、機械学習に関するスキルアップに役立てて頂ければと思います。詳細は、「 年末までに使えるようになる! Amazon SageMaker で機械学習を始めよう 」をご覧ください。

※ キャンペーンの対象人数には限りがあります。クーポンは2019年12月31日までのご利用分に関して適用されます。