Amazon Web Services ブログ
【開催報告 & 資料公開】 AI/ML@Tokyo #9 機械学習モデルの可視化、説明可能性とMLセキュリティ
アマゾン ウェブ サービス ジャパン株式会社 機械学習ソリューションアーキテクトの大渕です。AWS Japan では、AI/ML 関連情報を発信するイベント「AWS AI/ML@Tokyo」を定期的に開催しています。2020年12月17日にオンラインで開催された AWS AI/ML@Tokyo #9 では、AWS の 機械学習ソリューションアーキテクトより Amazon SageMaker を使って機械学習モデルの可視化と説明可能性を実現する方法をご紹介し、ソリューションアーキテクトより AWS の AI/ML サービスにおけるセキュリティについてご紹介しました。また、お客様活用事例として、東日本旅客鉄道株式会社様より、画像認識を活用した PoC 環境構築事例をお話しいただきました。
「Amazon SageMakerによる機械学習モデルの可視化と説明可能性」[Slides]
アマゾン ウェブ サービス ジャパン株式会社
機械学習ソリューションアーキテクト 卜部 達也
本セッションでは、Amazon SageMaker を使って、学習、推論、運用のそれぞれのフェーズで機械学習モデルの可視化を行う方法をご紹介しました。
お客様の中には、推論結果に対する透明性の欠如や機械学習モデルのブラックボックス性に対する懸念をもたれている方もいらっしゃいます。特に、個人情報を扱うことの多い金融サービスやヘルスケア業界においてよくご相談いただきます。そのほかの業界においても、サービスやプロダクトに対する説明責任が発生したり、モデルの学習の試行錯誤の過程を把握する必要が出てくるケースがあります。
学習のフェーズにおいて、学習中のモデルの内部状態を保存・監視するために Amazon SageMaker Debugger をご紹介しました。SageMaker Debugger を使うと、コードを変更することなくデバッグデータを収集し、リアルタイムでのデバッグやアラート制御をすることができます。また、収集した情報や分析結果を Amazon SageMaker Studio で確認することができます。さらに、SageMaker Debugger はリソース使用率のプロファイリングが可能なため、インスタンスを効率的に使えているかなどを確認することができます。
推論のフェーズにおいて、説明性が問題となるケースとして「なぜ私の与信取引は拒絶されたのか?」「なぜこの薬が処方されたのか?」をご紹介しました。また、モデルの性能と解釈性にはトレードオフの関係があることと、モデルに解釈性を与える手法をご紹介しました。具体的な手法として、SageMaker Debugger を使って SHAP (SHapely Additive exPlanations) を使う方法と、AWS re:Invent で発表された Amazon SageMaker Clarify をご紹介しました。
運用のフェーズにおいて、モデルの品質を維持するためのサービス Amazon SageMaker Model Monitor をご紹介しました。
「AWS の AI/ML サービスにおけるセキュリティ」[Slides]
アマゾン ウェブ サービス ジャパン株式会社
ソリューションアーキテクト 辻 陽平
本セッションでは、AWS で AI/ML を行う上でセキュリティやコンプライアンス準拠する際の考え方、特にデータ保護、トレーサビリティ、閉域網の利用についてご紹介しました。
データ保護においては、データ転送中の暗号化とデータ保管中の保護を考慮する必要があることをご紹介しました。その中でも、データ保管中の保護を実現するためのポイントとして、データが置かれる場所、暗号化・複合化される場所、暗号鍵の管理が挙げられました。AWS で AI/ML を行う場合、データは AWS のストレージサービスや AI/ML サービスで管理されます。暗号化・複合化を行う場所としては AWS のサービス上か、お客様のクライアント上が考えられますが、自社のコンプライアンスなどの理由がなければ AWS Key Management Service (KMS) を用いることが推奨されます。鍵の管理についても、特に理由がなければ AWS KMS での管理が推奨されます。ここでは具体例として Amazon SageMaker Studio を利用する際のデータ保護についてご説明しました。
次に、トレーサビリティについて、運用コストを抑えつつ、誰が、どこから、いつ、どのような設定でどのような操作をしたか、などというデータを収集し、保管する方法をご紹介しました。ポイントとしては、データの種類、収集方法、保存方法、保存期間となります。これらのポイントについて、どの AWS サービスを使用すれば実現できるのかをご紹介しました。具体例として、Amazon SageMaker を利用する際のトレーサビリティ実現方法をご説明しました。
最後に、閉域網の利用について、ポイントとしては、VPC エンドポイントの利用、適切な API 引数の指定、アクセス制御が挙げられました。リソース作成時に API の引数を適切に設定することによって、データ通信がインターネットを経由してしまうのを防ぐことができます。また、IAM ポリシーを作成することで、VPC エンドポイントの利用や API 引数の指定を強制することができます。具体例として、Amazon SageMaker Python SDK を使って閉域網での API 実行を行う方法をご説明しました。
「画像認識を活用した PoC 環境構築事例」[Slides]
東日本旅客鉄道株式会社
技術イノベーション推進本部 エンジニア 小山賢太郎 様
東日本旅客鉄道株式会社は、鉄道事業を主軸にしつつ、生活サービス事業など幅広い事業を展開している企業です。そのなかで技術イノベーション推進本部は、研究開発や情報システムの管理・運営を担っています。
今回取り組んだ PoC では、列車が走行する線路におけるレールとガードレール間の移動量の推定をターゲットとしました。ガードレールはレールの内側に設置されるもので、カーブ区間や橋梁に設置して脱線を防止するためのものです。列車が走行する際の振動によって、レールとガードレールの締結部がゆるんで移動してしまい、その移動距離が大きい場合には修繕が必要になります。そのため、レールとガードレールの距離を精緻に測ることが重要です。
従来、定期的にレールとガードレール間の距離を現場で測定して管理していましたが、安全性向上と業務効率化に向けて、より高頻度に幅の管理をしたいという課題がありました。そこで、画像からレールとガードレール間の距離を測定する検討を始めました。現在JR東日本では、⽇々⾛⾏している営業列⾞で線路状態を撮影する軌道材料モニタリング装置という装置の導入を進めており、その装置で撮影した画像を使ってレールとガードレール間の距離を測定することにしました。
まずは机上検討で画像からレールとガードレール間の幅を検知することができるロジックを構築し、続いて業務の適用性を確認するために PoC 環境の構築に進みました。その際に、安価で簡易に構築可能な PoC 環境として AWS を選択しました。AWS を使って、画像をアップロードすると判定結果を自動的に取得できるシステムをサーバレスで構築しました。これにより、日次バッチ処理システムを迅速に、低コストで実現できました。
まとめ
今回は AWS より、Amazon SageMaker を使って機械学習モデルの可視化と説明可能性を実現する方法と、AWS の AI/ML サービスにおけるセキュリティについてご紹介しました。また、お客様から画像認識を活用した PoC 環境構築事例についてお話いただきました。
2019年に開催した「Amazon SageMaker事例祭り」、2020年からスタートした「AWS AI/ML@Tokyo」の開催報告と登壇スライドは、以下のリンクからご覧いただけます。
また、Amazon SageMaker のオンラインによる体験ハンズオンがございますので、こちらもご活用ください。