AWS Startup ブログ

急成長スタートアップ 株式会社FLUX | AWS で実現する デジタルマーケティングの未来【AWS Summit Tokyo】

AWS について学べる日本最大のイベント「AWS Summit Tokyo」が、2023 年 4 月 20 日(木)、21 日(金)の 2 日間にわたり開催されました。「AWS Summit Tokyo」では各種の基調講演や 150 を超えるセッション・企画、会場内のブースによって AWS の知識を身に付けられるだけではなく、参加者同士でベストプラクティスの共有や情報交換ができます。オンデマンド配信登録はこちら

今回は開催された事例セッション「急成長スタートアップ 株式会社FLUX | AWS で実現する デジタルマーケティングの未来」(スピーカー:株式会社FLUX 取締役 CTO Edwin Li 氏)のレポートをお届けします。

FLUX 社はマーケティング領域において、パブリッシャーと広告主の両方に向けて事業を展開しています。そして、以前同社では社内の ML(機械学習)チームが広告配信の最適化プロジェクトを推進しているなかで、さまざまな制約から「大量のデータを扱って高速に検証のサイクルを回し、本番環境で使用できるレベルのモデルを素早くリリースする」という目標を実現しづらい状態が続いていました。

ですが、AWS の各種サービスをうまく組み合わせることで、分析モデルの管理の効率化やデータ分析の高速化といった生産性向上を図り、目標を実現したのです。本セッションではその事例について Li 氏が発表しました。

Data/ML 部が抱えていたスループットや継続性の課題

FLUX 社は「テクノロジーをカンタンに。経済価値を最大化する。」というミッションを掲げ、ユーザーの自動セグメンテーションを軸にオンライン売上を最大化するサービス「FLUX AutoStream」や、タグを設置するだけで AI が運用型広告のオーディエンスを最適化するサービス「FLUX Targeting」などを提供するスタートアップです。

FLUX 社では開発本部の中に Data/ML 部が存在しており、さらに Data PdM グループと MLE グループに分かれています。Data/ML 部には、機械学習やデータ分析関連の国際トップ学会への登壇・発表歴を持つような優秀なメンバーが数多く所属しています。

にもかかわらず、かつては機械学習関連のプロジェクトにおいて、スループットや継続性に課題を抱えていました。メンバー個々人のスキルは非常に高いものの、組織全体の生産性を上げるための環境や体制の整備ができていなかったのです。「大量のデータを扱って高速に検証のサイクルを回し、本番環境で使用できるレベルのモデルを素早くリリースする」ことを阻害していた要因として、Li 氏は 3 つを挙げました。

まずは環境に起因する課題です。機械学習パイプラインや検証環境を用意する余裕がなかったため、メンバーがそれぞれローカル環境を構築してデータの調査を行い、モデルを構築していたのです。本来であれば効率化できるはずの業務の大部分を手作業で行っており、メンバーの負担が大きくなっていました。結果の再現性にも問題がありました。

次が組織に起因する課題です。もともと Data/ML 部は立ち上げて間もない部署だったため、まだデータプラットフォームの構築に着手できていない状態でした。そして、プロダクトに起因する課題です。Data/ML 部が担当するプロダクトは立ち上げのフェーズであり、機能要件が頻繁に変わるため Data/ML 部側の作るシステムの要件も固めにくかったのです。

Amazon SageMaker で実現する機械学習パイプライン

セッション後半では、これらの課題のうち環境に起因するものを、AWS のアカウントチームと協力体制を組んで解決した事例について解説しました。

前述したように Data/ML 部には優秀なメンバーが数多く所属しているものの、決して全員が AWS に詳しいわけではありませんでした。そこで、AWS のソリューションアーキテクトと毎週 90 分のハンズオンを開催し、全員が同じ水準の AWS の知識を持てるようにしました。

また、Data/ML 部では現状ルールベースのアルゴリズムと機械学習ベースのアルゴリズムを用いているのですが、それぞれベストな機械学習パイプラインの設計が異なります。そこで、AWS のソリューションアーキテクトとディスカッションしながら構築の方針を決めていきました。さらに、エラーが発生して環境構築がうまく進まないときには、サポートチケットを発行したうえで AWS のソリューションアーキテクトの助けを借りました。

FLUX 社の事例では、Amazon SageMaker の各種サービスを有効活用して機械学習パイプラインを構築しています。

ルールベースのアルゴリズムの場合は、Amazon SageMaker Processing Job で直接的にモデル生成や可視化を行い、その結果を AWS Lambda を経由して API サーバーにデプロイしています。逆に scikit-learn や TensorFlow などのライブラリを扱う機械学習ベースのアルゴリズムの場合は、Amazon SageMaker Training Job で学習を行ったうえで Amazon SageMaker Processing Job で評価し、良好な結果が出たもののみを AWS Lambda を経由して API サーバーにデプロイする仕組みを構築しました。

セッション内では、Amazon SageMaker 系統のサービスについての紹介も行われました。まずは機械学習モデルのデータの準備と構築、トレーニング、デプロイ、モニタリングを可能にするウェブベースの統合開発環境(IDE)である Amazon SageMaker Studio。利便性の高さや UI の洗練度などについて Li 氏は太鼓判を押しました。

次に、Amazon SageMaker Processing Job と Amazon SageMaker Training Job です。Amazon SageMaker Processing Job はデータ処理ワークロードを実行できます。専用の実行環境を任意の Docker イメージで動かすことが可能です。また、Amazon SageMaker Training Job はモデルの学習を行えます。学習時の環境として Amazon EC2 スポットインスタンスを選ぶこともでき、コスト最適化に寄与してくれます。

最後は Amazon SageMaker Model Registry の紹介です。このサービスを用いることで、本番環境稼働用モデルのカタログ化やモデルのバージョン管理、メタデータの関連付け、モデルの承認ステータスの管理を行うことができます。

こうした AWS の各種サービスの導入や機械学習パイプラインの構築により、Data/ML 部は大きな成果を出しました。もともと、モデルの作成・更新のために 3 営業日かかっていたのを、新環境ではなんと 0.5 営業日に短縮でき、開発効率が大幅に向上したのです。

「AWS のサポート体制は非常に手厚く、先ほど申し上げたようなソリューションアーキテクトとのハンズオンや開発方針についてのディスカッションの機会をたくさん設けていただきました。今回の事例でご紹介した機械学習パイプラインの構築には 10 人日の工数がかかりましたが、AWS の方々のサポートがなければこれほど短期間では実現できなかったと思います」と結び、Li 氏はセッションを終了しました。


AWS Summit 2023 オンデマンド配信はこちら