48%
コンピューティングコストの削減
150 万人の月間アクティブユーザー
160 か国以上
3 か月半未満
AWS 上のデプロイに要する時間
合理化
運用管理
最適化
パフォーマンス
概要
160 か国以上で 1 億 4,000 万人以上のユーザーを抱える Codeway は、生成人工知能の力を通じてモバイルアプリケーションとゲームの世界に大きな影響を与えてきました。ユーザーベースが拡大するにつれ、Codeway は、この強力なテクノロジーを支えるワークロードのスケーラビリティ、弾力性、コスト効率の向上を目指しました。
Amazon Web Services (AWS) から推薦を受けた後、Codeway は自社の画像生成アプリ Wonder を強化するため、機械学習やグラフィックを多用するアプリケーション向けの高性能 GPU ベースのインスタンスである NVIDIA A10G Tensor Core GPU を搭載した Amazon Elastic Compute Cloud (Amazon EC2) G5 インスタンスを採用することを選択しました。Wonder のインフラストラクチャを AWS 上で最適化することで、Codeway は最適なパフォーマンスを維持し、以前のコンピューティング戦略と比較してコストを削減し、何百万ものコンテンツクリエーターがアイデアを実現できるように効果的にスケーリングしました。
機会 | Codeway のコストを削減しつつ生成 AI のコンピューティングをスケーリングする
トルコのイスタンブールに拠点を置く Codeway は、生成 AI を始めとする最先端テクノロジーを活用したモバイルアプリケーションとゲームを開発しています。その Wonder アプリケーションは単語をデジタル画像に変換します。ユーザーが単語や文章を入力すると、Wonder は AWS 上の PyTorch をベースにした画像生成用の安定した拡散モデルをデプロイすることで、それらの入力をアートワークに変換します。サブスクリプションに応じて、ユーザーは画像の高品質バージョンまたは低品質バージョンをダウンロードできます。
Wonder は 2,830 万人以上のユーザーにダウンロードされているため、Codeway はコンピューティングと GPU 機能を最大限に活用するよう努めています。Wonder のインフラストラクチャは、複数の地域のさまざまなクラウドプロバイダーに分散されています。人工知能 (AI) 推論ワークロードでは、Codeway はこれらのプロバイダーのいずれかでホストされている NVIDIA A100 Tensor コア GPU を使用していました。しかし、パフォーマンスに影響する GPU 容量の問題が発生しました。
「これらのワークロードには、非常に集約的に GPU を使用するハードウェアが必要です。また、毎月数百万人のユーザーが追加されているため、GPU の需要は増加の一途をたどっています」と Codeway の Lead DevOps Engineer である Ugur Arpaci 氏は言います。「数百台の GPU の管理から数千台の GPU の管理に移行するにあたり、コストとパフォーマンスを最適化し、スケーラビリティのための優れた戦略を見つけたいと考えていました」。
Amazon EC2 には、600 を超えるインスタンスと、最新のプロセッサ、ストレージ、ネットワーク、オペレーティングシステム、購入モデルのオプションなど、幅広く奥行きのあるコンピューティングポートフォリオが用意されており、顧客のワークロードのニーズに最適に対応します。Codeway は自社のコンピューティングを最適化する方法を模索していましたが、理想的なソリューションを見つけました。それは、NVIDIA A10G Tensor コア GPU を搭載した Amazon EC2 G5 インスタンスです。Codeway は他のクラウドプロバイダーと同様の GPU を選択していましたが、それは AWS と同じ可用性とスケーラビリティを提供してはいませんでした。
「AWS チームは、NVIDIA A10G Tensor コア GPU を搭載した Amazon EC2 G5 インスタンスを採用することで、コストパフォーマンスの目標を達成できると提案してくれました」と Arpaci 氏は言います。「これをテストし始めたところ、良い結果が得られました」。
AWS では、ワークロードをセグメント化してユーザーのパフォーマンスを向上させることができます”
Ugur Arpaci 氏
Codeway、Lead DevOps Engineer
ソリューション | Wonder 向けの PyTorch ベースの安定拡散モデルを 3.5 か月以内に AWS で実行する
Amazon EC2 G5 インスタンスの価格パフォーマンスを分析した後、Codeway は AWS チームと緊密に連携してオンボーディングプロセスを完了しました。「私たちは常に AWS の専門家と連絡を取り合っていました」と Arpaci 氏は言います。「私たちは彼らの指導に従い、テストを行い、私たち側でコストを計算しました。特定のモデルでは、Amazon EC2 G5 インスタンスにアプリケーションをデプロイすることで最大のメリットが得られることに気付きました。その後、結果を共有し、非常にポジティブなフィードバックループを確立しました」。
オンボーディングプロセスは迅速かつシームレスで、3.5 か月以内に Codeway は AWS 上で Wonder のプロダクションワークロードを実行するようになりました。現在では、A10G GPU を搭載した Amazon EC2 G5 インスタンスを使用して、無料バージョンの Wonder のほぼすべての AI 推論ワークロードをデプロイしています。有料サブスクライバー向けにフルハイビジョン画像を生成するために、Codeway はより強力な A100 GPU を使用しています。これにより、より短時間で高品質のコンテンツが生成されます。A10G と A100 を使用することで、同社は出力時間に関するすべてのサービスレベル契約を遵守できます。
「A10G は A100 ほど強力ではないことはわかっていましたが、ワークロードによってはそれほど GPU パフォーマンスを必要としないものもあります」と Arpaci 氏は言います。「今では、これらのワークロードの多くを、より強力な GPU からオフロードできるようになりました。これらの GPU は、高品質の画像生成などのプレミアムユーザー機能でのみ機能しています」。
コスト効率とパフォーマンスをさらに向上させるため、Codeway は Amazon Elastic Kubernetes Service (Amazon EKS) のクラスターを採用しました。これは、AWS クラウドとオンプレミスのデータセンターで Kubernetes を実行するマネージドサービスであり、Amazon EC2 G5 インスタンスを必要に応じて動的にスピンアップおよびスピンダウンできるようにしています。カスタムの自動スケーリングソリューションが各 Amazon EKS クラスターにデプロイされており、必要に応じて追加のインスタンスをインテリジェントにリクエストします。
Codeway はインスタンスを管理するために、オープンソースのノードプロビジョニングソリューションである Karpenter を利用しています。このサービスは、Codeway のニーズに基づいて適切なインスタンスタイプを効果的に判断して使用します。「Karpenter は実際に必要な数のインスタンスを選択してデプロイし、その上に必要なワークロードをデプロイします」と Arpaci 氏は言います。「プロセス全体が自動化されているため、運用の観点から多くの要素が簡素化されます」。
アーキテクチャ図
成果 | 計算コストを 48% 削減して生成 AI を効果的にスケーリング
Amazon EC2 G5 インスタンスで採用されている A10G GPU の採用は、Codeway がよりコスト効率が良く、堅牢でスケーラブルなアーキテクチャへと向かううえで大きな役割を果たしてきました。同社は、世界中のユーザーの需要に応えて、使用量の急増や減少に合わせて効果的に規模を拡大できます。現在、何百万人もの Wonder ユーザーが、アプリケーションやゲームで強化された体験を楽しんでいます。
「NVIDIA A10G Tensor コア GPU を搭載した Amazon EC2 G5 インスタンスを使用すると、AI 推論ワークロードの大部分を処理できます」と Arpaci 氏は言います。「AWS で A10G GPU アクセラレータを使用することで、ワークロードをセグメント化してユーザーのパフォーマンスを向上させることができます」。
AWS では、Codeway は最適なコストで高いパフォーマンスと可用性を維持しています。Amazon EC2 G5 インスタンスのサイズを適正化し、フォールトトレラントなワークロードをオンデマンド価格と比較して最大 90% 割引で実行できる Amazon EC2 スポットインスタンスを利用することで、同社はすべてのワークロードを A100 GPU で実行する場合と比較して、コンピューティングコストを 48% 削減しました。Wonder の無料版は、ユーザーを有料サブスクライバーに変えることを目的としています。無料サービスのコンピューティングコストを削減することで、Codeway は同じ価格でより多くのサブスクライバーを獲得できます。
今後も、Codeway は AWS のサービスを利用して、生成 AI の最前線に立ち続ける予定です。今後、AWS との連携を深め、インフラストラクチャの他のコンポーネントを強化する新しいサービスを採用する予定です。例えば、Codeway は AI トレーニングのワークロードを標準化するために、バッチ処理、機械学習モデルトレーニング、大規模分析を容易にするサービスである AWS Batch など、いくつかの AWS サービスを評価しています。
AWS では、Codeway は生成 AI の製品化の成功に向けて大きな進歩を遂げました。この変革の道のりのおかげで、適応性と回復力に優れた AI フレームワークは、増え続けるユーザーベースをサポートする準備が整いました。
Codeway について
トルコのイスタンブールに本社を置く Codeway は、生成人工知能やその他の最先端テクノロジーを搭載したモバイルアプリケーションをリリースしています。2020 年以降、160 か国以上で 1 億 4000 万人以上のユーザーがアプリケーションをダウンロードしています。
利用している AWS のサービス
Amazon EC2
Amazon Elastic Compute Cloud (Amazon EC2) は、極めて幅広く、詳細な機能を提供するコンピューティングプラットフォームを提供します。また、ワークロードのニーズに最適に対応できるように、700 を超えるインスタンスを提供するほか、最新のプロセッサ、ストレージ、ネットワーク、オペレーティングシステム、購入モデルを選択できます。
Amazon EC2 G5 インスタンス
Amazon EC2 G5 インスタンスは、最新世代の NVIDIA GPU ベースインスタンスで、グラフィック集約型のユースケースや機械学習のユースケースに幅広く使用することができます。
Amazon EKS
Amazon Elastic Kubernetes Service (Amazon EKS) は、AWS クラウドおよびオンプレミスデータセンターで Kubernetes を実行するためのマネージド Kubernetes サービスです。
AWS Batch
AWS Batch を利用することで、デベロッパー、科学者、エンジニアは、コンピューティングリソースを最適化しながら、何十万ものバッチおよび ML コンピューティングジョブを効率的に実行できるため、結果の分析や問題解決に集中することが可能になります。
その他の生成系 AI のお客様事例
今すぐ始める
あらゆる業界のさまざまな規模の組織が AWS を活用してビジネスを変革し、日々ミッションを遂行しています。当社のエキスパートにお問い合わせいただき、今すぐ AWS ジャーニーを開始しましょう。