導入事例/ソフトウェアとインターネット

2022 年
Print

Finch Computing が言語翻訳に AWS Inferentia を利用することで、推論コストを 80% 削減

80% の削減

コンピューティングコスト

3 つの追加言語

コスト削減によってサポート

市場投入までの時間を短縮

新製品で実現

最適化

顧客のスループットと応答時間

さらなるお客様

サービスの利用を通じて魅了

概要

Finch Computing は、顧客が膨大な量のテキストデータからインサイトを得ることを可能にする自然言語処理 (NLP) テクノロジーを開発しており、追加言語のサポートに対する顧客の要望を満たすことを検討していました。Finch は、GPU に依拠する、厳しいコンピューティング要件を持つ深層学習アルゴリズムを使用して独自のニューラル翻訳モデルを構築しました。同社は、グローバルなデータフィードをサポートし、莫大な費用をかけずに新しい言語モデルのイテレーションを迅速に実行できるようスケールする、スケーラビリティの高いソリューションを求めていました。

Finch は創業以来、Amazon Web Services (AWS) のソリューションを利用してきました。同社は、深層学習のワークロードを高速化するために、AWS が専用に構築した高性能な機械学習推論アクセラレーターである AWS Inferentia の検討を開始しました。Finch は、AWS Inferentia の使用を中心としたコンピューティングインフラストラクチャを作成することで、顧客のためにスループットと応答時間を維持しながら、GPU の使用と比較してコストを 80% 超削減しました。強力なコンピューティングインフラストラクチャを導入した Finch は、市場投入までの時間を短縮し、さらに 3 つの言語をサポートするために NLP を拡張し、新しい顧客を引き付けました。

製品ダッシュボード

機会 | ML モデルのスケーラビリティとコストの最適化を求めて

「find」(見つける) と「search」(検索する) という単語の組み合わせである Finch は、バージニア州レストンとオハイオ州デイトンにオフィスを構え、メディア企業やデータアグリゲーター、米国の情報機関や政府組織、金融サービス企業にサービスを提供しています。同社の製品は、トーンやインテントの解読など、人間の言語のニュアンスを理解するようにモデルをトレーニングする人工知能のサブセットである NLP を中心に構成されています。同社の製品である Finch for Text は、情報アセットに関するほぼリアルタイムのインサイトを顧客に提供できるようにするために、高性能のアクセラレーションコンピューティングを利用する高密度の並列機械学習 (ML) 計算を使用しています。例えば、そのエンティティの曖昧さ回避機能により、顧客は複数の意味や綴りを持つ単語の正しい意味を解釈できます。

Finch はオランダ語をサポートするように機能を拡張しました。このことを通じて、フランス語、ドイツ語、スペイン語、その他の言語にも対応できるようにさらにスケールする必要があるという考えに至りました。この決定は、Finch のクライアントがそれらの言語で多くのコンテンツを有していたためだけでなく、追加言語をサポートできるモデルが新しい顧客を引きつける可能性があるという理由からも価値のあるものでした。Finch は、スループットや応答時間、クライアントにとっての重要な要素、デプロイコストの増加に悪影響を及ぼすことなく、大量の追加データを処理する方法を見つける必要がありました。

AWS が主催するグローバルなクラウドコンピューティングコミュニティ向けの年次カンファレンスである AWS re:Invent 2021 において、Finch の担当者は、ほぼあらゆるワークロード向けに安全でサイズ変更可能なコンピューティングキャパシティを提供する Amazon Elastic Compute Cloud (Amazon EC2) の AWS Inferentia ベースのインスタンスについて知りました。AWS は、戦略、テクノロジー、ビジネストランスフォーメーションに重点的に取り組んでいるコンサルティング企業であり、AWS パートナーでもある Slalom に Finch を紹介しました。AWS re:Invent の後の 2 か月間、Slalom と Finch のチームメンバーは費用対効果の高いソリューションの構築に取り組みました。「AWS チームからガイダンスを得ることに加えて、当社は Slalom ともつながることができました。このことは、ワークロードを最適化し、このプロジェクトを加速することに役立ちました」と Finch の創業者兼最高技術責任者である Scott Lightner 氏は述べています。

kr_quotemark

GPU のコストを考えると、製品の収益性を維持しながらお客様に追加言語を提供することはできなかったでしょう。Amazon EC2 Inf1 インスタンスは、当社のためにその方程式を変えてくれました”

Scott Lightner 氏
Finch Computing、CTO 兼創業者

ソリューション | AWS Inferentia を使用したソリューションの構築

Finch と Slalom は連携して、AWS Inferentia ベースの Amazon EC2 Inf1 インスタンスの使用を最適化するソリューションを構築しました。これは、クラウドにおいて低コストで高性能の ML 推論を提供します。「GPU のコストを考えると、製品の収益性を維持しながらお客様に追加言語を提供することはできなかったでしょう」と Lightner 氏は述べています。「Amazon EC2 Inf1 インスタンスは、当社のためにその方程式を変えてくれました」。

同社独自の深層学習翻訳モデルは、PyTorch on AWS で実行されていました。これは、ML モデルの開発と本番環境へのデプロイを簡単にするオープンソースの深層学習フレームワークです。Finch は Docker を使用して PyTorch モデルをコンテナ化し、デプロイしました。Finch は、コンピューティングを多用するこれらのモデルを、GPU ベースのインスタンスから、AWS Inferentia を搭載した Amazon EC2 Inf1 インスタンスに移行しました。Amazon EC2 Inf1 インスタンスは、コンピュータビジョンから NLP に至るまで、さまざまなモデルを高速化するために構築されました。チームは、モデルサイズをさまざまに組み合わせ、GPU を使用していたときと同じスループットを維持しながら、コストを大幅に削減できるソリューションを構築できました。「AWS Inferentia を利用することで、お客様が利用しやすいプライスポイントで、必要なスループットとパフォーマンスを得ることができます」と Lightner 氏は述べています。

この戦略には、コンテナ化されたアプリケーションを組織が簡単にデプロイ、管理、スケールできるようにするフルマネージド型のコンテナオーケストレーションサービスである Amazon Elastic Container Service (Amazon ECS) への Docker コンテナのデプロイが含まれていました。このソリューションには、深層学習アプリケーションを迅速に構築するための事前設定済みの環境である AWS Deep Learning AMI (DLAMI) が組み込まれています。Finch は、AWS Inferentia AMI を DevOps パイプラインに組み込み、Amazon ECS を使用してカスタマイズされたコンテナを実行することを目的として、AWS Inferentia を使用するように Infrastructure as Code テンプレートを更新しました。「DevOps パイプラインを Amazon EC2 Inf1 インスタンスと Amazon ECS で実行するようにしたことで、より多くの深層学習モデルを迅速にデプロイできるようになりました」と Finch のチーフアーキテクトである Franz Weckesser 氏は述べています。実際、Finch はウクライナ語をサポートするモデルをわずか 2 日で構築しました。数か月以内に Finch は、ドイツ語、フランス語、スペイン語での NLP をサポートする 3 つの ML モデルを追加でデプロイするとともに、既存のオランダ語モデルのパフォーマンスを改善しました。

Amazon EC2 Inf1 インスタンスを利用することで、同社はこれらの新製品の開発速度を向上させながら、推論コストを 80% 超削減できました。新しいモデルの追加により、追加言語からインサイトを得ることに関心を抱く顧客を引き付けることができ、既存の顧客からは肯定的なフィードバックが寄せられました。「インフラストラクチャに大規模な変更を加えるには、常に課題が伴います」と Lightner 氏は述べています。「しかし、当社のチームが Slalom と AWS のサポートを受けて粘り強く取り組んだことで、すぐにそれらを克服することができました。最終的な結果は、労力をかけた価値があるものとなりました」。

結果 | AWS Inferentia にさらにアプリケーションを移行する

Finch は、今後もさらに多くのモデルを AWS Inferentia に移行していきたいと考えています。これらのモデルには、特定のコンテンツを肯定的、否定的、または中立的として識別する Sentiment Assignment (感情割り当て) と、テキスト内で言及されているエンティティ間の関係を検出する、コンピューティングを多用するアプリケーションである Relationship Extraction (関係抽出) と呼ばれる新機能が含まれています。また、Finch は、新しい言語を追加し続けており、次はアラビア語、中国語、ロシア語を計画しています。「AWS Inferentia で業務を遂行した経験はすばらしいものとなりました」と Lightner 氏は述べています。「当社と協力して、ビジネスの成長に合わせてスケールできるようサポートしてくれるクラウドプロバイダーがいるのは本当に喜ばしいことです」。

Finch Computing について

Finch Computing は、機械学習を使用して顧客がテキストからほぼリアルタイムでインサイトを得られるようにサポートする、自然言語処理サービスを提供する企業です。クライアントには、メディア企業やデータアグリゲーター、米国政府や情報機関、金融サービスなどが含まれます。

使用されている AWS のサービス

Amazon Inferentia

AWS Inferentia は、深層学習ワークロードを加速するために設計された Amazon の最初のカスタムシリコンであり、このビジョンを実現するための長期的な戦略の一部です。

詳細 »

Amazon Elastic Container Service (Amazon ECS)

Amazon ECS は、フルマネージドコンテナオーケストレーションサービスであり、コンテナ化されたアプリケーションを簡単にデプロイ、管理、およびスケールできるようにします。

詳細 »

Amazon Elastic Compute Cloud (Amazon EC2)

Amazon EC2 は、500 を超えるインスタンスを備え、最新のプロセッサ、ストレージ、ネットワーク、オペレーティングシステム、購入モデルから選択でき、ワークロードのニーズに最適に対応できるようにする、極めて幅広く奥深いコンピューティングプラットフォームを提供します。

詳細 »

AWS Deep Learning AMI (DLAMI)

AWS Deep Learning AMI では、機械学習の実践者と研究者がクラウドであらゆる規模の深層学習を加速させるためのインフラストラクチャとツールを提供しています。

詳細 »

今すぐ始める

あらゆる業界のさまざまな規模の組織が AWS を活用してビジネスを変革し、日々ミッションを遂行しています。当社のエキスパートにお問い合わせいただき、今すぐ AWS ジャーニーを開始しましょう。