お客様事例

How Hugging Face is helping companies embrace open models

AWS Editorial Team | 2025 年 2 月 21 日 | ソートリーダーシップ

概要

オープンソース基盤モデル (FM) は、直近 1 年半で猛スピードで進化し、クローズドモデルを急速に追い上げています。エンジニアは現在、100 万超の無料で使用可能なモデルをすぐに使用できます。その多くは、使用可能な極めて優れたクローズドモデルと同等のパフォーマンスを発揮します。オープンモデルの使用は、かつては個人の領域にとどまっていましたが、現在は企業 (Fortune 500 企業を含む) にまで拡大しています。

このモデルの公開ライブラリは、コストを管理し、透明性の高いデータセットを使用して、専門モデルにアクセスできる機能を提供するため、コミュニティから高く評価されています。しかし、誰でもオープンソースモデルを自由に使用できる一方で、本番への移行の難しさが可能性を阻んでいます。経験豊富な機械学習 (ML) エンジニアがこのプロセスを実行するには、Graphics Processing Unit (GPU)、バックエンド、およびデプロイに関する複数の複雑な決定を伴う、少なくとも 1 週間のハードワークが必要です。

誰もが AI を使用できるようにすることをミッションとして掲げる先駆的なオープンソースプラットフォームである Hugging Face は、これらの障壁を打ち破っています。Hugging Face の Head of Product である Jeff Boudier 氏は、次のように述べています。「当社の目標は、世界中のすべての企業が独自の AI を構築できるようにすることです」。最近 Hugging Face Generative AI Services (愛称は HUGS) を立ち上げた同社は、完全な本番オープンモデルをデプロイするという、時間がかかる難しい作業に取り組んでいます。

Hugging Face のイラスト

すぐに使えるオープンモデル

Hugging Face が創業当初に掲げた大きなビジョンは、Boudier 氏によれば、「誰もが機械学習モデルと楽しく会話できるようにする」ことでした。これは 2016 年当時は大胆な野望だったかもしれませんが、同社は現在、最先端のテクノロジーのデプロイを個人と企業の両方が利用できるようにすることで、そのビジョンを具現化しています。

これまで、企業はクローズドモデルを使用して概念実証 (POC) を構築してきましたが、これはそのような構築が第一の選択肢だったからではなく、最も迅速で簡単な方法だったからです。オープンモデルを使用して AI アプリケーションを開発する際には、エンジニアが設定からコンパイルまですべてを把握するため、そのような開発では通常、多くの試行錯誤が必要です。パフォーマンスとコンプライアンスの要件に対応するには、ライブラリ、バージョン、およびパラメータを調整する必要があります。

HUGS を利用すると、組織は、オープンモデルを使用して AI アプリケーションを開発する際の煩雑な作業を回避できます。プラグアンドプレイソリューションは、生成 AI の利点を活用したいお客様にとってゲームチェンジャーです。設定は不要であるため、必要なのはオープンモデルを取得して実行することだけです。モデルが GPU または AI アクセラレーター向けに自動的に最適化されるため、以前は数週間かかっていた作業が、今ではわずか数分で完了します。

予算を削減することなく、高いパフォーマンスを実現

AI の民主化に向けた Hugging Face のジャーニーを通じて、AWS とのコラボレーションにより、同社はアーリーステージのスタートアップから、毎月数百万人が使用する AI モデルを提供する業界の先駆者へと成長しました。これらのモデルが進歩を続け、企業がその恩恵をますます追求する中で、HUGS は、極めて高いパフォーマンスを発揮する最新のオープン大規模言語モデル (LLM) の、厳選され、手動でベンチマーキングされたコレクションへのアクセスを企業に提供しています。

Hugging Face と Amazon Web Services (AWS) の最新のコラボレーションにより、企業は、コスト、パフォーマンス、デプロイ速度の間でトレードオフする必要がなくなりました。このソリューションが AWS Inferentia2 AI チップで利用できるようになったため、デベロッパーは、モデルのパフォーマンスをさらに最適化してレイテンシーを低減し、スループットを増大させると同時に、推論コストを最大 40% 削減できます。さらに、同社は、これ以外の方法でも、あらゆる規模の企業が生成 AI アプリケーションをより利用しやすくしています。オープンソースの Optimum Neuron ライブラリで連携することで、企業はオーバーヘッドを最小限に抑えながら HUGS の恩恵を享受できます。

商業的影響の強化

仮想アシスタントの構築から魅力的なコンテンツの数秒での作成まで、Hugging Face のモデルは豊富なユースケースをカバーしています。これらのモデルは学術的なベンチマークに照らして優れたパフォーマンスを発揮しますが、Boudier 氏は、カスタマイズからさらに大きな価値を得ることができると述べています。「何が重要なのかはユースケースごとに異なります。ファインチューニングと強化学習により、オープンモデルを改善し、クローズドモデルよりもはるかに優れたものにすることができます」。

Amazon SageMaker で AWS Inferentia2 を利用すると、Hugging Face モデルをカスタマイズして、特定のタスクのモデル品質を高め、本番ワークロードを大規模に実現できます。また、このソリューションを利用することで、デベロッパーはより簡単に、プロンプトエンジニアリングや検索拡張生成 (RAG) などのさまざまな手法を用いてモデルを改善する際に、即時に好ましい影響をもたらすことができます。

Thomson Reuters などの大企業は、既に AWS でオープンモデルを安全かつ効果的にスケールしています。HUGS と AWS Inferentia2 により、これらの大企業は、最適化されたハードウェアを使用して、自信をもって迅速に生成 AI アプリケーションを構築し、より早く価値を享受できるようになりました。AWS Marketplace で使用可能であり、AWS インフラストラクチャとシームレスに統合するため、デベロッパーは、オープンモデルを簡単に見つけて、サブスクライブし、自社の条件に合わせてデプロイできます。

Hugging Face は、すべての人がオープンモデルを使用できるようにするために前進する中で、顧客のアプリケーションを最先端の状態に保つために、HUGS を介して使用できる LLM を拡張しています。オープンソースのオプションをさらに提供し、使用を簡素化することで、企業はオープンモデルとクローズドモデルを自由に選択できるようになりました。