Amazon Web Services ブログ
製造業での生成AI活用術:自社製品を理解した基盤モデルと検索を組み合わせた用途探索
製造業、特に化学、素材や製薬の事業では自社製品の新しい用途の発見が新規市場の開拓に欠かせません。富士フイルムがフィルムで培った抗酸化機能を化粧品に転用した事例、森下仁丹がバイオカプセルの技術をレアメタルの回収に転用した事例は自社製品の可能性を広げた好例といえます。しかし、可能性を感じる一方で新しい用途の発見に困難を感じているお客様が多いと思います。テクノポートのアンケートに基づくと、用途開発を行っている企業の 84.5% が自社だけで有望な用途を発見するのは限界と回答しています。多様な新製品の登場や脱炭素の市場動向など、製品と求められる性能は多様であり、膨大な情報から自社製品の適合可能性を発見し育てるのは容易ではありません。先ほど挙げた富士フイルムでも、化粧品への応用可能性を発見してから成功を収めるまで長い期間を要しています。
近年の生成 AI は新規用途の発見にどのように役立つでしょうか ? 生成 AI は高い文章処理能力を持つため、膨大な情報から有望な用途を検出するのに利用できると期待できます。実際、三井化学では生成 AI を用途の探索に活用していますし、日本ガイシでは基盤モデルを活用した新規用途探索の高精度化と高速化の実証実験を開始しています。三井化学では事業部門の 1 テーマにつき 500 万件以上の特許やニュース、ソーシャルメディアといった外部情報と、三井化学固有の辞書を入力に使用しています。日本ガイシでは、 Stockmark が開発した最新の特許や論文、ニュースなどの外部情報を学習したモデルと日本ガイシが保有する特許や論文などの社内外文書を使用しています。これらの事例から、生成 AI の活用においては外部の情報と内部の情報の 2 つが必要なことがわかります。富士フイルムであれば抗酸化作用、森下仁丹であれば被膜技術に関する社内の文書や特許、論文が「内部の情報」にあたるでしょう。これを外部の特許やニュース、ソーシャルメディアなどと突合させることで有用な新規用途を見つける流れになります。
生成 AI で「外部の情報」と「内部の情報」を突合し、新規用途を発見するにはどんな手法があるでしょう? 三井化学のように、外部と内部それぞれの情報をもとに生成 AI を含む機械学習モデルに判断させるか、日本ガイシのように「すでに専門知識を学習した」モデルに情報を与え判断させる 2 つのアプローチが考えられます。少し専門的な用語になりますが、前者の代表的な手法はモデルに対する外部知識の挿入 (Retrieval Augmented Generation: RAG) 、後者の代表的な手法はモデルの追加学習 (Fine Tuning / Continuous Pretraining) と呼ばれます。前者と後者は、移動するときに配車サービスを使用するか車を買うかに似ています。配車サービスでは車を持つ必要がないように、前者は特別なモデルを必要としない点がメリットです。一方で、必要な知識や情報すべてを生成 AI へ入力しないといけないため入力長が長くなり対応できるモデルが限られる、また料金が高額になるデメリットがあります。移動距離が長くなるほど高額かつ高級な車にしなければらならないイメージです。車を買ってしまえば自由にどこへでも行けるように、後者は初期費用が必要なもののモデルを構築してしまえば入力は短く済み自由にカスタマイズできます。それぞれにメリットとデメリットがありますが、今回は後者の手法を紹介します。というのも、 1 日にチェックするべき情報一つ一つに対し各製品の各特性の応用可能性を分析するなら、必要なリクエスト数は情報・製品・特性の掛け算になり膨れ上がります。この場合、単純にコストがかかるだけでなくモデルの利用制限に抵触する可能性があります。例えば、 Amazon Bedrock で Claude (Sonnet) を利用する場合、1 分間当たりリクエスト可能な数は 500 という制限があります。そのため、一時的にコストがかかっても内部の情報に精通したモデルを構築し、外部の情報を判断してもらうことはメリットがあると考えています。「内部の情報」は「外部の情報」に比べて変化が緩やかで特化型のモデルを作っても時代遅れになりにくい点もポイントです。
AWS で「内部の情報」を学習した生成 AI モデルを使い「外部の情報」から用途を見つけるにはどうしたらよいでしょうか? エンジニアの方向けに、アーキテクチャーの構成例を示します。
自社のオンプレミス環境から用途検索を行うアプリケーション (Amazon ECS) へのアクセスを行う想定です。「内部の情報」を学習したモデルは、 Hugging Face 上で公開されている Stockmark が開発したビジネスに関連するオープンな情報や特許などで学習した基盤モデル を AWS DataSync で取得した社内文書で追加学習して構築しています。 Stockmark のモデルはまだ未対応ですが、 Amazon SageMaker JumpStart に掲載済みのモデルであれば Amazon S3 にデータを配置し画面からボタンを押す、 API を呼ぶだけで学習を起動できます。 このような構成を取ることで、セキュアかつ高効率に用途の探索ができます。学習したモデルは、 SageMaker real-time endpoint でホスティングしています。 2024 年 5 月の段階で Amazon Bedrock の Custom model import 機能が Preview となり、本機能を利用すれば他のモデルと同様に API 形式でモデル呼び出すことも可能です。
「外部の情報」の検索には Amazon Kendra を利用しています。 Amazon Kendra はマネージドな検索サービスで、内部の情報同様 AWS DataSync で取得した外部の情報の検索に使用しています。検索結果をホスティングした追加学習済みのモデルに送り、分析結果をアプリケーションに返却します。
先にご紹介した日本ガイシの実証実験では Stockmark と本構成に近い取り組みをしており、 Stockmark 独自モデルを追加学習し日本ガイシ固有のモデルを検証することがアナウンスされています。海外では Bloomberg が金融文書で学習させたモデルを発表している通り、自社のドメイン、さらには自社固有の製品情報を学習させることで自社ビジネスのパートナーとなるようなモデルを構築する試みが様々な会社で進んでいます。基盤モデルの開発に取り組むリコーでは、企業独自の AI モデルを簡単に作成できるサービスの提供も始めています。自社ビジネスパートナーとなるようなモデルに対しては、商談前や会議中といったリアルタイムな応答が求められる場で使われることもあるでしょう。自社固有のモデルを AWS 環境内でホスティングすることで、応答速度や利用制限といった外部の制約に縛られることなく業務を加速でき、秘中の秘である自社の製品情報を学習したモデルをセキュアに利用することができます。
本記事では、生成 AI により新規用途の発見を加速させる手法をご紹介しました。外部と内部の情報を生成 AI に入力し分析させる方法と、自社ドメインの知識を学習したモデルを利用する方法の 2 つを紹介し、後者の可能性と AWS で実装するためのアーキテクチャー例をご紹介しました。自社独自のモデルの構築というと非常に高度なスキルと金額、何より時間がかかると思われるかもしれません。しかし、 Stockmark がオープンソースでモデルを公開しているように、高性能かつ日本語に特化したモデルの入手は容易になっており、ゼロから学習する必要はなくなりつつあります。 AWS では Amazon SageMaker JumpStart に掲載済みのオープンソースのモデルであれば容易に追加学習できますし、掲載されていないモデルも基盤モデルの学習・推論に特化した AWS Trainium / AWS Inferentia という自社設計の機械学習アクセラレーターを用いることでコスト効率よく、短期間で学習を完了できます。 2023 年に LLM 開発支援プログラムに参加されたお客様には 3 日で学習を完了された例もあります。 AWS Trainium / AWS Inferentia の詳細は 「AWS Trainium を活用した日本語大規模言語モデルの分散学習と AWS Inferentia2 上での推論環境構築」をぜひご参照ください。もちろん、前者のアプローチを試したい場合であっても Amazon Bedrock を通じて Claude など日本語でも ChatGPT / GPT-4 同等の性能を持つモデルを利用しすぐにアプリケーションを実装することができます。どんなアプローチをしたい場合であっても最適なサービスを提供できる品ぞろえが AWS をご活用いただくメリットです。