Amazon Web Services ブログ

週刊生成AI with AWS – 2024/5/20週

みなさん、こんにちは。AWS ソリューションアーキテクトの小林です。

主にエンジニアの方向けのAWS公式ウェブマガジン、builders.flashはご存じでしょうか?クラウドに関するベストプラクティスの解説や開発インタビューを掲載するウェブマガジンで、最近は世の中の興味の高まりを受けて生成AIに関係するトピックが増えてきています。執筆者はAWS社員はもちろん、社外の方に寄稿頂いたものもあります。今月公開された記事では、

といった、生成AIを実用していくためのヒントになる記事があります。ウェブマガジンということもあり、AWSが普段公開しているお客様事例よりも少しカジュアルなトーンで、楽しく読んで頂けるようにしています。まだ見たことがないよ、という方はぜひ眺めてみてください(そして、気に入って頂けたらメールメンバーへの登録をお願いします!)。

それでは、5 月 20 日週の生成AI with AWS界隈のニュースをお届けしていきましょう。

さまざまなニュース

    • カラクリ株式会社様がAWS Trainiumで学習したMoEモデル「KARAKURI LM 8x7B Chat v0.1」の公開を発表
      カスタマーサポートDXを推進するカラクリ株式会社様が、AWSの機械学習トレーニングアクセラレーター AWS Trainium を利用してトレーニングしたモデルを公開しました。カラクリ株式会社様は、昨年AWSが発表したAWS LLM開発支援プログラムにご参加いたいた企業のひとつです。プレスリリースによれば、今回公開されたモデル「KARAKURI LM 8x7B Chat v0.1」は国産オープンモデルとしてベンチマークテストで最高点の評価を得ており、この開発に要したコストは約30万円、学習時間は12時間に抑えることができたとのことです。AWSは、カラクリ株式会社様のように独自のモデル開発にチャレンジするお客様と、公開モデルをビジネスに活用しようと考えるお客様の双方を支援していきたいと考えています。ご興味のある方は、ぜひご相談ください。
    • ブログ記事「Amazon Q in Connect向けナレッジベースの最適化」(日本語)を公開
      Amazon Connectは、AWSが提供するクラウドベースのコンタクトセンターのサービスです。Amazon Connectには、Amazon Q in Connectという生成AIによって音声・チャットの双方について、オペレーターの方を支援する機能が搭載されています。このブログ記事では、Amazon Q in Connectが推奨事項を生成する仕組みや、その機能を最大限活用するためのコンテンツ最適化手法についてご紹介しています。
    • ブログ記事「Create a multimodal assistant with advanced RAG and Amazon Bedrock」を公開
      現時点では英語の記事ですが、興味深い内容だったのでピックアップします。アプリケーションに組み込んだ生成AIからの出力を、自分達のデータに基づいた形にカスタマイズする手法のひとつとして、検索拡張生成(RAG)が広く知られています。しかしながら、単純なRAGアーキテクチャはテキストと画像など複数のデータが組み合わさった、マルチモーダルデータを扱いたい場合はうまく機能しないケースがあります。このブログ記事では、マルチモーダルデータに対応するためにmmRAG(マルチモーダルRAG)という手法を紹介しています。
    • ブログ記事「A generative AI use case using Amazon RDS for SQL Server as a vector data store」を公開
      こちらも英語ですが、「こういうパターンもあるのか」という気づきがありました。こちらも検索拡張生成RAGに関する記事です。先にも書いたとおりRAGは基盤モデルの出力をカスタマイズする手法のひとつです。そのためのナレッジベースとなるベクトルデータベースとしてAmazon RDS for SQL Serverを使うパターンが記事の中で紹介されています。ユーザからの質問をAmazon Titan Embeddingsを使ってベクトル化し、DBで検索、その結果をAnthropic Claude 2で処理して応答するというシンプルな設計です。ベクトルデータベースの有用性を理解する助けになりますので、ぜひごらんください。

サービスアップデート

    • Amazon Bedrockで基盤モデル “Mistral Small” が利用可能に
      Mistral AI社の基盤モデル、Mistral SmallがAmazon Bedrockを介してご利用いただけるようになりました。Mistral Smallは多くのテキストデータを低レイテンシーで処理することに最適化された効率的なモデルです。たくさんのテキストファイルに含まれた内容を一括処理するタイプのタスクに向いているとされており、例えば「大量に届いたメールに対して返信案を作成する」といったユースケースに適しています。
    • Amazon NeptuneがLlamaIndexをサポートしGraphRAGアプリケーションの構築が可能に
      大規模言語モデル(LLM)を組み込んだアプリケーションを構築するときに利用されるオープンソースフレームワークのひとつに、LlamaIndexがあります。今回、LlamaIndexを利用してAWSのフルマネージドなグラフデータベースであるAmazon Neptuneをナレッジベースとした「グラフによる検索拡張生成(Graph RAG)」アプリケーションを開発できるようになりました。グラフは情報の関連性を記述することに優れています。検索拡張生成でグラフデータベースを利用すると、「自分に関係のあるニュースを教えて」といった、関連性にフォーカスしたユーザからのリクエストに適切に応答することが可能です。

ソリューションアーキテクト 小林 正人 (X – @maccho_j)