Amazon Web Services ブログ
週刊生成AI with AWS – 2024/7/8週
みなさん、こんにちは。AWS ソリューションアーキテクトの小林です。
AWS Summit New Yorkが開催され、生成AIに関係するサービスアップデートだけでも19件の新機能・新サービスが発表されました。ひととおりピックアップしたのですが、「さすがに読みづらいかな……」と思い、今回は3つのカテゴリに整理してお届けします。AWSではみなさんが実現したいテーマや価値を、現実のものにするための方法論として様々なサービス群を提供していますが、それらを3種類に分類して説明しています。今回の週刊生成AI with AWSでは、それに準拠してみようと思います。(ちなみに、カテゴリから外れるけれども生成AIで活用できるサービスもありますので、それは「その他」にしたいと思います)
それでは、7 月 8 日週の生成AI with AWS界隈のニュースを見ていきましょう。
さまざまなニュース
-
- AWS生成AI国内事例ブログ: ルームクリップ株式会社様、軽量基盤モデルによる画像内の家具の検出を実現
ルームクリップ株式会社様は、住生活の領域に特化したソーシャルプラットフォーム「RoomClip」を運営していらっしゃいます。家具の検出システムには2つの要件があり、細かな運用に関するドメイン知識を反映すること、追加のニーズに柔軟に対応できることが求められていました。その解決策として軽量な基盤モデルを利用して、自然言語で指定した家具を検出させるアプローチを採用することとし、最終的に低コストかつ充分な処理能力を実現することに成功しました。導入前と比較して商品ページの閲覧数が2倍に増加しているというビジネス効果もでているそうです。注目すべきはAWS Lambdaを処理基盤として利用している点です。Lambdaで実行可能な軽量なモデルによる課題解決を行うことで、コストと運用負荷を大きく削減できたとのことで、目的に応じて適切なモデルを上手に使う好例といえます。
- AWS生成AI国内事例ブログ: ルームクリップ株式会社様、軽量基盤モデルによる画像内の家具の検出を実現
サービスアップデート – 生成AIを組み込んだ構築済みアプリケーション
-
- AWS App Studioのプレビューを開始
生成AIを活用し、自然言語によってエンタープライズグレードのアプリケーションを作成できるサービス、AWS App Studioのプレビューを開始しました。AWS App Studioでは、複数のページから構成されるユーザインタフェースやデータモデル、ビジネスロジックを含む複雑なアプリケーションを開発できます。Amazon AuroraやAmazon DynamoDB, Amazon S3などのAWSサービスや、Salesforceなどの外部サービスをデータソースとして利用したり、APIコネクタを介してサードパーティサービスと連携することも可能です。ユーザはソースコードやそれを実行するインフラストラクチャを意識する必要はなく、作って使うだけ、というのもポイントです。
- Amazon Q Businessでユーザ毎にパーソナライズされた応答が可能に
Amazon Q Buisnessがユーザプロファイルに基づいた応答を返せるようになりました。AWS IAM Identity Center経由で連携するIDプロバイダーに蓄積されたユーザの物理的な所在地、所属部門、役割などといった情報を利用することによって、生成AIの応答をカスタマイズすることで、よりユーザが求める答えと関連性の高い回答ができるようになります。 - Amazon Q BusinessでPDFファイルのテキストや画像の情報に基づく応答が可能に
企業や団体が保有するデータには、たくさんのPDF形式のファイルが含まれることがあります。今回Amazon Q Businessが、PDFファイルに含まれたテキストや、画像の情報に基づいた回答を返すことができるようになりました。これまではOCRでテキストを抽出してからAmazon Qに取り込む必要がありましたが、今後はPDFファイルをそのまま取り込めば自動的に情報検索が可能になります。 - Amazon Q Appsが一般利用開始に
Amazon Q Appsは、Amazon Q Businessの一部として提供される機能で、Amazon Q Buisnessとの会話を通じて得られた結果や、実現したい内容を自然言語で説明することによって、アプリを簡単に構築する機能です。4月にプレビューを開始したAmazon Q Appsですが、今回一般利用開始になりました。Amazon Q Businessからユーザ権限やアクセス制御等を継承しますので、安全なデータ共有やデータ活用が可能です。 - Amazon Q Developerでコード推奨機能のカスタマイズと、IDE内でのチャット機能のプレビューを開始
Amazon Q Developerでは開発者の方がプログラムコードを記述する際に推奨事項を提示します。今回、新たに推奨事項の内容を組織のリポジトリに接続することで組織内のAPIやライブラリ、クラス、メソッド等を意識した推奨事項を出力できるようになりました。また、統合開発環境(IDE)の中でAmazon Qに質問できるチャット機能が提供され、組織のコードに基づいて特定の関数やライブラリが利用されている場所や呼び出され方、その機能等について質問し回答を得ることができるようになりました。組織として開発を行っている場合、一般的な推奨事項だけではなく組織ごとのルールや共通機能などを考慮する必要があり、それを考慮した推奨事項を提示できるようになったというのがポイントです。 - Amazon Q DeveloperがAmazon SageMaker Studioで利用可能に
機械学習に関する開発のための統合開発環境がAmazon SageMaker Studioです。今回、SageMaker StudioからAmazon Q Developerをご利用頂けるようになりました。SageMakerの機能への質問はもちろん、コード生成、トラブルシューティングなどを支援してくれるので、作業の効率化が期待できます。 - Amazon Q DeveloperのAWSリソースに関する対話機能が一般利用開始に
Amazon Q Developerで、AWSアカウント内で保有するリソースに関するチャットによる問い合わせ機能が一般利用開始になりました。例えば「S3バケットを一覧表示」「インスタンスidがxxxについて関連するリソースはあるか?」といった質問を投げると、実情に応じて回答を返してくれます。CLIやAPIでも同様の作業は実現できますが、自然言語でやりたい事を伝えるだけでOKになるのは便利ですね。(Amazon Q Developerは日本語のやりとりが可能な場合もありますが、正式にサポートされている言語は英語になります。その点はご注意ください) - Amazon Q Developerのチャット機能でIDEに関するコンテキスト認識が可能に
Amazon Q Developerのチャット機能において、ユーザがIDE(統合開発環境)で開いているプロジェクトのコードに関する質問に対応できるようになりました。これまでは今現在開いているファイルに関する質問にのみ対応していましたが、新たに全てのコードファイルやプロジェクト構造などをふまえて、包括的な情報を応答します。 - PartyRockのプレイリストページ機能を発表
PartyRockは生成AIを組み込んだアプリケーションを誰でも簡単に作成し、共有できるサービスです。今回新たにPartyRockで利用できるプレイリストページ機能が発表されました。PartyRockで作ったアプリをキュレーションして、お気に入りのアプリを集めたショウケースとしてご利用頂けます。
- AWS App Studioのプレビューを開始
サービスアップデート – 生成AIを組み込んだアプリ開発のためのツール
-
- Amazon BedrockにおけるAnthropic Claude 3 Haikuのファインチューニングがプレビュー可能に
Amazon Bedrockは、基盤モデルからの応答を用途に応じてカスタマイズする様々な機能を提供しています。その手法のひとつに少数の教師ありデータで追加学習を行うファインチューニングが利用できます。今回、新たにAnthropic Claude 3 Haikuについて、Amazon Bedrockを解してファインチューニングを実行できるようになりました。人気のあるClaude 3についても、応答カスタマイズの自由度が広がります。 - Amazon Bedrockのプロンプトマネジメント機能とプロンプトフロー機能のプレビューを開始
生成AIを組み込んだアプリケーションでは、プロンプトの作成や管理が重要なテーマになります。今回発表されたプロンプトマネジメント機能では、プロンプトの作成・評価・バージョン管理・共有を可能にする仕組みで、登録されたプロンプトはAPIで呼び出すことが可能です。また、プロンプトフロー機能ではGUIによってプロンプトの呼び出し、Knowledge Baseへの問い合わせ、Lambda関数の呼び出しなどのワークフローをデザインすることが可能です。詳細についてはブログ記事をご覧ください。 - Knowledge Bases for Amazon BedrockでWebデータソースと外部データソースへの接続機能のプレビューを開始
Knowledge Bases for Amazon BedrockがWebデータソースに対応し、Webページの情報を蓄積し生成AIの応答に利用できるようになりました。また、外部のデータソースとしてAtlassian Confluence, Microsoft SharePoint, Salesforceに接続するためのデータコネクタが利用できるようになり、これらに蓄えられた情報を検索拡張生成(RAG)に利用することが容易になりました。 - Knowledge Bases for Amazon Bedrockが高度な検索拡張生成(RAG)機能に対応
Knowledge Bases for Amazon Bedrockで検索拡張生成(RAG)を高度化する2つの機能が利用できるようになりました。ひとつめの機能は、カスタムチャンキングです。RAGでは長いドキュメントをチャンクと呼ばれる小さいブロックに分割し処理しますが、Lambda関数で記述されたカスタムのチャンク化アルゴリズムを適用できるようになりました。LangChainやLlamaIndexなどのコンポーネントを利用することも可能です。ふたつめの機能はスマートパースです。Amazon Bedrockで稼働する基盤モデルを活用し、取り込み対象のドキュメントに含まれる表形式の情報をはじめとする複雑なデータを解析・抽出することが可能です。いずれの機能も、精度向上につながりうるもので、RAGを実装したアプリケーションがよりユーザの期待に添った応答を返すようにするために活用いただけます。 - Agents for Amazon Bedrockでユーザとの対話におけるメモリ保持機能のプレビューを開始
Agents for Amazon Bedrockが、複数回にわたるユーザとの対話を必要とするユースケースについて、過去のやりとりを記憶しそれに基づいた応答を返すことができるようになりました。例えば、航空券の予約を処理するアプリケーションにおいて、過去のユーザとのやりとりからユーザの好みを記憶し、次回の対応時にその好みに沿った提案を行うことができるようになります。ユーザ毎にパーソナライズされた対応が可能になることで、ユーザ体験のさらなる向上が期待できます。 - Agents for Amazon Bedrockでコード解釈(code interpretation)機能のプレビューを開始
Agents for Amazon Bedrockでコード解釈という新機能が発表されました。この機能を利用すると、生成AIアプリケーションが安全なサンドボックス内でコードを動的に生成して、実行できます。これによって、データ分析や可視化、最適解の探索など複雑なタスクにも対応できるようになります。例えば基盤モデル自体が対応していないフォーマットやデータ型のファイルを扱ったり、ユーザにとってわかりやすいグラフを生成させる、といった高度な処理を実現可能です。 - Guardrails for Amazon Bedrockによる保護機能の強化を発表
Guardrails for Amazon Bedrockで2つの新機能が発表されました。ひとつめはContextual grounding checksで、対話型アプリケーションや検索拡張生成(RAG)で生成された応答をデータソースと照らし合わせることで正しいかどうかを検証し、ハルシネーション(幻覚)のリスクを軽減することに利用できるものです。ふたつめはApplyGuardrail APIです。GuardrailsはAmazon Bedrockで稼働するモデルへの問い合わせと応答をチェックするものでしたが、ApplyGuardrail APIを利用するとBedrock以外で稼働するモデルを利用しているアプリケーションでも、APIを呼び出すことでGuardrailsによるチェックを適用できます。これによって、事実上すべての生成AIアプリケーションにGuardrailsによる追加の安全機構を導入できるようになります。詳細についてはブログ記事をご覧ください。
- Amazon BedrockにおけるAnthropic Claude 3 Haikuのファインチューニングがプレビュー可能に
サービスアップデート – 生成AIを支える基盤モデルのトレーニングと推論のためのインフラストラクチャー
-
- Amazon SageMakerで生成AIの推論ワークロードの最適化が可能に
Amazon SageMakerでLlama 3, Mistral, Mixtralなどの生成AIモデルの推論ワークロードを最適化することで、同じリソースで最大2倍のスループットを発揮できるようになります。これはつまり、最大50%のコストを削減できると言うことを意味します。詳細についてはブログ記事をご覧ください。 - Flash AttentionをサポートしたAWS Neuron 2.19をリリース
AWSがAI/MLワークロードに向けて開発した専用設計のアクセラレータがAWS InferentiaとTrainiumです。AWS Neuronはこれらを利用するためのSDKで、PyTorchなど一般的なMLフレームワークと統合されています。今回、AWS Neuron 2.19がリリースされ、Flash Attentionという手法がサポートされました。より長いシーケンス長によるトレーニングと推論が実行可能になるとともに、Llama 3の推論に対応するなど機能拡張が多数含まれています。詳細についてはリリースノートをぜひご覧ください。
- Amazon SageMakerで生成AIの推論ワークロードの最適化が可能に
サービスアップデート – その他の関連サービス
-
- Amazon MemoryDBのベクトル検索機能が一般利用開始に
オープンソースのRedisと互換性をもつインメモリデータベースのサービス、Amazon MemoryDBのベクトル検索機能が一般利用開始になりました。Amazon MemoryDBのベクトル検索機能は1桁ミリ秒のレイテンシで数百万のベクトルデータに対する更新・問い合わせが可能で、生成AIのアプリケーションで良く利用されるベクトル埋め込み形式(Embeddings)データを扱うユースケースに対応できます。
- Amazon MemoryDBのベクトル検索機能が一般利用開始に