Amazon Web Services ブログ

Category: Amazon OpenSearch Service

Amazon OpenSearch Service の UltraWarm でベクトル検索が利用可能に

Amazon OpenSearch Service で、UltraWarm 層と Cold 層での k-NN インデックスがサポートされるようになりました。アクセス頻度の低いベクトルデータを低コストのストレージ層に移動することで、パフォーマンスを維持しながら最大 50% のコスト削減が可能です。

Amazon OpenSearch Ingestion で AWS Lambda をプロセッサとして使用し、埋め込みベクトルを生成する

2024 年 11 月 22 日、Amazon OpenSearch Ingestion が AWS Lambda プロセッサのサポートを開始しました。
この機能により、OpenSearch Ingestion パイプラインでログ、メトリクス、トレースデータを加工・変換する柔軟性が高まりました。
本ブログでは、OpenSearch Ingestion の Lambda プロセッサを使用して、ソースデータの埋め込みベクトルを生成し、OpenSearch Serverless ベクトルコレクションに取り込む方法を紹介します。

コスト最適化されたベクトルデータベース: Amazon OpenSearch Service の量子化手法の概要

OpenSearch の量子化手法を活用することで、組織はコスト効率、パフォーマンス、再現率のバランスを考慮した選択が可能になり、最適な結果を得るためにベクトルデータベースの操作を微調整できるようになります。これらの量子化手法は、メモリ要件を大幅に削減し、クエリの効率を向上させ、シームレスな圧縮のための組み込みエンコーダーを提供します。大規模なテキスト埋め込み、画像特徴量、その他の高次元データのいずれを扱う場合でも、OpenSearch の量子化手法はベクトル検索の要件に対する効率的なソリューションを提供し、コスト効率が高く、スケーラブルで高性能なシステムの開発を可能にします。

OpenSearch ベクトルエンジンのディスク最適化により、精度を維持しつつコスト削減が可能に

OpenSearch ベクトルエンジンは、OpenSearch 2.17 以降のドメインで、従来の 3 分の 1 のコストでベクトル検索を実行できるようになりました。k-NN (ベクトル) インデックスをディスクモードで実行するように設定し、メモリに制約のある環境に最適化することで、数百ミリ秒単位で応答する低コストで正確なベクトル検索が可能になりました。ディスクモードは、一桁ミリ秒に近いレイテンシーを求めない場合、従来のメモリモードの経済的な代替手段となります。

AWS が生成 AI で E コマースにおけるショッピングアシスタントを強化

AWS 提供のデモの一つである AI ショッピングアシスタント は、お客様固有のニーズに合わせてカスタマイズされた推奨商品を提示するなど、生成 AI がデジタル空間での案内役としてどのように機能するのかを確認していただけます。 小売業者が顧客向けにパーソナライズされたシームレスな体験を提供できるように設計されたこのアシスタントは、顧客がより迅速かつ自信を持って意思決定を行えるようにします。 AI ショッピングアシスタントは、選択肢を最も関連性の高いものだけに絞り込むことで、悩ましい選択の苦労を軽減して購入へと導き、ショッピングをより満足のいく体験に変えます。