Annonce de la recherche vectorielle pour Amazon ElastiCache
La recherche vectorielle pour Amazon ElastiCache est désormais disponible pour tous. Les clients peuvent désormais utiliser ElastiCache pour indexer, rechercher et mettre à jour des milliards d'intégrations vectorielles en haute dimension provenant de fournisseurs populaires tels qu'Amazon Bedrock, Amazon SageMaker, Anthropic et OpenAI avec une latence de quelques microsecondes seulement et un rappel pouvant atteindre 99 %.
Les principaux cas d'utilisation incluent la mise en cache sémantique pour les grands modèles de langage (LLM) et les agents conversationnels à plusieurs tours, qui réduisent considérablement la latence et les coûts en mettant en cache des requêtes sémantiquement similaires. La recherche vectorielle pour ElastiCache alimente également les systèmes d'IA agentique grâce à la génération à enrichissement contextuel (RAG) afin de garantir des résultats hautement pertinents et une faible latence constante au cours des différentes étapes de récupération. Les autres cas d'utilisation incluent les moteurs de recommandation, la détection d'anomalies et d'autres applications qui nécessitent une recherche efficace dans de multiples modalités de données.
La recherche vectorielle pour ElastiCache est disponible avec la version 8.2 de Valkey sur les clusters basés sur des nœuds dans toutes les régions AWS, sans frais supplémentaires. Pour commencer, créez un cluster Valkey 8.2 à l'aide de la console de gestion AWS, du kit de développement logiciel (SDK) AWS ou de l'interface de ligne de commande (CLI) AWS. Vous pouvez également utiliser la recherche vectorielle sur vos clusters existants en passant de n'importe quelle version de Valkey ou Redis OSS à Valkey 8.2 en quelques clics, sans durée d’indisponibilité. Pour en savoir plus sur la recherche vectorielle pour ElastiCache pour Valkey, consultez ce blog et pour obtenir la liste des commandes prises en charge, consultez la documentation ElastiCache.