Publié le: Nov 29, 2023
Amazon MemoryDB for Redis prend désormais en charge la recherche vectorielle en version préliminaire, une nouvelle fonctionnalité permettant de stocker, d'indexer et de rechercher des vecteurs. MemoryDB est une base de données qui combine performances en mémoire et durabilité multi-AZ. Avec la recherche vectorielle pour MemoryDB, vous pouvez développer des applications de machine learning et d'IA générative en temps réel qui respectent les critères de performance les plus stricts à l'aide de la fameuse API Redis open source. Cette fonctionnalité, qui permet de stocker des millions de vecteurs, affiche un temps de réponse de l'ordre de quelques millisecondes pour les requêtes et les mises à jour, ainsi qu'un taux de plusieurs dizaines de milliers de requêtes par seconde (QPS) avec un rappel supérieur à 99 %. Vous pouvez générer des intégrations vectorielles à l'aide de services d'IA et de machine learning (comme Amazon Bedrock ou SageMaker) avant de les stocker dans MemoryDB.
Grâce à la version préliminaire de la recherche vectorielle pour MemoryDB, vous pouvez créer des applications présentant un débit élevé ainsi qu'un taux de rappel important, avec une latence de requêtage et de mise à jour des vecteurs de l'ordre de la milliseconde. Par exemple, une banque utilisera cette fonctionnalité pour détecter, avec très peu de faux positifs, des anomalies telles que des opérations frauduleuses pendant les pics de transactions.
La recherche vectorielle pour MemoryDB est disponible en version préliminaire sans frais supplémentaires dans les régions Asie-Pacifique (Tokyo), Europe (Irlande), USA Est (Ohio), USA Est (Virginie du Nord) et USA Ouest (Oregon). Pour commencer, créez un cluster MemoryDB à l'aide de la version 7.1 d'Amazon MemoryDB for Redis et activez la version préliminaire de la recherche vectorielle dans la console de gestion AWS ou l'interface de la ligne de commande (CLI). Si vous souhaitez en savoir plus sur la recherche vectorielle pour Amazon MemoryDB, consultez la documentation.