Amazon OpenSearch Ingestion prend désormais en charge l'inférence IA par lots

Publié le: 3 oct. 2025

Vous pouvez désormais effectuer une inférence IA par lots dans les pipelines d'ingestion Amazon OpenSearch afin d'enrichir et d'ingérer efficacement de grands jeux de données pour les domaines Amazon OpenSearch Service.

Auparavant, les clients utilisaient les connecteurs IA d'OpenSearch pour Amazon Bedrock, Amazon SageMaker et des services tiers pour des inférences en temps réel. Les inférences génèrent des enrichissements tels que des intégrations vectorielles, des prédictions, des traductions et des recommandations pour optimiser les cas d'utilisation de l'IA. L'inférence en temps réel est idéale pour les exigences de faible latence telles que les enrichissements diffusés en temps réel. L'inférence par lots est idéale pour enrichir de grands jeux de données hors ligne, offrant ainsi des performances et une rentabilité accrues. Vous pouvez désormais utiliser les mêmes connecteurs AI avec les pipelines d'ingestion Amazon OpenSearch dans le cadre d'une tâche d'inférence par lots asynchrone pour enrichir de grands jeux de données, notamment en générant et en ingérant jusqu'à des milliards d'intégrations vectorielles.

Cette fonctionnalité est disponible dans toutes les régions qui prennent en charge Amazon OpenSearch Ingestion et les domaines 2.17 et versions ultérieures. Pour en savoir plus, consultez la documentation.