Amazon OpenSearch Ingestion unterstützt jetzt Batch-KI-Inferenz
Sie können jetzt innerhalb von Amazon OpenSearch Ingestion-Pipelines eine Batch-KI-Inferenz durchführen, um große Datensätze für Amazon OpenSearch Service-Domänen effizient anzureichern und zu importieren.
Bisher haben Kunden die KI-Konnektoren von OpenSearch zu Amazon Bedrock, Amazon SageMaker und Diensten von Drittanbietern für Echtzeit-Inferenzen verwendet. Inferenzen generieren Anreicherungen wie Vektor-Einbettungen, Vorhersagen, Übersetzungen und Empfehlungen, um KI-Anwendungsfälle zu unterstützen. Echtzeit-Inferenz ist ideal für Anforderungen mit geringer Latenz, wie z. B. Streaming Enrichments. Die Batch-Inferenz ist ideal für die Offline-Anreicherung großer Datensätze und bietet eine höhere Leistung und Kosteneffizienz. Sie können jetzt dieselben KI-Konnektoren mit Amazon OpenSearch Ingestion-Pipelines als asynchronen Batch-Inferenzauftrag verwenden, um große Datensätze anzureichern, z. B. um bis zu Milliarden von Vektor-Einbettungen zu generieren und einzulesen.
Diese Funktion ist in allen Regionen verfügbar, die Amazon OpenSearch Ingestion und 2.17+ Domains unterstützen. Weitere Informationen finden Sie in der Dokumentation.