Amazon OpenSearch Ingestion introduce il supporto per le inferenze dell'IA in batch

Inserito il: 3 ott 2025

Ora è possibile eseguire inferenze dell'IA in batch all'interno delle pipeline di Amazon OpenSearch Ingestion per arricchire e importare in modo più efficiente grandi set di dati destinati ai domini del servizio OpenSearch di Amazon.

In precedenza le inferenze in tempo reale venivano eseguite tramite i connettori IA di OpenSearch verso Amazon Bedrock, Amazon SageMaker o servizi di terze parti. Tali inferenze permettono di creare arricchimenti come embedding vettoriali, previsioni, traduzioni e raccomandazioni, fondamentali per i casi d'uso basati sull'IA. Le inferenze in tempo reale sono perfette per applicazioni che richiedono latenza minima, ad esempio per arricchimenti di dati in streaming. Le inferenze in batch, invece, sono pensate per l'elaborazione offline di grandi set di dati, garantendo prestazioni migliori e costi più contenuti. Ora è possibile utilizzare gli stessi connettori IA nelle pipeline di Amazon OpenSearch Ingestion per eseguire processi di inferenza asincrona in batch e arricchire grandi set di dati, ad esempio generando e importando fino a miliardi di embedding vettoriali.

Questa funzionalità è disponibile in tutte le regioni AWS che supportano Amazon OpenSearch Ingestion e i domini dalla versione 2.17 o successiva. Per ulteriori informazioni, consulta la documentazione.