Amazon OpenSearch Ingestion sekarang mendukung inferensi AI batch
Kini Anda dapat melakukan inferensi AI batch dalam pipeline Amazon OpenSearch Ingestion untuk memperkaya dan menyerap set data besar secara efisien untuk domain Amazon OpenSearch Service.
Sebelumnya, pelanggan menggunakan konektor AI OpenSearch ke Amazon Bedrock, Amazon SageMaker, dan layanan pihak ketiga untuk inferensi waktu nyata. Inferensi menghasilkan pengayaan seperti sematan vektor, prediksi, penerjemahan, dan rekomendasi untuk mendukung kasus penggunaan AI. Inferensi real-time sangat ideal untuk persyaratan latensi rendah seperti pengayaan streaming. Inferensi batch sangat ideal untuk memperkaya set data besar secara offline, memberikan kinerja dan efisiensi biaya yang lebih tinggi. Anda sekarang dapat menggunakan konektor AI yang sama dengan pipeline Amazon OpenSearch Ingestion sebagai pekerjaan inferensi batch asinkron untuk memperkaya set data besar seperti menghasilkan dan menyerap hingga miliaran penyematan vektor.
Fitur ini tersedia di semua region yang mendukung Amazon OpenSearch Ingestion dan 2.17+ domain. Pelajari selengkapnya dari dokumentasi.