يمكن الآن استخدام نموذج Marengo Embed 2.7 من TwelveLabs للاستدلال المتزامن في Amazon Bedrock
تدعم Amazon Bedrock الآن الاستدلال المتزامن لـ Marengo 2.7 من TwelveLabs، مما يوسع قدرات نموذج التضمين متعدد الوسائط هذا لتقديم عمليات تضمين النص والصور بزمن انتقال منخفض مباشرةً ضمن استجابة API. يمكّن هذا التحديث المطورين من بناء تجارب بحث واسترجاع أكثر استجابة وتفاعلية مع الحفاظ على نفس إمكانات فهم الفيديو القوية التي جعلت Marengo 2.7 طفرة في الذكاء الاصطناعي متعدد الوسائط.
منذ طرحه في Amazon Bedrock في وقتٍ سابق من هذا العام، غيّر Marengo 2.7 طريقة تعامل المؤسسات مع محتوى الفيديو من خلال الاستدلال غير المتزامن، وهو مثالي لمعالجة ملفات الفيديو والصوت والصور الكبيرة. يُنشئ النموذج متجهات مضمنة متعددة متطورة، مما يتيح استرجاعًا دقيقًا زمنيًا ودلاليًا عبر المحتوى الطويل. الآن مع دعم الاستدلال المتزامن، يمكن للمستخدمين الاستفادة من إمكانات التضمين المتقدمة هذه لإدخالات النص والصور مع وقت استجابة منخفض بشكل ملحوظ. هذا يجعلها مثالية لتطبيقات مثل البحث الفوري عن مقاطع الفيديو، حيث يمكن للمستخدمين العثور على مشاهد محددة باستخدام استفسارات باللغة الطبيعية، أو لاكتشاف المنتجات بشكل تفاعلي من خلال البحث عن تشابه الصور. لإنشاء التضمينات من ملفات الفيديو والصوت والصور كبيرة الحجم، استمر في استخدام الاستدلال غير المتزامن لتحقيق أفضل أداء.
يتوفر الآن نموذج Marengo 2.7 مع الاستدلال المتزامن في Amazon Bedrock في مناطق شرق الولايات المتحدة (فرجينيا الشمالية)، وأوروبا (أيرلندا)، ومنطقة آسيا والمحيط الهادئ (سول). لبدء الاستخدام، تفضل بزيارة وحدة تحكم Amazon Bedrock واطلب الوصول إلى النموذج. لمعرفة المزيد، اقرأ المدونة وصفحةالمنتجوتسعير Amazon Bedrock والوثائق.