المدوَّنة العربية
تعرّف على نماذج Llama 3.2 من Meta في Amazon Bedrock: جيل جديد من نماذج الرؤية متعددة الوسائط والنماذج خفيفة الوزن
في يوليو، أعلنا عن توفر نماذج Llama 3.1 في Amazon Bedrock. تتحسن تقنية الذكاء الاصطناعي المولّد بسرعة مذهلة واليوم، نحن متحمسون لتقديم نماذج Llama 3.2 الجديدة من Meta في Amazon Bedrock.
تقدم Llama 3.2 نماذج رؤية متعددة الوسائط وخفيفة الوزن تمثل أحدث ابتكارات Meta في مجال النماذج اللغوية الكبيرة (LLMs) بالإضافة إلى ذلك، توفر هذه النماذج قدرات محسنة وقابلية تطبيق أوسع عبر حالات استخدام مختلفة. مع التركيز على الابتكار المسؤول والسلامة على مستوى النظام، تُظهر هذه النماذج الجديدة أداءً رائدًا على نطاق واسع من معايير الصناعة وتقدم ميزات تساعدك على بناء جيل جديد من تطبيقات الذكاء الاصطناعي.
تم تصميم هذه النماذج لإلهام المطورين بالاستدلال البصري، وتعتبر هذه النماذج أكثر ملاءمة لتطبيقات الأجهزة الطرفية، مما يفتح المجال لمزيد من الإمكانات مع الذكاء الاصطناعي.
توفر مجموعة نماذج Llama 3.2 أحجامًا مختلفة، بدءًا من نماذج 1B و3B ذات النص الخفيف فقط والمناسبة للأجهزة المتطورة، وحتى نماذج 11B و90B الصغيرة والمتوسطة الحجم القادرة على القيام بمهام تفكير معقدة بما في ذلك دعم الوسائط المتعددة للصور عالية الدقة. تعد Llama 3.2 11B و90B أول نماذج Llama تدعم مهام الرؤية، مع بنية نموذجية جديدة تدمج تمثيلات برنامج تشفير الصور في النموذج اللغوي. تم تصميم النماذج الجديدة لتكون أكثر كفاءة لأعباء عمل الذكاء الاصطناعي، مع تقليل زمن الوصول وتحسين الأداء، مما يجعلها مناسبة لمجموعة واسعة من التطبيقات.
تدعم جميع نماذج Llama 3.2 طول سياق يبلغ 128 ألف رمز، مع الحفاظ على سعة الرموز الموسعة المقدمة في Llama 3.1. بالإضافة إلى ذلك، توفر النماذج دعمًا متعدد اللغات محسنًا لثماني لغات بما في ذلك الإنجليزية والألمانية والفرنسية والإيطالية والبرتغالية والهندية والإسبانية والتايلاندية.
بالإضافة إلى نماذج Llama 3.1 8B و70B و405B القادرة على التعامل مع النصوص، تدعم Llama 3.2 حالات الاستخدام متعددة الوسائط. يمكنك الآن استخدام أربعة نماذج جديدة من Llama 3.2 – 90B و11B و3B و1B – من Meta في Amazon Bedrock لبناء وتجربة وتوسيع أفكارك الإبداعية:
Llama 3.2 90B Vision (نص + صورة) – النموذج الأكثر تقدمًا من Meta، وهو مثالي للتطبيقات على مستوى المؤسسات. يتميز هذا النموذج بالمعرفة العامة، وإنشاء النصوص الطويلة، والترجمة متعددة اللغات، والترميز، والرياضيات، والاستدلال المتقدم. كما أنه يقدم قدرات الاستدلال بالصور، مما يسمح بفهم الصور ومهام الاستدلال البصري. هذا النموذج مثالي لحالات الاستخدام التالية: توصيف الصور، واسترجاع نصوص الصور، والتأسيس البصري، والإجابة على الأسئلة البصرية والاستدلال البصري، والإجابة على الأسئلة البصرية في المستندات.
Llama 3.2 11B Vision (نص + صورة) – هذا النموذج مناسب لإنشاء المحتوى والذكاء الاصطناعي للمحادثة وفهم اللغة والتطبيقات المؤسسية التي تتطلب الاستدلال البصري. يُظهر النموذج أداءً قويًا في تلخيص النصوص وتحليل المشاعر وإنشاء التعليمات البرمجية واتباع التعليمات، مع القدرة المضافة على الاستدلال بالصور. حالات استخدام هذا النموذج مماثلة لنموذج 90B: توصيف الصور، واسترجاع نصوص الصور، والتأسيس البصري، والإجابة على الأسئلة البصرية والاستدلال البصري، والإجابة على الأسئلة البصرية في المستندات.
Llama 3.2 3B (نص) – هذا النموذج مصمم للتطبيقات التي تتطلب استجابة سريعة وموارد حسابية محدودة. يتفوق هذا النموذج في تلخيص النصوص والتصنيف وترجمة اللغات. هذا النموذج مثالي لحالات الاستخدام التالية: مساعدات الكتابة المدعومة بالذكاء الاصطناعي للأجهزة المحمولة وتطبيقات خدمة العملاء.
Llama 3.2 1B (نص) – النموذج الأخف وزنًا في مجموعة نماذج Llama 3.2، وهو مثالي للاسترجاع والتلخيص للأجهزة الطرفية وتطبيقات الأجهزة المحمولة. هذا النموذج مثالي لحالات الاستخدام التالية: إدارة المعلومات الشخصية واسترجاع المعرفة متعددة اللغات.
بالإضافة إلى ذلك، تم بناء Llama 3.2 على Llama Stack، وهي واجهة موحدة لبناء مكونات سلسلة الأدوات الأساسية والتطبيقات القائمة على الوكلاء، مما يجعل البناء والنشر أسهل من أي وقت مضى. تم تصميم واجهة برمجة تطبيقات Llama Stack للاستفادة من قدرات نماذج Llama بأكثر الطرق فعالية، وكما تمنح العملاء القدرة على اختبار أداء نماذج Llama عبر موردين مختلفين.
اختبرت نماذج Meta Llama 3.2 على أكثر من 150 مجموعة بيانات معيارية تغطي لغات متعددة وأجرت تقييمات بشرية مكثفة، مما أظهر أداءً تنافسيًا مع نماذج الأساس الرائدة الأخرى. دعونا نرى كيف تعمل هذه النماذج عمليًا.
استخدام نماذج Llama 3.2 في Amazon Bedrock
للبدء في استخدام نماذج Llama 3.2، انتقل إلى وحدة تحكم Amazon Bedrock واختر Model access في لوحة التنقل. هناك، اطلب الوصول إلى نماذج Llama 3.2 الجديدة: Llama 3.2 1B و3B و11B Vision و90B Vision.
لاختبار قدرة الرؤية الجديدة، افتح علامة تبويب أخرى للمتصفح وقم بتنزيل الرسم البياني لحصة الكهرباء المولدة من مصادر الطاقة المتجددة بتنسيق PNG من موقع Our World in Data. تتميز صورة الرسم البياني بدقة عالية جدًا، قم بتغيير حجمها ليصبح عرضها 1024 بكسل.
ارجع إلى وحدة تحكم Amazon Bedrock، واختر Chat ضمن Playgrounds في لوحة التنقل، وحدد Meta كفئة، واختر نموذج Llama 3.2 90B Vision.
استخدم Choose files لتحديد صورة الرسم البياني التي تم تغيير حجمها واستخدم النص المدخل التالي:
Describe the image in detail, including any text, charts, or other visual elements.Based on this chart, which countries in Europe have the highest share?
اختر Run وسيقوم النموذج بتحليل الصورة وإرجاع نتائجها:
يمكنك أيضًا الوصول إلى النماذج برمجيًا باستخدام واجهة سطر أوامر AWS (AWS CLI) وAWS SDKs. بالمقارنة مع استخدام نماذج Llama 3.1، فأنت تحتاج فقط إلى تحديث معرفات النماذج كما هو موضح في التوثيق. يمكنني أيضًا استخدام نقطة نهاية الاستدلال عبر المناطق الجديدة لمناطق AWS في الولايات المتحدة والاتحاد الأوروبي. تعمل هذه النقاط النهائية لأي منطقة ضمن الولايات المتحدة والاتحاد الأوروبي على التوالي. على سبيل المثال، نقاط نهاية الاستدلال عبر المناطق لنموذج Llama 3.2 90B Vision هي:
us.meta.llama3-2-90b-instruct-v1:0
eu.meta.llama3-2-90b-instruct-v1:0
فيما يلي مثال على أمر AWS CLI باستخدام واجهة برمجة تطبيقات Amazon Bedrock Converse. استخدم معلمة --query
في CLI لتصفية النتيجة وعرض محتوى النص للرسالة الناتجة فقط:
في المخرجات، تحصل على رسالة الرد من "assistant"
.
لا يختلف الأمر كثيرًا إذا كنت تستخدم إحدى حزم AWS SDK. على سبيل المثال، فيما يلي كيفية استخدام Python مع حزمة AWS SDK for Python (Boto3) لتحليل نفس الصورة كما في مثال وحدة التحكم:
import boto3
MODEL_ID = "us.meta.llama3-2-90b-instruct-v1:0"
# MODEL_ID = "eu.meta.llama3-2-90b-instruct-v1:0"
IMAGE_NAME = "share-electricity-renewable-small.png"
bedrock_runtime = boto3.client("bedrock-runtime")
with open(IMAGE_NAME, "rb") as f:
image = f.read()
user_message = "Based on this chart, which countries in Europe have the highest share?"
messages = [
{
"role": "user",
"content": [
{"image": {"format": "png", "source": {"bytes": image}}},
{"text": user_message},
],
}
]
response = bedrock_runtime.converse(
modelId=MODEL_ID,
messages=messages,
)
response_text = response["output"]["message"]["content"][0]["text"]
print(response_text)
تتوفر أيضًا نماذج Llama 3.2 في Amazon SageMaker JumpStart، وهي مركز لتعلم الآلة (ML) يسهل نشر النماذج المدربة مسبقًا باستخدام وحدة التحكم أو برمجيًا من خلال SageMaker Python SDK. من SageMaker JumpStart، يمكنك أيضًا الوصول إلى نماذج الحماية الجديدة ونشرها و التي يمكن أن تساعد في تصنيف مستوى أمان مدخلات النموذج (المطالبات) والمخرجات (الاستجابات)، بما في ذلك Llama Guard 3 11B Vision، والتي تم تصميمها لدعم الابتكار المسؤول والسلامة على مستوى النظام.
بالإضافة إلى ذلك، يمكنك بسهولة ضبط نماذج Llama 3.2 1B و 3B باستخدام SageMaker JumpStart اليوم. بعد ذلك، يمكن استيراد النماذج المضبوطة كنماذج مخصصة في Amazon Bedrock. سيتم قريبًا إضافة إمكانية الضبط الدقيق لمجموعة كاملة من نماذج Llama 3.2 في Amazon Bedrock و Amazon SageMaker JumpStart.
تجعل أوزان نماذج Llama 3.2 المتاحة للجمهور من السهل تقديم حلول أكثر تخصيصًا للاحتياجات. على سبيل المثال، يمكنك ضبط نموذج Llama 3.2 لحالة استخدام محددة وإحضاره إلى Amazon Bedrock كنموذج مخصص، مما قد يؤدي إلى أداء أفضل من النماذج الأخرى في مثل هذه الحالات. سواء كنت تقوم بالضبط الدقيق لتحسين الأداء في مجالات مثل إنشاء المحتوى أو فهم اللغة أو الاستدلال البصري، فإن توفر Llama 3.2 في Amazon Bedrock و SageMaker يمكّنك من إنشاء قدرات ذكاء اصطناعي فريدة وعالية الأداء يمكنها تمييز حلولك.
المزيد حول بنية نموذج Llama 3.2
يبني Llama 3.2 على نجاح أسلافه من خلال بنية متقدمة مصممة للأداء الأمثل والتنوع:
نموذج لغوي تلقائي التراجع Auto-regressive – في جوهره، يستخدم Llama 3.2 بنية Transformer محسنة، مما يسمح له بإنشاء النصوص عن طريق التنبؤ بالرمز التالي بناءً على السياق السابق.
تقنيات الضبط الدقيق – تستخدم نماذج Llama 3.2 المضبوطة بالتعليمات (instruction-tuned) تقنيتين رئيسيتين:
- الضبط الدقيق الخاضع للإشراف (Supervised fine-tuning (SFT – تعمل هذه العملية على تكييف النموذج لاتباع تعليمات محددة وتوليد استجابات أكثر صلة.
- التعلم التعزيزي مع الملاحظات البشرية (RLHF) – تعمل هذه التقنية المتقدمة على مواءمة مخرجات النموذج مع التفضيلات البشرية، مما يعزز من المساعدة والسلامة.
القدرات متعددة الوسائط – بالنسبة لنماذج 11B و 90B Vision، يقدم Llama 3.2 نهجًا جديدًا لفهم الصور:
- يتم دمج أوزان محولات استدلال الصور المدربة بشكل منفصل مع أوزان النموذج اللغوي الأساسية.
- يتم توصيل هذه المحولات بالنموذج الرئيسي من خلال آليات الانتباه المتقاطع cross-attention. يسمح الانتباه المتقاطع لقسم واحد من النموذج بالتركيز على الأجزاء ذات الصلة من مخرجات مكون آخر، مما يتيح تدفق المعلومات بين أقسام مختلفة من النموذج.
- عند إدخال صورة، يعامل النموذج عملية استدلال الصور على أنها عملية “استخدام أداة”، مما يسمح بتحليل بصري متقدم إلى جانب معالجة النصوص. في هذا السياق، يشير مصطلح “استخدام الأداة” إلى المصطلح العام المستخدم عندما يستخدم النموذج موارد أو وظائف خارجية لتعزيز قدراته وإكمال المهام بشكل أكثر فعالية.
الاستدلال المحسن – تدعم جميع النماذج الانتباه إلى الاستعلام المجمع (GQA)، مما يعزز سرعة الاستدلال وكفاءته، وهو أمر مفيد بشكل خاص للنموذج الأكبر 90B.
تتيح هذه البنية لـ Llama 3.2 من التعامل مع مجموعة واسعة من المهام، بدءًا من إنشاء النصوص وفهمها إلى الاستدلال المعقد وتحليل الصور، كل ذلك مع الحفاظ على أداء عالٍ وقابلية للتكيف مع أحجام النماذج المختلفة.
أشياء يجب معرفتها
أصبحت نماذج Llama 3.2 من Meta متاحة الآن بشكل عام في Amazon Bedrock في مناطق AWS التالية:
- تتوفر نماذج Llama 3.2 1B و 3B في منطقتي الغرب الأمريكية (Oregon) وأوروبا (Frankfurt)، وهي متاحة في مناطق الشرق الأمريكية (Ohio، N. Virginia) وأوروبا (Ireland، Paris) عبر الاستدلال عبر المناطق.
- تتوفر نماذج Llama 3.2 11B Vision و 90B Vision في منطقة الغرب الأمريكية (Oregon)، وهي متاحة في مناطق الشرق الأمريكية (Ohio، N. Virginia) عبر الاستدلال عبر المناطق.
تحقق من قائمة مناطق AWS الكاملة للحصول على التحديثات المستقبلية. لتقدير تكاليفك، قم بزيارة صفحة تسعير Amazon Bedrock.
لمعرفة المزيد حول كيفية استخدام نماذج Llama 3.2 11B و 90B لدعم مهام الرؤية، اقرأ مقال حالات استخدام الرؤية مع نماذج Llama 3.2 11B و 90B من Meta على مدونة AWS لتعلّم الآلة.
تتعاون AWS و Meta أيضًا لتقديم نماذج Llama الأصغر حجمًا إلى تطبيقات الأجهزة، مع عرض النماذج الجديدة 1B و 3B. لمزيد من المعلومات، راجع مقال الفرص المتاحة لشركات الاتصالات مع النماذج اللغوية الصغيرة: رؤى من AWS و Meta على مدونة AWS للمجالات.
لمعرفة المزيد حول ميزات وقدرات Llama 3.2، قم بزيارة قسم نماذج Llama في وثائق Amazon Bedrock. جرب Llama 3.2 في وحدة تحكم Amazon Bedrock اليوم، وأرسل ملاحظاتك إلى AWS re:Post for Amazon Bedrock.
يمكنك العثور على محتوى تقني متعمق واكتشاف كيف تستخدم مجتمعات البناء Amazon Bedrock على community.aws. أخبرنا بما تبنيه باستخدام Llama 3.2 في Amazon Bedrock!