ما هي المحولات في الذكاء الاصطناعي؟

المحوّلات هي نوع من بنية الشبكة العصبونية التي تحوّل أو تغير سلسلة إدخال إلى سلسلة إخراج. وهي تنفّذ هذا الإجراء من خلال تعلّم السياق وتتبع العلاقات بين مكونات السلسلة. في ما يلي مثال يعتمد على سلسلة إدخال هذه: "ما لون السماء؟" يستخدم نموذج المحوّل تمثيلًا داخليًا مبني على الرياضيات لتحديد الصلة والعلاقة بين الكلمات: اللون والسماء واللون الأزرق. وهو يستخدم المعلومات الناتجة لإنشاء الإخراج: "السماء زرقاء." 

تستخدم المؤسسات نماذج المحوّلات لجميع أنواع تحويلات السلاسل، بدءًا من التعرّف على الكلام وصولاً إلى الترجمة الآلية وتحليل سلاسل البروتين.

اقرأ عن الشبكات العصبونية

اقرأ عن الذكاء الاصطناعي (AI)

لماذا تعتبر المحولات مهمة؟

نماذج التعلم العميق المبكرة التي ركزت بشكل كبير على مهام معالجة اللغة الطبيعية (NLP) التي تهدف إلى جعل أجهزة الكمبيوتر تفهم اللغة البشرية الطبيعية وتستجيب لها. لقد خمنوا الكلمة التالية في تسلسل بناءً على الكلمة السابقة.

لفهم أفضل، ضع في اعتبارك ميزة الإكمال التلقائي في هاتفك الذكي. يقدم اقتراحات بناءً على تكرار أزواج الكلمات التي تكتبها. على سبيل المثال، إذا كنت تكتب بشكل متكرر «I am fine»، يقترح هاتفك تلقائيًا بشكل جيد بعد كتابة am.

طبقت نماذج تعلّم الآلة (ML) تقنية مماثلة على نطاق أوسع. قاموا بتعيين تردد العلاقة بين أزواج الكلمات المختلفة أو مجموعات الكلمات في مجموعة بيانات التدريب الخاصة بهم وحاولوا تخمين الكلمة التالية. ومع ذلك، لم تتمكن التكنولوجيا المبكرة من الاحتفاظ بالسياق بعد طول إدخال معين. على سبيل المثال، لم يتمكن نموذج ML المبكر من إنشاء فقرة ذات معنى لأنه لم يتمكن من الاحتفاظ بالسياق بين الجملة الأولى والأخيرة في الفقرة. لتوليد مخرجات مثل «I am from Italy. I like horse riding. I speak Italian.»، يحتاج النموذج إلى تذكر العلاقة بين إيطاليا والإيطالية، وهو ما لم تستطع الشبكات العصبية المبكرة القيام به.

قامت نماذج المُحوّل بتغيير تقنيات NLP بشكل أساسي من خلال تمكين النماذج من التعامل مع مثل هذه التبعيات بعيدة المدى في النص. فيما يلي المزيد من فوائد المحولات.

تمكين النماذج واسعة النطاق

تقوم المحولات بمعالجة التسلسلات الطويلة في مجملها باستخدام الحساب المتوازي، مما يقلل بشكل كبير من أوقات التدريب والمعالجة. وقد أتاح ذلك تدريب نماذج لغوية كبيرة جدًا (LLM)، مثل GPT وBERT، التي يمكنها تعلم تمثيلات اللغة المعقدة. لديهم مليارات من المعلمات التي تلتقط نطاقًا واسعًا من اللغة البشرية والمعرفة، وهم يدفعون البحث نحو أنظمة ذكاء اصطناعي أكثر قابلية للتعميم.

القراءة حول نماذج اللغة الكبيرة

اقرأ حول GPT

تمكين التخصيص بشكل أسرع

باستخدام نماذج المحولات، يمكنك استخدام تقنيات مثل التعلم عن طريق النقل والتوليد المعزز للاسترجاع (RAG). تتيح هذه التقنيات تخصيص النماذج الحالية للتطبيقات الخاصة بالمؤسسات الصناعية. يمكن اختبار النماذج مسبقًا على مجموعات بيانات كبيرة ثم ضبطها على مجموعات بيانات أصغر خاصة بالمهام. أدى هذا النهج إلى إضفاء الطابع الديمقراطي على استخدام النماذج المعقدة وإزالة قيود الموارد في تدريب النماذج الكبيرة من الصفر. يمكن أن تؤدي النماذج أداءً جيدًا عبر مجالات ومهام متعددة لحالات الاستخدام المختلفة.

تسهيل أنظمة الذكاء الاصطناعي متعددة النماذج

باستخدام المحولات، يمكنك استخدام الذكاء الاصطناعي للمهام التي تجمع بين مجموعات البيانات المعقدة. على سبيل المثال، تُظهر نماذج مثل DALL-E أن المحولات يمكنها إنشاء صور من الأوصاف النصية، والجمع بين قدرات البرمجة اللغوية العصبية ورؤية الحاسوب. باستخدام المحولات، يمكنك إنشاء تطبيقات الذكاء الاصطناعي التي تدمج أنواعًا مختلفة من المعلومات وتحاكي الفهم البشري والإبداع عن كثب.

اقرأ حول رؤية الحاسوب

أبحاث الذكاء الاصطناعي والابتكار الصناعي

أنشأت المُحلات جيلًا جديدًا من تقنيات الذكاء الاصطناعي وأبحاث الذكاء الاصطناعي، مما دفع حدود ما هو ممكن في تعلم الآلة. لقد ألهم نجاحهم بنيات وتطبيقات جديدة تحل المشكلات المبتكرة. لقد مكنت الآلات من فهم اللغة البشرية وتوليدها، مما أدى إلى تطبيقات تعزز تجربة العملاء وتخلق فرص عمل جديدة.

ما هي حالات استخدام المحولات؟

يمكنك تدريب نماذج المحولات الكبيرة على أي بيانات متسلسلة مثل اللغات البشرية والتراكيب الموسيقية ولغات البرمجة والمزيد. ونقدم فيما يلي بعض الأمثلة على حالات الاستخدام.

معالجة اللغة الطبيعية

تعمل المحولات على تمكين الآلات من فهم اللغة البشرية وتفسيرها وتوليدها بطريقة أكثر دقة من أي وقت مضى. يمكنهم تلخيص المستندات الكبيرة وإنشاء نص متماسك وملائم للسياق لجميع أنواع حالات الاستخدام. يستخدم المساعدون الافتراضيون مثل Alexa تقنية المحولات لفهم الأوامر الصوتية والاستجابة لها.

الترجمة الآلية

تستخدم تطبيقات الترجمة المحولات لتوفير ترجمات دقيقة في الوقت الفعلي بين اللغات. لقد حسنت المحولات بشكل كبير من طلاقة ودقة الترجمات مقارنة بالتقنيات السابقة.

اقرأ عن الترجمة الآلية

تحليل تسلسل الحمض النووي (DNA)

من خلال معالجة أجزاء من الحمض النووي (DNA) كتسلسل مشابه للغة، يمكن للمحولات التنبؤ بآثار الطفرات الجينية وفهم الأنماط الجينية والمساعدة في تحديد مناطق الحمض النووي (DNA) المسؤولة عن أمراض معينة. هذه القدرة ضرورية للطب الشخصي، حيث يمكن أن يؤدي فهم التركيب الجيني للفرد إلى علاجات أكثر فعالية.

تحليل بنية البروتين

يمكن لنماذج المحولات معالجة البيانات المتسلسلة، مما يجعلها مناسبة تمامًا لنمذجة السلاسل الطويلة من الأحماض الأمينية التي تتحول إلى هياكل بروتينية معقدة. يعد فهم هياكل البروتين أمرًا حيويًا لاكتشاف الأدوية وفهم العمليات البيولوجية. يمكنك أيضًا استخدام المحولات في التطبيقات التي تتنبأ بالبنية ثلاثية الأبعاد للبروتينات بناءً على تسلسل الأحماض الأمينية.

كيف تعمل المحولات؟

كانت الشبكات العصبية هي الطريقة الرائدة في العديد من مهام الذكاء الاصطناعي مثل التعرف على الصور ومعالجة اللغة الطبيعية (NLP) منذ أوائل عام 2000. وتتكون من طبقات من العقد الحاسوبية المترابطة، أو الخلايا العصبية، التي تحاكي الدماغ البشري وتعمل معًا لحل المشكلات المعقدة.

غالبًا ما تستخدم الشبكات العصبية التقليدية التي تتعامل مع تسلسل البيانات نمط بنية التشفير/وحدة فك التشفير. يقوم المشفر بقراءة ومعالجة تسلسل بيانات الإدخال بالكامل، مثل الجملة الإنجليزية، وتحويله إلى تمثيل رياضي مضغوط. هذا التمثيل هو ملخص يجسد جوهر المدخلات. بعد ذلك، تأخذ وحدة فك الترميز هذا الملخص وتقوم، خطوة بخطوة، بإنشاء تسلسل الإخراج، والذي يمكن أن يكون نفس الجملة المترجمة إلى الفرنسية.

تحدث هذه العملية بالتتابع، مما يعني أنه يتعين عليها معالجة كل كلمة أو جزء من البيانات واحدة تلو الأخرى. العملية بطيئة ويمكن أن تفقد بعض التفاصيل الدقيقة عبر مسافات طويلة.

آلية الانتباه الذاتي - Self-attention mechanism

تقوم نماذج المحولات بتعديل هذه العملية من خلال دمج شيء يسمى آلية الانتباه الذاتي. بدلاً من معالجة البيانات بالترتيب، تمكن الآلية النموذج من النظر إلى أجزاء مختلفة من التسلسل دفعة واحدة وتحديد الأجزاء الأكثر أهمية. 

تخيل أنك في غرفة مزدحمة وتحاول الاستماع إلى شخص يتحدث. يركز عقلك تلقائيًا على صوته مع ضبط الضوضاء الأقل أهمية. يمكّن الانتباه الذاتي النموذج من القيام بشيء مماثل: فهو يولي مزيدًا من الاهتمام لأجزاء المعلومات ذات الصلة ويجمعها لتقديم تنبؤات أفضل للمخرجات. تعمل هذه الآلية على جعل المحولات أكثر كفاءة، مما يتيح تدريبها على مجموعات بيانات أكبر. كما أنها أكثر فاعلية، خاصة عند التعامل مع أجزاء طويلة من النص حيث قد يؤثر السياق من زمن بعيد على معنى ما سيأتي بعد ذلك.

ما هي مكونات بنية المحولات؟

تحتوي بنية الشبكة العصبية الخاصة بالمحولات على العديد من طبقات البرامج التي تعمل معًا لتوليد الإخراج النهائي. تُظهر الصورة التالية مكونات بنية التحويل، كما هو موضح في بقية هذا القسم.


عمليات تضمين الإدخال

تقوم هذه المرحلة بتحويل تسلسل الإدخال إلى المجال الرياضي الذي تفهمه خوارزميات البرامج. في البداية، يتم تقسيم تسلسل الإدخال إلى سلسلة من الرموز أو مكونات التسلسل الفردية. على سبيل المثال، إذا كان الإدخال عبارة عن جملة، فإن الرموز هي كلمات. يؤدي التضمين بعد ذلك إلى تحويل تسلسل الرمز المميز إلى تسلسل vector رياضي. تحمل vectors معلومات دلالية وتركيبية، مُمَثَّلة كأرقام، ويتم تعلم سماتها أثناء عملية التدريب.

يمكنك تصور vectors كسلسلة من الإحداثيات في n-dimensional space. كمثال بسيط، فكر في رسم بياني ثنائي الأبعاد، حيث تمثل x القيمة الأبجدية الرقمية للحرف الأول من الكلمة وتمثل y فئاتها. كلمة موزة لها القيمة (2,2) لأنها تبدأ بالحرف b وتقع في فئة الفاكهة. تحتوي كلمة مانجو على القيمة (13,2) لأنها تبدأ بالحرف m وهي أيضًا في فئة الفاكهة. بهذه الطريقة، يخبر vector‏ (x،‏ y) الشبكة العصبية أن الكلمتين موز ومانجو في نفس الفئة. 

تخيل الآن n-dimensional space تحتوي على آلاف السمات حول قواعد أي كلمة ومعناها واستخدامها في الجمل المعينة لسلسلة من الأرقام. يمكن للبرنامج استخدام الأرقام لحساب العلاقات بين الكلمات من الناحية الرياضية وفهم نموذج اللغة البشرية. توفر عمليات التضمين طريقة لتمثيل الرموز المميزة المنفصلة كـ vectors مستمرة يمكن للنموذج معالجتها والتعلم منها.

الترميز الموضعي - Positional encoding

يعد الترميز الموضعي مكونًا مهمًا في بنية المحول لأن النموذج نفسه لا يعالج بطبيعته البيانات المتسلسلة بالترتيب. يحتاج المحول إلى طريقة للنظر في ترتيب الرموز في تسلسل الإدخال. يضيف الترميز الموضعي معلومات إلى تضمين كل رمز للإشارة إلى موضعه في التسلسل. يتم ذلك غالبًا باستخدام مجموعة من الوظائف التي تولد إشارة موضعية فريدة تتم إضافتها إلى تضمين كل رمز مميز. باستخدام الترميز الموضعي، يمكن للنموذج الحفاظ على ترتيب الرموز وفهم سياق التسلسل.

كتلة المحولات

يحتوي نموذج المحول النموذجي على كتل محولات متعددة مُجمّعة معًا. تحتوي كل كتلة من المحولات على مكونين رئيسيين: آلية الانتباه الذاتي متعددة الرؤوس والشبكة العصبية من حيث الموضع. تمكّن آلية الانتباه الذاتي النموذج من تقييم أهمية الرموز المختلفة داخل التسلسل. إنه يركز على الأجزاء ذات الصلة من المدخلات عند إجراء التنبؤات.

على سبيل المثال، فكر في الجملتين، «Speak no lies» و «He lies down.» في كلتا الجملتين، لا يمكن فهم معنى كلمة lies دون النظر إلى الكلمات المجاورة لها. الكلمات التي speak وdown ضرورية لفهم المعنى الصحيح. يتيح الاهتمام الذاتي تجميع الرموز ذات الصلة للسياق.

تحتوي طبقة feed-forward layer على مكونات إضافية تساعد نموذج المحول على التدريب والعمل بكفاءة أكبر. على سبيل المثال، تتضمن كل كتلة محول ما يلي:

  • اتصالات حول المكونين الرئيسيين اللذين يعملان مثل الاختصارات. فهي تتيح تدفق المعلومات من جزء من الشبكة إلى جزء آخر، مما يؤدي إلى تخطي عمليات معينة بينهما.
  • تطبيع الطبقة التي تحافظ على الأرقام - وتحديدًا مخرجات الطبقات المختلفة في الشبكة - داخل نطاق معين حتى يتدرب النموذج بسلاسة.
  • يعمل التحويل الخطي (Linear transformation) بحيث يقوم النموذج بضبط القيم لأداء المهمة التي يتم التدريب عليها بشكل أفضل - مثل ملخص المستند بدلاً من الترجمة.

الكتل الخطية (Linear) وكتل softmax

في نهاية المطاف، يحتاج النموذج إلى إجراء تنبؤ ملموس، مثل اختيار الكلمة التالية في التسلسل. هذا هو المكان الذي تأتي فيه الكتلة الخطية. إنها طبقة أخرى متصلة بالكامل، تُعرف أيضًا باسم الطبقة الكثيفة، قبل المرحلة النهائية. يقوم بإجراء تخطيط خطي مكتسب من مساحة vector إلى مجال الإدخال الأصلي. هذه الطبقة الحاسمة هي المكان الذي يأخذ فيه جزء صنع القرار في النموذج التمثيلات الداخلية المعقدة ويعيدها مرة أخرى إلى تنبؤات محددة يمكنك تفسيرها واستخدامها. ناتج هذه الطبقة عبارة عن مجموعة من الدرجات (تسمى غالبًا السجلات) لكل رمز مميز محتمل.

وظيفة softmax هي المرحلة النهائية التي تأخذ الدرجات اللوغاريتمية وتقوم بتطبيعها في توزيع احتمالي. يمثل كل عنصر من عناصر إخراج softmax ثقة النموذج في فئة أو رمز معين.

كيف تختلف المحولات عن بنيات الشبكات العصبية الأخرى؟

الشبكات العصبية المتكررة (RNNs) والشبكات العصبية الالتفافية (CNNs) هي شبكات عصبية أخرى تستخدم بشكل متكرر في تعلم الآلة ومهام التعلم العميق. يستكشف ما يلي علاقاتهم بالمحولات.

مقارنة المُحولات بشبكات RNN

تعد كل من نماذج المحولات وشبكات RNNs عبارة عن بنيات تستخدم لمعالجة البيانات المتسلسلة.

تقوم شبكات RNNs بمعالجة تسلسل البيانات عنصرًا تلو الآخر في التكرارات الدورية. تبدأ العملية بطبقة الإدخال التي تتلقى العنصر الأول من التسلسل. ثم يتم تمرير المعلومات إلى طبقة مخفية، والتي تقوم بمعالجة الإدخال وتمرير الإخراج إلى الخطوة الزمنية التالية. يتم إدخال هذا الإخراج، جنبًا إلى جنب مع العنصر التالي من التسلسل، مرة أخرى في الطبقة المخفية. تتكرر هذه الدورة لكل عنصر في التسلسل، مع احتفاظ شبكة RNN بـ vector في الحالة المخفية والذي يتم تحديثه في كل خطوة زمنية. هذه العملية تمكن شبكة RNN بشكل فعال من تذكر المعلومات من المدخلات السابقة.

في المقابل، تقوم المحولات بمعالجة التسلسلات بأكملها في وقت واحد. يتيح هذا التوازي أوقات تدريب أسرع بكثير والقدرة على التعامل مع تسلسلات أطول بكثير من شبكات RNNs. آلية الانتباه الذاتي في المحولات تتيح أيضًا للنموذج النظر في تسلسل البيانات بالكامل في وقت واحد. هذا يلغي الحاجة إلى التكرار أو vectors المخفية. بدلاً من ذلك، يحتفظ الترميز الموضعي بمعلومات حول موضع كل عنصر في التسلسل.

لقد حلت المحولات محل شبكات RNNs إلى حد كبير في العديد من التطبيقات، خاصة في مهام NLP، لأنها تستطيع التعامل مع التبعيات بعيدة المدى بشكل أكثر فعالية. كما أنها تتمتع بقابلية تطوير وكفاءة أكبر من شبكات RNNs. لا تزال شبكات RNNs مفيدة في سياقات معينة، خاصة عندما يكون حجم النموذج والكفاءة الحسابية أكثر أهمية من تسجيل التفاعلات بعيدة المدى.

مقارنة المُحولات بشبكات CNNs

تم تصميم شبكات CNN للبيانات الشبيهة بالشبكة، مثل الصور، حيث يكون التسلسل الهرمي المكاني والموقع أمرًا أساسيًا. هذه الشبكات تستخدم الطبقات الالتفافية لتطبيق الفلاتر عبر الإدخال، وتسجيل الأنماط المحلية من خلال طرق العرض التي تمت تصفيتها. على سبيل المثال، في معالجة الصور، قد تكتشف الطبقات الأولية الحواف أو الأنسجة، وتتعرف الطبقات الأعمق على الهياكل الأكثر تعقيدًا مثل الأشكال أو الكائنات.

تم تصميم المُحولات بشكل أساسي للتعامل مع البيانات المتسلسلة ولم تتمكن من معالجة الصور. تقوم نماذج محولات الرؤية الآن بمعالجة الصور عن طريق تحويلها إلى تنسيق تسلسلي. ومع ذلك، لا تزال شبكات CNN خيارًا فعالاً للغاية وكفؤًا للعديد من تطبيقات رؤية الحاسوب العملية.

ما هي الأنواع المختلفة لنماذج المحولات؟

تطورت المُحولات (Transformers) لتشمل مجموعة متنوعة من البنيات. فيما يلي بعض أنواع نماذج المحولات.

محولات ثنائية الاتجاه

تعمل تمثيلات التشفير ثنائية الاتجاه من نماذج المحولات (BERT) على تعديل البنية الأساسية لمعالجة الكلمات فيما يتعلق بجميع الكلمات الأخرى في الجملة بدلاً من العزلة. من الناحية الفنية، تستخدم آلية تسمى نموذج اللغة المخفي ثنائي الاتجاه (MLM). أثناء التدريب المسبق، يقوم BERT بإخفاء بعض النسبة المئوية من رموز الإدخال بشكل عشوائي ويتنبأ بهذه الرموز المخفية بناءً على سياقها. يأتي الجانب ثنائي الاتجاه من حقيقة أن BERT يأخذ في الاعتبار كل من التسلسلات الرمزية من اليسار إلى اليمين ومن اليمين إلى اليسار في كلتا الطبقتين لمزيد من الفهم.

المحولات التوليدية التي تم اختبارها مسبقًا

تستخدم نماذج GPT أجهزة فك تشفير المحولات التي تم اختبارها مسبقًا على مجموعة كبيرة من النصوص باستخدام أهداف نمذجة اللغة. إنها رجعية تلقائية (autoregressive)، مما يعني أنها تتراجع أو تتنبأ بالقيمة التالية في تسلسل بناءً على جميع القيم السابقة. باستخدام أكثر من 175 مليار معلمة، يمكن لنماذج GPT إنشاء تسلسلات نصية يتم تعديلها حسب النمط والنبرة. أطلقت نماذج GPT البحث في مجال الذكاء الاصطناعي نحو تحقيق الذكاء الاصطناعي العام. وهذا يعني أنه يمكن للمؤسسات الوصول إلى مستويات جديدة من الإنتاجية مع إعادة ابتكار تطبيقاتها وتجارب العملاء.

محولات ثنائية الاتجاه ورجعية تلقائية

المحول ثنائي الاتجاه والرجعي التلقائي (BART) هو نوع من نماذج المحولات التي تجمع بين الخصائص ثنائية الاتجاه والرجعية التلقائية. إنه مثل مزيج من مشفر BERT ثنائي الاتجاه ووحدة فك ترميز رجعية تلقائية لـ GPT. تقرأ تسلسل الإدخال بالكامل مرة واحدة وهو ثنائي الاتجاه مثل BERT. ومع ذلك، فإنه ينشئ تسلسل الإخراج رمزًا واحدًا في كل مرة، مشروطًا بالرموز المميزة التي تم إنشاؤها مسبقًا والمدخلات التي يوفرها برنامج التشفير.

محولات للمهام متعددة النماذج

تم تصميم نماذج المحولات متعددة النماذج مثل ViLBERT وVisualBERT للتعامل مع أنواع متعددة من بيانات الإدخال، عادةً النصوص والصور. تعمل على توسيع بنية المحول باستخدام شبكات البث المزدوج التي تعالج المدخلات المرئية والنصية بشكل منفصل قبل دمج المعلومات. هذا التصميم يمكّن النموذج من تعلم تمثيلات متعددة النماذج. على سبيل المثال، يستخدم ViLBERT طبقات المحولات ذات الاهتمام المشترك لتمكين التدفقات المنفصلة من التفاعل. إنه أمر بالغ الأهمية للحالات التي يكون فيها فهم العلاقة بين النص والصور أمرًا أساسيًا، مثل مهام الإجابة المرئية على الأسئلة.

محولات الرؤية

تقوم محولات الرؤية (ViT) بإعادة توظيف بنية المحول لمهام تصنيف الصور. بدلاً من معالجة الصورة كشبكة من وحدات البكسل، فإنها تعرض بيانات الصورة كسلسلة من التصحيحات ذات الحجم الثابت، على غرار الطريقة التي يتم بها التعامل مع الكلمات في الجملة. يتم تسطيح كل رقعة ودمجها خطيًا ثم معالجتها بالتتابع بواسطة برنامج تشفير المحول القياسي. تتم إضافة التضمين الموضعي للحفاظ على المعلومات المكانية. هذا الاستخدام للانتباه الذاتي العالمي يمكّن النموذج من تسجيل العلاقات بين أي زوج من التصحيحات، بغض النظر عن موضعها.

كيف يمكن لـ AWS دعم متطلبات نموذج المحول الخاص بك؟

تقدم Amazon Web Services (AWS) خدمات AI/ML التالية التي يمكنك استخدامها لمتطلبات نماذج المحولات الخاصة بك.

Amazon SageMaker JumpStart هو مركز ML حيث يمكنك الوصول إلى نماذج المحولات التي تم اختبارها مسبقًا لأداء مهام مثل تلخيص المقالات وإنشاء الصور. وتكون النماذج مسبقة التدريب مخصصة بالكامل لحالة استخدامك مع بياناتك، ويمكنك نشرها بسهولة في مرحلة الإنتاج من خلال واجهة المستخدم أو مجموعة تطوير البرمجيات (SDK).

Amazon Bedrock هي خدمة مُدارة بالكامل تقدم مجموعة مختارة من نماذج المحولات عالية الأداء من شركات الذكاء الاصطناعي الرائدة مثل AI21 Labs وAnthropic وCohere وMeta وStability AI وAmazon مع واجهة برمجة تطبيقات واحدة. بفضل المجموعة الواسعة من الإمكانات التي تحتاجها لإنشاء تطبيقات الذكاء الاصطناعي المولد، تعمل Amazon Bedrock على تبسيط عملية التطوير مع الحفاظ على الخصوصية والأمان. على سبيل المثال، يمكنك:

  • يمكنك بسهولة تجربة مجموعة متنوعة من أفضل نماذج التأسيس وتخصيصها بشكل خاص باستخدام بياناتك
  • قم بإنشاء وكلاء مُدارين يقومون بتنفيذ مهام الأعمال المعقدة، كل ذلك دون كتابة أي تعليمات برمجية
  • يمكنك دمج إمكانات الذكاء الاصطناعي المولد ونشرها بأمان في تطبيقاتك دون الحاجة إلى إدارة البنية التحتية

يمكنك أيضًا تدريب نماذج المحولات الخاصة بك بشكل أسرع باستخدام AWS Trainium، الجيل الثاني من مسرّع ML الذي صممته AWS خصيصًا للتدريب على التعلم العميق لنماذج المعلمات التي تزيد عن 100 مليار نموذج. يقوم كل مثيل Trn1 من مثيلات سحابة الحوسبة المرنة لـ Amazon‏ (Amazon EC2) بنشر ما يصل إلى 16 مسرّعًا من برامج Trainium لتقديم حل عالي الأداء ومنخفض التكلفة للتدريب على التعلم العميق في السحابة. 

ابدأ استخدام نماذج المحولات على AWS من خلال إنشاء حساب اليوم.

الخطوات التالية على AWS

التحقق من الموارد الإضافية المتعلقة بالمنتج
تسريع الابتكار مع أكبر مجموعة من خدمات تعلّم الآلة 
تسجيل الاشتراك للحصول على حساب مجاني

تمتع بالوصول الفوري إلى الطبقة المجانية من AWS.

تسجيل الاشتراك 
ابدأ في التطوير في وحدة التحكم

بدء الإنشاء في وحدة إدارة تحكم AWS.

تسجيل الدخول