- المنتجات›
- الذكاء الاصطناعي›
- الذكاء الاصطناعي المسؤول
تحويل الذكاء الاصطناعي المسؤول من النظرية إلى التطبيق
تعزيز التطوير الآمن والمسؤول للذكاء الاصطناعي كقوة للخير
بناء الذكاء الاصطناعي بمسؤولية في AWS
يجلب النمو السريع للذكاء الاصطناعي المولّد ابتكارًا جديدًا واعدًا، وفي الوقت نفسه، يثير تحديات جديدة. في AWS، نحن ملتزمون بتطوير الذكاء الاصطناعي بمسؤولية، باتباع نهج يركز على الأشخاص ويعطي الأولوية للتعليم والعلوم وعملائنا - لدمج الذكاء الاصطناعي المسؤول عبر دورة حياة الذكاء الاصطناعي.
الأبعاد الأساسية في الذكاء الاصطناعي المسؤول
العدالة والإنصاف
مراعاة التأثيرات التي تقع على مجموعات مختلفة من أصحاب المصلحة
القابلية للتفسير
فهم مخرجات النظام وتقييمها
الخصوصية والأمان
الحصول على البيانات والنماذج واستخدامها وحمايتها على النحو المناسب
الأمان
منع مخرجات النظام الضارة والحيلولة دون إساءة استخدام النظام
قابلية التحكم
وجود آليات تعمل على مراقبة سلوك نظام الذكاء الاصطناعي وتوجيهه
الصحة والمتانة
استخلاص مخرجات صحيحة من النظام، حتى في حالة وجود مدخلات غير متوقعة أو مدخلات عدائية تنافسية
الحوكمة
دمج أفضل الممارسات في سلسلة توريد الذكاء الاصطناعي، بما في ذلك مقدمي الخدمات والناشرين
الشفافية
تمكين أصحاب المصلحة من اتخاذ خيارات واعية بشأن تفاعلهم مع نظام الذكاء الاصطناعي
الخدمات والأدوات
تقدم AWS خدمات وأدوات لمساعدتك في تصميم أنظمة الذكاء الاصطناعي وبنائها وتشغيلها بمسؤولية.
تنفيذ الضمانات في الذكاء الاصطناعي المولّد
تساعدك حواجز الحماية في Amazon Bedrock على تنفيذ إجراءات حماية مصممة خصيصًا لتطبيقات الذكاء الاصطناعي المولّد ومتوافقة مع سياسات الذكاء الاصطناعي المسؤولة لديك. توفر حواجز الحماية (Guardrails) ضمانات إضافية قابلة للتخصيص بالإضافة إلى الحماية الأصلية لنماذج التأسيس (FMs)، مما يوفر حماية السلامة التي تعد من بين الأفضل في الصناعة من خلال:
- حظر ما يصل إلى 85% من المحتوى الضار
- تصفية أكثر من 75% من الردود التي تحتوي على هلوسة لأحمال عمل RAG والتلخيص
- تمكين العملاء من تخصيص وتطبيق حماية السلامة والخصوصية والصدق ضمن حل واحد
تقييمات نموذج التأسيس (FM)
يساعدك تقييم النموذج على Amazon Bedrock على تقييم ومقارنة واختيار أفضل نماذج التأسيس (FMs) لحالة الاستخدام المحددة استنادًا إلى مقاييس مخصصة، مثل الدقة والمتانة وكشف المحتوى الضار. يمكنك أيضًا استخدام Amazon SageMaker Clarify وfemval لتقييم النموذج.
اكتشاف التحيز وشرح التنبؤات
التحيزات هي اختلالات في البيانات أو تفاوتات في أداء النموذج عبر المجموعات المختلفة. تساعدك Amazon SageMaker Clarify على تخفيف التحيز من خلال اكتشاف التحيز المحتمل أثناء إعداد البيانات، وبعد التدريب على النموذج، وفي النموذج المنشور عن طريق فحص سمات محددة.
يعد فهم سلوك النموذج أمرًا مهمًا لتطوير نماذج أكثر دقة واتخاذ قرارات أفضل. توفر Amazon SageMaker Clarify رؤية أكبر لسلوك النموذج، حتى تتمكن من توفير الشفافية لأصحاب المصلحة، وإبلاغ البشر الذين يتخذون القرارات، وتتبع ما إذا كان النموذج يعمل على النحو المنشود.
المراقبة والمراجعة البشرية
المراقبة مهمة للحفاظ على نماذج تعلّم الآلة (ML) عالية الجودة والمساعدة في ضمان التنبؤات الدقيقة. يقوم مُراقب نموذج Amazon SageMaker تلقائيًا باكتشاف وتنبيهك إلى التنبؤات غير الدقيقة من النماذج المنشورة. وباستخدام Amazon SageMaker Ground Truth، يمكنك تطبيق الملاحظات البشرية عبر دورة حياة تعلم الآلة لتحسين دقة النماذج وملاءمتها.
تحسين الحوكمة
توفر حوكمة تعلم الآلة (ML) من Amazon SageMaker أدوات مصممة خصيصًا لتحسين إدارة مشاريع تعلم الآلة من خلال منحك تحكمًا ورؤية أكثر إحكامًا لنماذج تعلم الآلة. يمكنك بسهولة التقاط معلومات النموذج ومشاركتها والبقاء على اطلاع على سلوك النموذج، مثل التحيز، كل ذلك في مكان واحد.
بطاقات خدمة الذكاء الاصطناعي AWS
تعد بطاقات خدمة الذكاء الاصطناعي موردًا لتعزيز الشفافية من خلال تزويدك بمكان واحد للعثور على معلومات حول حالات الاستخدام والقيود المقصودة، وخيارات تصميم الذكاء الاصطناعي المسؤول، وأفضل ممارسات تحسين الأداء لخدمات ونماذج الذكاء الاصطناعي.
المساهمة المجتمعية والتعاون
من خلال المشاركة العميقة مع المنظمات متعددة أصحاب المصلحة مثل مجموعات العمل المعنية بالذكاء الاصطناعي التابعة لمنظمة التعاون الاقتصادي والتنمية (OECD AI)، والشراكة في مجال الذكاء الاصطناعي، ومعهد الذكاء الاصطناعي المسؤول، بالإضافة إلى الشراكات الاستراتيجية مع الجامعات على نطاق عالمي، نحن ملتزمون بالعمل مع الآخرين لتطوير تكنولوجيا الذكاء الاصطناعي وتعلم الآلة بمسؤولية وبناء الثقة.
نحن نتبع نهجًا يركز على الأشخاص لتعليم الجيل القادم من قادة الذكاء الاصطناعي من خلال برامج مثل برنامج AI & ML للمنح الدراسية وWe Power Tech لزيادة الوصول إلى التعلم العملي والمنح الدراسية والإرشاد لغير الحاصلين على فرصة في مجال التكنولوجيا.
يشمل استثمارنا في الذكاء الاصطناعي المولّد الآمن والشفاف والمسؤول التعاون مع المجتمع العالمي وصناع السياسات، بما في ذلك مدونة قواعد السلوك لعملية هيروشيما للذكاء الاصطناعي التابعة لمجموعة السبع (G7)، وقمة سلامة الذكاء الاصطناعي في المملكة المتحدة، ودعم معيار ISO 42001 الجديد الذي يُعد معيارًا أساسيًا لتطوير الذكاء الاصطناعي المسؤول. نحن ندعم تطوير أطر تنظيمية فعالة قائمة على المخاطر للذكاء الاصطناعي تحمي الحقوق المدنية، مع السماح بالابتكار المستمر.
يعد الذكاء الاصطناعي المسؤول مجالًا نشطًا للبحث والتطوير في Amazon. لدينا شراكات استراتيجية مع الأوساط الأكاديمية، مثل معهد كاليفورنيا للتكنولوجيا ومع Amazon Scholars، بما في ذلك الخبراء الرائدين الذين يطبقون أبحاثهم الأكاديمية للمساعدة في تشكيل مسارات عمل للذكاء الاصطناعي المسؤول في Amazon.
نحن نبتكر مع عملائنا - ونبقى في طليعة التوجهات الجديدة والأبحاث لتقديم القيمة - من خلال المنح البحثية المستمرة عبر جوائز Amazon Research والمنشورات العلمية مع Amazon Science. تعرف على المزيد حول العلم لبناء الذكاء الاصطناعي المولّد بمسؤولية في مدونة Amazon Science هذه التي تكشف أهم التحديات والحلول الناشئة.