تعلن حواجز حماية Amazon Bedrock عن تطبيق قائم على السياسات للذكاء الاصطناعي المسؤول

:تاريخ النشر 18 مارس 2025

تعلن حواجز حماية Amazon Bedrock عن قدرات الإنفاذ القائمة على سياسة إدارة الهوية والوصول (IAM) لبناء تطبيقات الذكاء الاصطناعي المولّد الآمنة على نطاق واسع. تتيح هذه الميزة الجديدة للعملاء تطبيق حواجز حماية محددة على عمليات الاستدلال الجماعي، مما يضمن تطبيق سياسات الذكاء الاصطناعي المسؤول عبر جميع تفاعلات الذكاء الاصطناعي. توفر حواجز حماية Bedrock ضمانات قابلة للتكوين لتصفية المحتوى غير المرغوب فيه والضار عبر فئات مختلفة وهجمات سريعة، وعوامل تصفية مواضيع لتحديد مواضيع معينة ومنعها، وعوامل تصفية معلومات حساسة لحذف المعلومات المُعرّفة شخصيًا (PII)، ومرشحات كلمات لحظر كلمات معينة، واكتشاف الهلوسة الاصطناعية من خلال اكتشاف التأريض وأهمية استجابات النموذج إضافة إلى تحديد وتصحيح وشرح الادعاءات الواقعية في استجابات النموذج باستخدام "فحص الاستدلال المؤتمت". يمكن تطبيق حواجز حماية عبر أي نموذج أساسي، بما في ذلك تلك المستضافة مع Amazon Bedrock والنماذج المستضافة ذاتيًا والنماذج التابعة لجهات خارجية باستخدام واجهة برمجة تطبيقات ApplyGuardrail، مما يوفر تجربة مستخدم متسقة وتوحد عناصر التحكم في السلامة والخصوصية.

بدءًا من اليوم، توفر حواجز حماية Bedrock مفتاح الشرط الجديد Bedrock:GuardrailIdentifier الذي يمكن استخدامه في سياسات IAM لفرض استخدام حواجز حماية محددة مع السياسات المرتبطة بها. يمكن تطبيق مفتاح الشرط الجديد هذا على جميع واجهات برمجة تطبيقات Bedrock Invoke وConverse APIs. إذا كان حاجز الحماية الذي تم تكوينه في سياسة IAM الخاصة بك لا يتطابق مع حاجز الحماية المحدد، فسيتم رفض الطلب، مما يضمن الامتثال لسياسات الذكاء الاصطناعي المسؤول للمؤسسة.

الإنفاذ القائم على سياسة IAM للامتثال لسياسات الذكاء الاصطناعي المسؤولة متاح الآن في جميع مناطق AWS حيث يتم دعم حواجز حماية Bedrock اليوم.

لمعرفة المزيد، راجع الوثائق الفنية وصفحة منتج حواجز حماية Bedrock.