สร้าง AI อย่างรับผิดชอบที่ AWS
การเติบโตอย่างรวดเร็วของ AI ช่วยสร้าง นำมาซึ่งนวัตกรรมใหม่ที่น่าสนใจและในขณะเดียวกันก็ทำให้เกิดความท้าทายใหม่ขึ้น ที่ AWS เรามุ่งมั่นที่จะพัฒนา AI อย่างรับผิดชอบ โดยใช้แนวทางที่มีผู้คนเป็นศูนย์กลางซึ่งให้ความสำคัญกับการศึกษา วิทยาศาสตร์ และลูกค้าของเรา เพื่อผสานรวม AI ที่รับผิดชอบในวงจรชีวิต AI แบบครบวงจร
![ภาพที่มีรูปร่างที่มีสีสัน](https://d1.awsstatic.com/products/generative-ai/Gen_AI_hub_tools_v2.04bef552d2c19e1d7b271a8acbf49b515125f369.jpg)
มิติหลักของ AI ที่มีความรับผิดชอบ
ความยุติธรรม
พิจารณาผลกระทบต่อกลุ่มผู้มีส่วนได้ส่วนเสียต่าง ๆ
ความสามารถในการอธิบาย
การทำความเข้าใจและประเมินเอาต์พุตของระบบ
ความเป็นส่วนตัวและความปลอดภัย
การได้รับ ใช้ และปกป้องข้อมูลรวมถึงแบบจำลองอย่างเหมาะสม
ความปลอดภัย
การป้องกันเอาต์พุตของระบบที่เป็นอันตรายและการใช้ที่ผิด
ความสามารถในการควบคุม
การมีกลไกเพื่อตรวจสอบและควบคุมพฤติกรรมระบบ AI
ความถูกต้องและความทนทาน
การบรรลุผลลัพธ์เอาต์พุตของระบบที่ถูกต้อง แม้จะมีอินพุตที่ไม่คาดคิดหรือเป็นคู่ปฏิปักษ์
การกำกับดูแล
การรวมแนวทางปฏิบัติที่ดีที่สุดเข้ากับห่วงโซ่อุปทาน AI รวมถึงผู้ให้บริการและผู้ที่นำไปใช้
ความโปร่งใส
ช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถตัดสินใจโดยมีข้อมูลเกี่ยวกับการมีส่วนร่วมกับระบบ AI
มิติหลักของ AI ที่รับผิดชอบ
ความยุติธรรม
พิจารณาผลกระทบต่อกลุ่มผู้มีส่วนได้ส่วนเสียต่าง ๆ
ความสามารถในการอธิบาย
การทำความเข้าใจและประเมินเอาต์พุตของระบบ
ความเป็นส่วนตัวและความปลอดภัย
การได้รับ ใช้ และปกป้องข้อมูลรวมถึงแบบจำลองอย่างเหมาะสม
ความปลอดภัย
การป้องกันเอาต์พุตของระบบที่เป็นอันตรายและการใช้ที่ผิด
ความสามารถในการควบคุม
การมีกลไกเพื่อตรวจสอบและควบคุมพฤติกรรมระบบ AI
ความถูกต้องและความทนทาน
การบรรลุผลลัพธ์เอาต์พุตของระบบที่ถูกต้อง แม้จะมีอินพุตที่ไม่คาดคิดหรือเป็นคู่ปฏิปักษ์
การกำกับดูแล
การรวมแนวทางปฏิบัติที่ดีที่สุดเข้ากับห่วงโซ่อุปทาน AI รวมถึงผู้ให้บริการและผู้ที่นำไปใช้
ความโปร่งใส
ช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถตัดสินใจโดยมีข้อมูลเกี่ยวกับการมีส่วนร่วมกับระบบ AI
บริการและเครื่องมือ
AWS นำเสนอบริการและเครื่องมือเพื่อช่วยให้คุณออกแบบ สร้าง และใช้งานระบบ AI อย่างมีความรับผิดชอบ
การใช้มาตรการป้องกันใน AI ช่วยสร้าง
Amazon Bedrock Guardrails ช่วยให้คุณสามารถนำมาตรการการป้องกันที่ปรับแต่งให้เหมาะกับแอปพลิเคชัน AI ช่วยสร้างของคุณและสอดคล้องกับนโยบาย AI ที่รับผิดชอบของคุณไปใช้ Guardrails ให้การป้องกันที่ปรับแต่งได้เพิ่มเติมนอกเหนือจากการป้องกันดั้งเดิมของ FM ส่งมอบการป้องกันด้านความปลอดภัยที่เป็นหนึ่งในสิ่งที่ดีที่สุดในอุตสาหกรรมโดย:
- การบล็อกเนื้อหาที่เป็นอันตรายมากถึง 85%
- การกรองการตอบสนองภาพหลอนมากกว่า 75% สำหรับ RAG และการสรุปเวิร์กโหลด
- ช่วยให้ลูกค้าสามารถปรับแต่งและใช้การป้องกันความปลอดภัย ความเป็นส่วนตัว และความจริงภายในโซลูชันเดียว
![เฉดสีของสายสตรีม](https://d1.awsstatic.com/products/generative-ai/responsbile-ai/guardrails-responsible-ai.bd4b58fdaad84cd64b8c1ed082c4187d2116d13f.jpg)
การประเมินโมเดลรากฐาน (FM)
การประเมินโมเดลบน Amazon Bedrock ช่วยให้คุณประเมิน เปรียบเทียบ และเลือก FM ที่ดีที่สุดสำหรับกรณีการใช้งานเฉพาะของคุณโดยอิงจากเมตริกการวัดที่กำหนดเอง เช่น ความแม่นยำ ความทนทาน และความเป็นพิษ นอกจากนี้ คุณยังสามารถใช้ Amazon SageMaker Clarify และ fmeval เพื่อการประเมินโมเดลได้อีกด้วย
![รูปร่างสีต่าง ๆ บนพื้นหลังสีน้ำเงิน](https://d1.awsstatic.com/bedrock-4b.1e05b79e3dffebc1be6e2514d5b4b46b96b5ff76.jpg)
การตรวจจับอคติและอธิบายการคาดการณ์
อคติคือความไม่สมดุลของข้อมูลหรือความไม่สมดุลในประสิทธิภาพของโมเดลในกลุ่มต่าง ๆ Amazon SageMaker Clarify ช่วยให้คุณบรรเทาอคติโดยการตรวจหาอคติที่อาจเกิดขึ้นระหว่างการเตรียมข้อมูล หลังการฝึกโมเดล และในโมเดลที่ปรับใช้ของคุณโดยการตรวจสอบคุณลักษณะเฉพาะ
การทำความเข้าใจพฤติกรรมของโมเดลเป็นสิ่งสำคัญในการพัฒนาโมเดลที่แม่นยำยิ่งขึ้นและตัดสินใจที่ดีขึ้น Amazon SageMaker Clarify ช่วยให้มองเห็นพฤติกรรมของโมเดลได้ชัดเจนยิ่งขึ้น เพื่อให้คุณสามารถมอบความโปร่งใสให้กับผู้ถือผลประโยชน์ แจ้งให้มนุษย์ทราบในการตัดสินใจ และติดตามว่าโมเดลทำงานตามที่ตั้งใจไว้หรือไม่
![ดีไซน์คลื่นสีฟ้าและสีเขียว](https://d1.awsstatic.com/products/generative-ai/responsbile-ai/pan-industry-studio-278-3x2.52eb958a12758be5b2dbdf4e4c152e39ec7335e9.jpg)
การเฝ้าตรวจสอบและการทบทวนตรวจสอบโดยมนุษย์
การเฝ้าตรวจสอบเป็นสิ่งสำคัญในการรักษารูปแบบแมชชีนเลิร์นนิ่ง (ML) ที่มีคุณภาพสูงและช่วยให้มั่นใจในการคาดการณ์ที่ถูกต้อง Amazon SageMaker Model Monitor ตรวจจับและแจ้งเตือนคุณโดยอัตโนมัติถึงการคาดการณ์ที่ไม่ถูกต้องจากโมเดลที่ใช้งาน และด้วย Amazon SageMaker Ground Truth คุณสามารถนำข้อเสนอแนะของมนุษย์ไปใช้ในวงจรชีวิต ML เพื่อปรับปรุงความแม่นยำและความเกี่ยวข้องของโมเดล
![วัตถุที่มีขนาดและรูปร่างที่แตกต่างกันบนสายพานลำเลียง](https://d1.awsstatic.com/products/generative-ai/responsbile-ai/monitoring-responsible-ai.68c6f9b03765c611b6e4e30bd96386578e206d2a.jpg)
ปรับปรุงการกำกับดูแลให้ดีขึ้น
ML Governance จาก Amazon SageMaker มอบเครื่องมือที่สร้างขึ้นโดยเฉพาะสำหรับการปรับปรุงการกำกับดูแลโครงการ ML ของคุณให้ดีขึ้นด้วยการให้คุณควบคุมและมองเห็นโมเดล ML ได้เข้มงวดยิ่งขึ้น คุณสามารถบันทึกและแชร์ข้อมูลโมเดล และคอยติดตามพฤติกรรมของโมเดล เช่น การมีอคติ ได้อย่างง่ายดายในที่เดียว
![รูปแบบนามธรรมของจุดที่เชื่อมต่อ](https://d1.awsstatic.com/products/generative-ai/responsbile-ai/Industry-AdobeStock-600083666-3x2.6bd66d0d4629e453be2930b349ca310c3e8f4ce3.jpg)
การ์ดบริการ AWS AI
AI Service Cards เป็นทรัพยากรที่ช่วยเพิ่มความโปร่งใสโดยให้คุณสามารถค้นหาข้อมูลเกี่ยวกับกรณีการใช้งานและข้อจำกัดที่ตั้งใจไว้ ตัวเลือกการออกแบบ AI ที่รับผิดชอบ และแนวทางปฏิบัติที่ดีที่สุดในการเพิ่มประสิทธิภาพการทำงานสำหรับบริการและโมเดล AI ของเราได้ในที่เดียว
![ภาพถ่ายทางอากาศของรถยนต์ที่กำลังขับบนสะพาน](https://d1.awsstatic.com/products/generative-ai/responsbile-ai/RAI_tools_P1-awsaiservicecards_3x2.ce670757715497ef88e61adf6b80b1535006b82f.jpg)