AWS Deep Learning AMI
การสร้างแอปพลิเคชันดีปเลิร์นนิงที่ปรับขนาดและปลอดภัยอย่างรวดเร็วในสภาพแวดล้อมที่กำหนดค่าล่วงหน้า
ปรับขนาดการฝึกฝนแมชชีนเลิร์นนิง (ML) แบบกระจายไปยังอินสแตนซ์เร่งความเร็วหลายพันอินสแตนซ์ และปรับใช้โมเดลสำหรับการใช้งานจริงได้อย่างราบรื่น
พัฒนาบนตัวเร่งความเร็ว รวมถึงซิลิคอนแบบกำหนดเองของ AWS และ Intel Habana ด้วยไดรเวอร์ เฟรมเวิร์ก ไลบรารี และเครื่องมือใหม่ล่าสุดต่างๆ
ลดความเสี่ยงด้วยอิมเมจเครื่องที่สามารถปรับแต่งได้และมีความเสถียรซึ่งได้รับแก้แพตช์อย่างสม่ำเสมอเพื่อแก้ไขช่องโหว่ด้านความปลอดภัยต่างๆ
ทำงานอย่างไร
AWS Deep Learning AMI (DLAMI) ช่วยให้ผู้ปฏิบัติงานและนักวิจัย ML มีชุดเฟรมเวิร์ก ความสัมพันธ์ และเครื่องมือที่ปลอดภัยและได้รับการดูแลจัดการเพื่อเร่งความเร็วให้ดีปเลิร์นนิ่งในระบบคลาวด์ Amazon Machine Images (AMI) ที่สร้างขึ้นมาสำหรับ Amazon Linux และ Ubuntu มาพร้อมกับ TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod และ Keras ที่มีการกำหนดค่าไว้ล่วงหน้า ซึ่งช่วยให้คุณสามารถปรับใช้และเรียกใช้เฟรมเวิร์กและเครื่องมือเหล่านี้ได้ตามขนาดที่ต้องการได้อย่างรวดเร็ว

กรณีการใช้งาน
การพัฒนายานพาหนะอัตโนมัติ
พัฒนาโมเดล ML ขั้นสูงตามขนาดที่เหมาะสมเพื่อพัฒนาเทคโนโลยียานพาหนะอัตโนมัติ (AV) อย่างปลอดภัย โดยตรวจสอบความถูกต้องของโมเดลต่างๆ ผ่านการทดสอบเสมือนที่รองรับหลายล้านครั้ง
การประมวลผลภาษาธรรมชาติ
เร่งการติดตั้งและกำหนดค่าอินสแตนซ์ AWS และเร่งความเร็วในการทดลองและการประเมินด้วยเฟรมเวิร์กและไลบรารีที่อัปเดต รวมถึง Hugging Face Transformers
การวิเคราะห์ข้อมูลการดูแลสุขภาพ
ใช้ความสามารถในการวิเคราะห์ขั้นสูง, ML และดีปเลิร์นนิงเพื่อระบุแนวโน้มและคาดการณ์จากข้อมูลดิบด้านสุขภาพที่แตกต่างกัน
การฝึกอบรมโมเดลแบบเร่งความเร็ว
DLAMI มีตัวเร่ง NVIDIA GPU รุ่นล่าสุดผ่านไดรเวอร์ที่กำหนดค่าไว้ล่วงหน้า Intel Math Kernel Library (MKL) แพ็คเกจ Python และแพลตฟอร์ม Anaconda
วิธีเริ่มต้น
ดูวิธีที่คุณสามารถเร่งความเร็วในการฝึกโมเดล
เรียนรู้ว่า DLAMI เร่งการพัฒนาและฝึกโมเดลของคุณได้อย่างไร
สำรวจ AMI
เลือก AMI และประเภทอินสแตนซ์ที่ถูกต้องสำหรับโปรเจกต์ของคุณ
เข้าร่วมการฝึกปฏิบัติจริง
เริ่มสร้างด้วยบทแนะนำสอนการใช้งาน 10 นาที