ย้ายไปยัง Amazon RDS ที่มีการจัดการ ดูว่า Amazon Aurora และ RDS มอบการจัดการและนวัตกรรมฐานข้อมูลแบบเชิงสัมพันธ์ที่ราบรื่นได้อย่างไร: อ่านบล็อก
ประเภทอินสแตนซ์ Amazon EC2
Amazon EC2 มีอินสแตนซ์หลายประเภทที่เพิ่มประสิทธิภาพให้รองรับกรณีใช้งานต่างๆ ประเภทอินสแตนซ์ประกอบด้วยการรวมส่วนต่างๆ ที่หลากหลายของ CPU, หน่วยความจำ, พื้นที่จัดเก็บ และความสามารถด้านเครือข่าย แล้วให้คุณมีความยืดหยุ่นในการเลือกผสมทรัพยากรให้แก่แอปพลิเคชันของคุณตามความเหมาะสม อินสแตนซ์แต่ละประเภทมี 1 ขนาดขึ้นไป ซึ่งช่วยให้คุณสามารถปรับขนาดทรัพยากรต่างๆ ให้ตรงกับข้อกำหนดของเวิร์กโหลดเป้าหมายได้
งานทั่วไป
อินสแตนซ์สำหรับงานทั่วไปมีการประมวลผล หน่วยความจำ และทรัพยากรระบบเครือข่ายที่สมดุล และใช้งานได้กับปริมาณงานต่างๆ หลากหลาย อินสแตนซ์เหล่านี้เหมาะสำหรับแอปพลิเคชันที่ใช้ทรัพยากรเหล่านี้ในสัดส่วนเท่า ๆ กัน เช่น เว็บเซิร์ฟเวอร์และคลังเก็บโค้ด
-
M8g
-
M7g
-
M7i
-
M7i-flex
-
M7a
-
Mac
-
M6g
-
M6i
-
M6in
-
M6a
-
M5
-
M5n
-
M5zn
-
M5a
-
M4
-
T4g
-
T3
-
T3a
-
T2
-
M8g
-
อินสแตนซ์ Amazon EC2 M8g ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ซึ่งมีประสิทธิภาพด้านราคาดีที่สุดใน Amazon EC2 สำหรับเวิร์กโหลดที่เน้นการใช้งานทั่วไป
ฟีเจอร์:
- ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ขนาดอินสแตนซ์ที่ใหญ่ขึ้น พร้อม vCPU และหน่วยความจํามากกว่าอินสแตนซ์ M7g สูงสุดถึง 3 เท่า
- มีหน่วยความจํา DDR5-5600 รุ่นล่าสุด
- ปรับมาให้เหมาะสําหรับ Amazon EBS โดยค่าเริ่มต้น
- รองรับ Elastic Fabric Adapter (EFA) บน m8g.24xlarge, m8g.48xlarge, m8g.metal-24xl และ m8g.metal-48xl
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนวิดท์ Amazon EBS (Gbps) m8g.medium
1
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m8g.large
2
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m8g.xlarge
4
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m8g.2xlarge
8
32
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
m8g.4xlarge
16
64
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
m8g.8xlarge
32
128
EBS เท่านั้น
15
10
m8g.12xlarge
48
192
EBS เท่านั้น
22.5
15
m8g.16xlarge
64
256
EBS เท่านั้น
30
20
m8g.24xlarge
96
384
EBS เท่านั้น
40
30
m8g.48xlarge
192
768
EBS เท่านั้น
50
40
m8g.metal-24xl
96
384
EBS เท่านั้น
40
30
m8g.metal-48xl
192
768
EBS เท่านั้น
50
40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ปรับมาให้เหมาะสําหรับ Amazon EBS
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
แอปพลิเคชันที่สร้างบนซอฟต์แวร์โอเพ่นซอร์ส เช่น เซิร์ฟเวอร์แอปพลิเคชัน ไมโครเซอร์วิส เซิร์ฟเวอร์เกม พื้นที่จัดเก็บข้อมูลขนาดกลาง และกลุ่มอินสแตนซ์การแคช
-
M7g
-
อินสแตนซ์ Amazon EC2 M7g ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3 ที่ใช้ Arm เหมาะอย่างยิ่งสำหรับการใช้งานทั่วไป
ฟีเจอร์:
- ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3 แบบกำหนดเอง
- มีหน่วยความจำ DDR5 รุ่นล่าสุดที่มีแบนด์วิดท์เพิ่มขึ้น 50% เมื่อเทียบกับ DDR4
- แบนวิดท์เครือข่ายที่ดีกว่าอินสแตนซ์ M6g ถึง 20%
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ M7gd SSD ที่ใช้ NVMe ในเครื่องจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมอบพื้นที่เก็บข้อมูลระดับบล็อกที่สัมพันธ์กับอายุการใช้งานของอินสแตนซ์
- รองรับ Elastic Fabric Adapter (EFA) บนอินสแตนซ์ m7g.16xlarge, m7g.metal, m7gd.16xlarge และ m7gd.metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) m7g.medium
1
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7g.large
2
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7g.xlarge
4
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7g.2xlarge
8
32
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
m7g.4xlarge
16
64
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
m7g.8xlarge
32
128
EBS เท่านั้น
15
10
m7g.12xlarge
48
192
EBS เท่านั้น
22.5
15
m7g.16xlarge
64
256
EBS เท่านั้น
30
20
m7g.metal
64
256
EBS เท่านั้น
30
20
m7gd.medium
1
4
1 x 59 NVMe SSD
สูงสุด 12.5
สูงสุด 10
m7gd.large
2
8
1 x 118 NVMe SSD
สูงสุด 12.5
สูงสุด 10
m7gd.xlarge
4
16
1 x 237 NVMe SSD
สูงสุด 12.5
สูงสุด 10
m7gd.2xlarge
8
32
1 x 474 NVMe SSD
สูงสุด 15
สูงสุด 10
m7gd.4xlarge
16
64
1 x 950 NVMe SSD
สูงสุด 15
สูงสุด 10
m7gd.8xlarge
32
128
1 x 1900 NVMe SSD
15
10
m7gd.12xlarge
48
192
2 x 1425 NVMe SSD
22.5
15
m7gd.16xlarge
64
256
2 x 1900 NVMe SSD
30
20
m7gd.metal
64
256
2 x 1900 NVMe SSD
30
20
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton3 แบบกำหนดเองที่มีแกนประมวลผล Arm แบบ 64 บิต
- EBS แบบเพิ่มประสิทธิภาพ
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
แอปพลิเคชันที่สร้างบนซอฟต์แวร์โอเพนซอร์ส เช่น เซิร์ฟเวอร์แอปพลิเคชัน ไมโครเซอร์วิส เซิร์ฟเวอร์เกม พื้นที่จัดเก็บข้อมูลขนาดกลาง และกลุ่มอินสแตนซ์การแคช
-
M7i
-
อินสแตนซ์ Amazon EC2 M7i ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 และมอบประสิทธิภาพด้านราคาที่ดีขึ้น 15% เมื่อเทียบกับอินสแตนซ์ M6i
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 ความถี่สูงสุด 3.2 GHz (Sapphire Rapids 8488C)
- Advance Matrix Extension (AMX) ใหม่ช่วยเร่งความเร็วในการดำเนินการคูณเมทริกซ์
- 2 ขนาด Metal: m7i.metal-24xl และ m7i.metal-48xl
- ตัวเร่งแบบแยกส่วนที่มีมาในตัว (พร้อมใช้งานในขนาด M7i Bare Metal เท่านั้น) ได้แก่ตัวเร่งการทำ Data Stream (DSA), ตัวเร่งการวิเคราะห์แบบใช้หน่วยความจำ (IAA) และ QuickAssist Technology (QAT) ช่วยให้ลดภาระการประมวลผลได้อย่างมีประสิทธิภาพ และเร่งความเร็วในการดำเนินการกับข้อมูลซึ่งช่วยในการเพิ่มประสิทธิภาพให้กับฐานข้อมูล การเข้ารหัสและการบีบอัด และเวิร์กโหลดการจัดการคิว
- หน่วยความจำ DDR5 รุ่นล่าสุด ซึ่งมีแบนวิดท์มากขึ้นเมื่อเทียบกับ DDR4
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับไฟล์แนบโวลุ่ม EBS สูงสุด 128 EBS ต่ออินสแตนซ์
- vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 768 GiB
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) m7i.large
2
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i.xlarge
4
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i.2xlarge
8
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i.4xlarge
16
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i.8xlarge
32
128
EBS เท่านั้น
12.5
10
m7i.12xlarge
48
192
EBS เท่านั้น
18.75
15
m7i.16xlarge
64
256
EBS เท่านั้น
25
20
m7i.24xlarge
96
384
EBS เท่านั้น
37.5
30
m7i.48xlarge
192
768
EBS เท่านั้น
50
40
m7i.metal-24xl
96
384
EBS เท่านั้น
37.5
30
m7i.metal-48xl
192
768
EBS เท่านั้น
50
40
กรณีการใช้งาน
อินสแตนซ์ M7i เหมาะอย่างยิ่งสำหรับเวิร์กโหลดทั่วไป โดยเฉพาะเวิร์กโหลดที่ต้องการพื้นที่ขนาดใหญ่หรือมีการใช้งาน CPU สูงอย่างต่อเนื่อง เช่น เซิร์ฟเวอร์แอปพลิเคชันขนาดใหญ่ ฐานข้อมูลขนาดใหญ่ เซิร์ฟเวอร์เกม แมชชีนเลิร์นนิงที่ใช้ CPU และการสตรีมวิดีโอ -
M7i-flex
-
อินสแตนซ์ Amazon EC2 M7i-flex ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 และมอบประสิทธิภาพด้านราคาที่ดีขึ้น 19% เมื่อเทียบกับอินสแตนซ์ M6i
คุณสมบัติ:
- วิธีที่ง่ายที่สุดที่จะช่วยให้คุณได้รับประสิทธิภาพด้านราคาและประหยัดค่าใช้จ่ายในระบบคลาวด์สำหรับเวิร์กโหลดทั่วไปส่วนใหญ่ของคุณ
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 ความถี่สูงสุด 3.2 GHz (Sapphire Rapids 8488C)
- Advance Matrix Extensions (AMX) ใหม่ช่วยเร่งความเร็วในการดำเนินการคูณเมทริกซ์
- หน่วยความจำ DDR5 รุ่นล่าสุด ซึ่งมีแบนด์วิธมากขึ้นเมื่อเทียบกับ DDR4
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) m7i-flex.large
2
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i-flex.xlarge
4
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i-flex.2xlarge
8
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i-flex.4xlarge
16
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7i-flex.8xlarge
32
128
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
กรณีการใช้งาน
อินสแตนซ์ M7i-flex เป็นตัวเลือกแรกที่ดีในการช่วยให้เรียกใช้เวิร์กโหลดทั่วไปส่วนใหญ่ได้อย่างราบรื่น เช่น เซิร์ฟเวอร์เว็บและแอปพลิเคชัน เดสก์ท็อปเสมือน การประมวลผลแบบกลุ่ม ไมโครเซอร์วิส ฐานข้อมูล และแอปพลิเคชันระดับองค์กร -
M7a
-
อินสแตนซ์ Amazon EC2 M7a ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC รุ่นที่ 4 ให้ประสิทธิภาพที่สูงขึ้นถึง 50% เมื่อเทียบกับอินสแตนซ์ M6a
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 4 ที่มีความถี่สูงสุด 3.7 GHz (AMD EPYC 9R14)
- แบนวิดท์เครือข่ายสูงสุด 50 Gbps
- แบนวิดท์สูงสุด 40 Gbps สำหรับ Amazon Elastic Block Store (Amazon EBS)
- ขนาดอินสแตนซ์พร้อม vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 768 GiB
- อินสแตนซ์ที่ได้รับการรับรองจาก SAP
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดตลอดเวลาโดยใช้การเข้ารหัสหน่วยความจำที่ปลอดภัยของ AMD (SME)
- รองรับความสามารถใหม่ของหน่วยประมวลผลกลาง เช่น AVX3-512, VNNI และ bfloat16
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) m7a.medium
1
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7a.large
2
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7a.xlarge
4
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7a.2xlarge
8
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7a.4xlarge
16
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
m7a.8xlarge
32
128
EBS เท่านั้น
12.5
10
m7a.12xlarge
48
192
EBS เท่านั้น
18.75
15
m7a.16xlarge
64
256
EBS เท่านั้น
25
20
m7a.24xlarge
96
384
EBS เท่านั้น
37.5
30
m7a.32xlarge
128
512
EBS เท่านั้น
50
40
m7a.48xlarge
192
768
EBS เท่านั้น
50
40
m7a.metal-48xl
192
768
EBS เท่านั้น
50
40
กรณีใช้งาน
แอปพลิเคชันที่ได้รับประโยชน์จากประสิทธิภาพสูงและมีอัตราการโอนถ่ายข้อมูลที่สูง เช่น แอปพลิเคชันทางการเงิน เซิร์ฟเวอร์แอปพลิเคชัน การสร้างแบบจำลอง เกม ดาต้าสโตร์ขนาดกลาง สภาพแวดล้อมการพัฒนาแอปพลิเคชัน และกลุ่มอินสแตนซ์การแคช
-
Mac
-
อินสแตนซ์ Amazon EC2 Mac ช่วยให้คุณสามารถทำงานเวิร์กโหลดของ macOS ตามต้องการได้บนระบบคลาวด์ เพื่อเพิ่มความยืดหยุ่น ความสามารถในการปรับขนาด และผลประโยชน์ที่ได้รับจากค่าใช้จ่ายของ AWS ให้กับนักพัฒนา Apple ทุกคน การใช้อินสแตนซ์ EC2 Mac จะทำให้คุณสามารถสร้างแอปสำหรับ iPhone, iPad, Mac, Vision Pro, Apple Watch, Apple TV และ Safari อินสแตนซ์เหล่านี้ทำให้นักพัฒนาสามารถเข้าถึง macOS เพื่อพัฒนา สร้าง ทดสอบ และลงนามแอปพลิเคชันที่ต้องใช้ Xcode IDE ได้ อินสแตนซ์ EC2 Mac เป็นอินสแตนซ์เฉพาะแบบ Bare Metal ที่เข้าถึงได้ในคอนโซล EC2 และผ่าน AWS Command Line Interface ในฐานะ Dedicated Host
อินสแตนซ์ EC2 Mac ที่ใช้ x86 ทำงานโดยใช้การผสมผสานคอมพิวเตอร์ Mac mini ซึ่งประกอบด้วย
- ตัวประมวลผล Intel’s 8th generation 3.2 GHz (4.6 GHz turbo) Core i7
- 6 แกนประมวลผลจริงและ 12 แกนประมวลผลเชิงตรรกะ
- หน่วยความจำ 32 GiB
- ที่จัดเก็บข้อมูลของอินสแตนซ์พร้อมใช้งานผ่าน Amazon Elastic Block Store (EBS)
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) mac1.metal 12 32 EBS เท่านั้น 10 8 อินสแตนซ์ EC2 M1 Mac ทำงานโดยใช้การผสมผสานคอมพิวเตอร์ Apple silicon Mac mini ซึ่งประกอบด้วย
- ชิป Apple M1 พร้อม CPU แบบ 8 core
- GPU แบบ 8 core
- หน่วยความจำ 16 GiB
- Apple Neural Engine แบบ 16 core
- ที่จัดเก็บข้อมูลของอินสแตนซ์พร้อมใช้งานผ่าน Amazon Elastic Block Store (EBS)
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) mac2.metal 8 16 EBS-เท่านั้น 10 8 อินสแตนซ์ EC2 M1 Ultra Mac ขับเคลื่อนด้วยคอมพิวเตอร์ Mac Studio ที่ใช้ชิปซิลิคอน Apple ร่วมกัน ซึ่งมีคุณสมบัติดังนี้:
- ชิป Apple M1 Ultra ที่มีแกน CPU 20 core
- GPU แบบ 64 core
- หน่วยความจำ 128 GiB
- Apple Neural Engine แบบ 32 core
- ที่จัดเก็บข้อมูลของอินสแตนซ์พร้อมใช้งานผ่าน Amazon Elastic Block Store (EBS)
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ แบนด์วิดท์เครือข่าย (Gbps) แบนวิดท์ EBS (Gbps) mac2-m1ultra.metal 20 128 EBS เท่านั้น 10 8 อินสแตนซ์ EC2 M2 Mac ทำงานโดยใช้การผสมผสานคอมพิวเตอร์ Apple silicon Mac mini ซึ่งประกอบด้วย
- ชิป Apple M2 พร้อม CPU แบบ 8 core
- GPU แบบ 10 core
- หน่วยความจำ 24 GiB
- Apple Neural Engine แบบ 16 core
- ที่จัดเก็บข้อมูลของอินสแตนซ์พร้อมใช้งานผ่าน Amazon Elastic Block Store (EBS)
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) mac2-m2.metal 8 24 EBS เท่านั้น 10 8 อินสแตนซ์ EC2 M2 Pro Mac ทำงานโดยใช้การผสมผสานคอมพิวเตอร์ Apple silicon Mac mini ซึ่งประกอบด้วย
- ชิป Apple M2 Pro พร้อมแกน CPU 12 คอร์
- GPU แบบ 19 core
- หน่วยความจำ 32 GiB
- Apple Neural Engine แบบ 16 core
- ที่จัดเก็บข้อมูลของอินสแตนซ์พร้อมใช้งานผ่าน Amazon Elastic Block Store (EBS)
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) mac2-m2pro.metal 12 32 EBS เท่านั้น 10 8 กรณีการใช้งาน
การพัฒนา การสร้าง การทดสอบ และการลงนามแอปพลิเคชัน iOS, iPadOS, macOS, visionOS, WatchOS และ tvOS บน Xcode IDE
-
M6g
-
อินสแตนซ์ Amazon EC2 M6g ขับเคลื่อนโดยตัวประมวลผล AWS Graviton2 แบบ Arm อินสแตนซ์เหล่านี้มอบประสิทธิภาพ/ราคาที่ดีกว่าอินสแตนซ์ M5 รุ่นปัจจุบันได้สูงสุดถึง 40% รวมถึงยังให้ความสมดุลในการประมวลผล หน่วยความจำ และทรัพยากรเครือข่ายสำหรับปริมาณงานที่หลากหลาย
คุณสมบัติ:
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- รองรับ Enhanced Networking โดยมีแบนด์วิดท์เครือข่ายสูงสุด 25 Gbps
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ M6gd ดิสก์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) m6g.medium 1 4 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m6g.large 2 8 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m6g.xlarge 4 16 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m6g.2xlarge 8 32 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m6g.4xlarge 16 64 EBS เท่านั้น สูงสุด 10 4,750 m6g.8xlarge 32 128 EBS เท่านั้น 12 9,000 m6g.12xlarge 48 192 EBS เท่านั้น 20 13,500 m6g.16xlarge 64 256 EBS เท่านั้น 25 19,000 m6g.metal 64 256 EBS เท่านั้น 25 19,000 m6gd.medium 1 4 1 x 59 NVMe SSD สูงสุด 10 สูงสุด 4,750 m6gd.large 2 8 1 x 118 NVMe SSD สูงสุด 10 สูงสุด 4,750 m6gd.xlarge 4 16 1 x 237 NVMe SSD สูงสุด 10 สูงสุด 4,750 m6gd.2xlarge 8 32 1 x 474 NVMe SSD สูงสุด 10 สูงสุด 4,750 m6gd.4xlarge 16 64 1 x 950 NVMe SSD สูงสุด 10 4,750 m6gd.8xlarge 32 128 1 x 1900 NVMe SSD 12 9,000 m6gd.12xlarge 48 192 2 x 1425 NVMe SSD 20 13,500 m6gd.16xlarge 64 256 2 x 1900 NVMe SSD 25 19,000 m6gd.metal 64 256 2 x 1900 NVMe SSD 25 19,000 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
แอปพลิเคชันที่สร้างบนซอฟต์แวร์โอเพนซอร์ส เช่น เซิร์ฟเวอร์แอปพลิเคชัน ไมโครเซอร์วิส เซิร์ฟเวอร์เกม พื้นที่จัดเก็บข้อมูลขนาดกลาง และฟลีตการแคช
-
M6i
-
อินสแตนซ์ Amazon EC2 M6i ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 (Ice Lake) อินสแตนซ์กลุ่มนี้มีความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และเครือข่าย รวมทั้งเป็นตัวเลือกที่ดีสำหรับแอปพลิเคชันจำนวนมาก
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- ประสิทธิภาพการประมวลผลที่มีความคุ้มค่ามากขึ้นถึง 15% เมื่อเทียบกับอินสแตนซ์ M5
- แบนด์วิดท์หน่วยความจำต่อ vCPU สูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ M5
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนวิดท์สูงสุด 40 Gbps สำหรับ Amazon Elastic Block Store (EBS)
- ขนาดอินสแตนซ์ใหม่ (32xlarge) ที่มี vCPU 128 รายการและหน่วยความจำ 512 GiB
- รองรับ Elastic Fabric Adapter ในขนาด 32xlarge และ metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการประมวลผลอัลกอริทึมเข้ารหัสลับที่เร็วยิ่งขึ้น
- เมื่อใช้อินสแตนซ์ M6id ไดรฟ์ SSD แบบใช้ NVMe ภายในความจุสูงสุด 7.6 TB จะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์ และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ M6i
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) m6i.large 2 8 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6i.xlarge 4 16 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6i.2xlarge 8 32 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6i.4xlarge 16 64 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6i.8xlarge 32 128 EBS เท่านั้น 12.5 10 m6i.12xlarge 48 192 EBS เท่านั้น 18.75 15 m6i.16xlarge 64 256 EBS เท่านั้น 25 20 m6i.24xlarge 96 384 EBS เท่านั้น 37.5 30 m6i.32xlarge 128 512 EBS เท่านั้น 50 40 m6i.metal 128 512 EBS เท่านั้น 50 40 m6id.large 2 8 1x118 NVMe SSD สูงสุด 12.5 สูงสุด 10 m6id.xlarge 4 16 1x237 NVMe SSD สูงสุด 12.5 สูงสุด 10 m6id.2xlarge 8 32 1x474 NVMe SSD สูงสุด 12.5 สูงสุด 10 m6id.4xlarge 16 64 1x950 NVMe SSD สูงสุด 12.5 สูงสุด 10 m6id.8xlarge 32 128 1x1900 NVMe SSD 12.5 10 m6id.12xlarge 48 192 2x1425 NVMe SSD 18.75 15 m6id.16xlarge 64 256 2x1900 NVMe SSD 25 20 m6id.24xlarge 96 384 4x1425 NVMe SSD 37.5 30 m6id.32xlarge 128 512 4x1900 NVMe SSD 50 40 m6id.metal 128 512 4x1900 NVMe SSD 50 40 กรณีการใช้งาน
อินสแตนซ์เหล่านี้ได้รับการรับรอง SAP และเหมาะสำหรับเวิร์กโหลด เช่น เซิร์ฟเวอร์หลังบ้านที่สนับสนุนแอปพลิเคชันองค์กร (เช่น Microsoft Exchange และ SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server และฐานข้อมูล PostgreSQL) เซิร์ฟเวอร์เกม กลุ่มอินสแตนซ์การแคช และสภาพแวดล้อมการพัฒนาแอปพลิเคชัน
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
-
M6in
-
Amazon EC2 M6in และอินสแตนซ์ M6idn เหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่เน้นเครือข่าย เช่น เซิร์ฟเวอร์ส่วนหลัง องค์กร เซิร์ฟเวอร์เกม และแอปพลิเคชันแคชกลุ่มอินสแตนซ์ ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 (Ice Lake) ที่มีความถี่เทอร์โบแบบ All-Core ที่ 3.5 GHz แบนด์วิดท์เครือข่ายสูงสุด 200 Gbps และแบนด์วิดท์ Amazon EBS สูงสุด 80 Gbps
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- แบนด์วิดท์หน่วยความจำต่อ vCPU สูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ M5n และ M5dn
- ความเร็วเครือข่ายสูงสุด 200 Gbps ซึ่งเพิ่มขึ้นถึง 2 เท่าเมื่อเทียบกับอินสแตนซ์ M5n และ M5dn
- แบนวิดท์ EBS สูงสุด 100 Gbps ซึ่งเพิ่มขึ้นถึง 5.2 เท่าเมื่อเทียบกับอินสแตนซ์ M5n และ M5dn
- EFA รองรับขนาด 32xlarge และ metal
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการประมวลผลอัลกอริทึมเข้ารหัสลับที่เร็วยิ่งขึ้น
- เมื่อใช้อินสแตนซ์ M6idn ไดรฟ์ SSD แบบใช้ NVMe ภายในความจุสูงสุด 7.6 TB จะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์ และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ M6idn
- ขับเคลื่อนด้วย AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
อินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) m6in.large 2 8 EBS เท่านั้น
สูงสุด 25 สูงสุด 25 m6in.xlarge 4 16 EBS เท่านั้น สูงสุด 30 สูงสุด 25 m6in.2xlarge 8 32 EBS เท่านั้น สูงสุด 40 สูงสุด 25 m6in.4xlarge 16 64 EBS เท่านั้น สูงสุด 50 สูงสุด 25 m6in.8xlarge 32 128 EBS เท่านั้น 50 25 m6in.12xlarge 48 192 EBS เท่านั้น 75 37.5 m6in.16xlarge 64 256 EBS เท่านั้น 100 50 m6in.24xlarge 96 384 EBS เท่านั้น 150 75 m6in.32xlarge 128 512 EBS เท่านั้น 200**** 100 m6in.metal 128 512 EBS เท่านั้น 200**** 100 m6idn.large 2 8 1x118 NVMe SSD
สูงสุด 25 สูงสุด 25 m6idn.xlarge 4 16 1x237 NVMe SSD สูงสุด 30 สูงสุด 25 m6idn.2xlarge 8 32 1x474 NVMe SSD สูงสุด 40 สูงสุด 25 m6idn.4xlarge 16 64 1x950 NVMe SSD
สูงสุด 50 สูงสุด 25 m6idn.8xlarge 32 128 1x1900 NVMe SSD
50 25 m6idn.12xlarge 48 192 2x1425 NVMe SSD 75 37.5 m6idn.16xlarge 64 256 2x1900 NVMe SSD 100 50 m6idn.24xlarge 96 384 4x1425 NVMe SSD 150 75 m6idn.32xlarge 128 512 4x1900 NVMe SSD 200**** 100 m6idn.metal 128 512 4x1900 NVMe SSD 200**** 100 ****สำหรับ 32xlarge และขนาด Metal จำเป็นต้องมีอินเทอร์เฟซเครือข่ายแบบยืดหยุ่นอย่างน้อย 2 อินเทอร์เฟซ โดยแต่ละอินเทอร์เฟซเชื่อมต่อกับการ์ดเครือข่ายที่แตกต่างกัน ซึ่งจำเป็นบนอินสแตนซ์เพื่อรองรับอัตราการโอนถ่ายข้อมูล 200 Gbps แต่ละอินเทอร์เฟซเครือข่ายที่เชื่อมต่อกับการ์ดเครือข่ายรองรับความเร็วได้สูงสุด 170 Gbps ดูข้อมูลเพิ่มเติม ได้ที่การ์ดเครือข่าย
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz
- EBS แบบเพิ่มประสิทธิภาพ
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน:
อินสแตนซ์เหล่านี้ได้รับการรับรองจาก SAP และเหมาะสำหรับปริมาณงานที่สามารถใช้ประโยชน์จากปริมาณการประมวลผลเครือข่ายสูง เวิร์กโหลดประกอบด้วยระบบไฟล์ประสิทธิภาพสูง แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์ของเว็บไซต์แบบกระจาย กลุ่มอินสแตนซ์การแคช การวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) แบบเรียลไทม์ แอปพลิเคชัน Telco เช่น 5G User Plane Function (UPF) รวมถึงสภาพแวดล้อมการพัฒนาแอปพลิเคชัน
-
M6a
-
อินสแตนซ์ Amazon EC2 M6a ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ซึ่งเหมาะเป็นอย่างยิ่งสำหรับเวิร์กโหลดการใช้งานทั่วไป
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ที่มีความถี่สูงสุด 3.6 GHz (AMD EPYC 7R13)
- ประสิทธิภาพการประมวลผลที่มีความคุ้มค่ามากขึ้นถึง 35% เมื่อเทียบกับอินสแตนซ์ M5a
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 40 Gbps
- ขนาดอินสแตนซ์พร้อม vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 768 GiB
- อินสแตนซ์ที่ได้รับการรับรองจาก SAP
- รองรับ Elastic Fabric Adapter ในขนาด 48xlarge
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ AMD Transparent Single Key Memory Encryption (TSME)
- รองรับคำสั่ง AMD Advanced Vector Extensions (AVX-2) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) m6a.large 2 8 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6a.xlarge 4 16 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6a.2xlarge 8 32 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6a.4xlarge 16 64 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 m6a.8xlarge 32 128 EBS เท่านั้น 12.5 10 m6a.12xlarge 48 192 EBS เท่านั้น 18.75 15 m6a.16xlarge 64 256 EBS เท่านั้น 25 20 m6a.24xlarge 96 384 EBS เท่านั้น 37.5 30 m6a.32xlarge 128 512 EBS เท่านั้น 50 40 m6a.48xlarge 192 768 EBS เท่านั้น 50 40 m6a.metal 192 768 EBS เท่านั้น 50 40 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AMD EPYC รุ่น 3 สูงสุดถึง 3.6 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
อินสแตนซ์เหล่านี้ได้รับการรับรอง SAP และเหมาะสำหรับปริมาณงาน เช่น เซิร์ฟเวอร์หลังบ้านที่สนับสนุนแอปพลิเคชันองค์กร (เช่น Microsoft Exchange และ SharePoint, SAP Business Suite, MySQL, Microsoft SQL Server และฐานข้อมูล PostgreSQL) เซิร์ฟเวอร์เกมแบบหลายผู้เล่น ฟลีตการแคช รวมถึงสภาพแวดล้อมการพัฒนาแอปพลิเคชัน
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ที่มีความถี่สูงสุด 3.6 GHz (AMD EPYC 7R13)
-
M5
-
อินสแตนซ์ Amazon EC2 M5 คืออินสแตนซ์สำหรับใช้งานทั่วไปรุ่นล่าสุดที่ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon® Platinum 8175M หรือ 8259CL อินสแตนซ์เหล่านี้มีความสมดุลของทรัพยากรคำนวณ หน่วยความจำ และเครือข่าย ซึ่งเป็นตัวเลือกที่ดีสำหรับแอปพลิเคชันทั้งหลาย
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.1 GHz (Skylake 8175M หรือ Cascade Lake 8259CL) พร้อมชุดคำสั่ง Intel Advanced Vector Extension (AVX-512) แบบใหม่
- ขนาดอินสแตนซ์ใหม่ที่ใหญ่ขึ้นของ m5.24xlarge มี 96 vCPU และหน่วยความจำ 384 GiB
- แบนด์วิดท์เครือข่ายสูงสุดถึง 25 Gbps โดยใช้ Enhanced Networking
- ต้องมี HVM AMI ที่รวมไดรเวอร์สำหรับ ENA และ NVMe
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ M5d ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ M5
- ขนาด 8xlarge และ 16xlarge แบบใหม่พร้อมใช้งานแล้ว
ขนาดของอินสแตนซ์
vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์
(GB)แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Mbps) m5.large 2 8 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m5.xlarge 4 16 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m5.2xlarge 8 32 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 m5.4xlarge 16 64 EBS เท่านั้น สูงสุด 10 4,750 m5.8xlarge 32 128 EBS เท่านั้น 10 6,800 m5.12xlarge 48 192 EBS เท่านั้น 12 9,500 m5.16xlarge 64 256 EBS เท่านั้น 20 13,600 m5.24xlarge 96 384 EBS เท่านั้น 25 19,000 m5.metal 96* 384 EBS เท่านั้น 25 19,000 m5d.large 2 8 1 x 75 NVMe SSD สูงสุด 10 สูงสุด 4,750 m5d.xlarge 4 16 1 x 150 NVMe SSD สูงสุด 10 สูงสุด 4,750 m5d.2xlarge 8 32 1 x 300 NVMe SSD สูงสุด 10 สูงสุด 4,750 m5d.4xlarge 16 64 2 x 300 NVMe SSD สูงสุด 10 4,750 m5d.8xlarge 32 128 2 x 600 NVMe SSD 10 6,800 m5d.12xlarge 48 192 2 x 900 NVMe SSD 12 9,500 m5d.16xlarge 64 256 4 x 600 NVMe SSD 20 13,600 m5d.24xlarge 96 384 4 x 900 NVMe SSD 25 19,000 m5d.metal 96* 384 4 x 900 NVMe SSD 25 19,000 * อินสแตนซ์ m5.metal และ m5d.metal มีตัวประมวลผลเชิงตรรกะ 96 ตัวบนแกนประมวลผลทางกายภาพ 48 หน่วย ซึ่งทำงานในเซิร์ฟเวอร์เดี่ยวที่มีซ็อกเก็ต Intel จริง 2 ตัว
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล Intel Xeon Platinum สูงสุด 3.1 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ฐานข้อมูลขนาดเล็กและกลาง, งานประมวลผลข้อมูลที่ต้องใช้หน่วยความจำเพิ่ม, กลุ่มแคชและสำหรับการใช้งานเซิร์ฟเวอร์แบ็คเอนด์สำหรับ SAP, Microsoft SharePoint, การประมวลผลคลัสเตอร์ และแอปพลิเคชันอื่นๆ สำหรับองค์กร
-
M5n
-
อินสแตนซ์ Amazon EC2 M5 เหมาะเป็นอย่างยิ่งสำหรับเวิร์กโหลดที่ต้องการความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และระบบเครือข่าย ซึ่งรวมถึงเซิร์ฟเวอร์เว็บและแอปพลิเคชัน ฐานข้อมูลขนาดเล็กและกลาง การประมวลผลแบบคลัสเตอร์ เซิร์ฟเวอร์การเล่นเกม และฟลีตการแคช อินสแตนซ์ M5n และ M5dn ที่มีแบนด์วิดท์สูงกว่าเหมาะสมที่สุดสำหรับแอปพลิเคชันที่สามารถใช้ประโยชน์จากอัตราการส่งข้อมูลผ่านเครือข่ายและประสิทธิภาพการส่งแพ็กเก็ตที่ได้รับการปรับปรุง
คุณสมบัติ:- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8259CL) ที่มีความถี่ต่อเนื่องแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 3.1 GHz และความถี่แบบเทอร์โบของคอร์ประมวลผลเดี่ยวสูงสุด 3.5 GHz
- การรองรับ Intel Vector Neural Network Instructions (AVX-512 VNNI) รุ่นใหม่ซึ่งจะช่วยเพิ่มความเร็วสำหรับการทำงานด้านแมชชีนเลิร์นนิงโดยทั่วไป เช่น เนื้อหาที่มีความซับซ้อน และปรับปรุงประสิทธิภาพในการอนุมานให้กับเวิร์กโหลดด้านดีปเลิร์นนิ่งได้อย่างหลากหลายโดยอัตโนมัติ
- แบนด์วิธสูงสุด 25 Gbps ในขนาดอินสแตนซ์ที่เล็กกว่า
- แบนด์วิธเครือข่าย 100 Gbps ในขนาดอินสแตนซ์ที่ใหญ่กว่า
- ต้องมี HVM AMI ที่รวมไดรเวอร์สำหรับ ENA และ NVMe
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ M5dn ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่มีอายุการใช้งานเทียบเท่ากับอินสแตนซ์ M5
ขนาดของอินสแตนซ์
vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์
(GB)แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Mbps) m5n.large 2 8 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 m5n.xlarge 4 16 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 m5n.2xlarge 8 32 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 m5n.4xlarge 16 64 EBS เท่านั้น สูงสุด 25 4,750 m5n.8xlarge 32 128 EBS เท่านั้น 25 6,800
m5n.12xlarge 48 192 EBS เท่านั้น 50 9,500 m5n.16xlarge 64 256 EBS เท่านั้น 75 13,600 m5n.24xlarge 96 384 EBS เท่านั้น 100 19,000 m5n.metal 96* 384 EBS เท่านั้น 100 19,000 m5dn.large 2 8 1 x 75 NVMe SSD สูงสุด 25 สูงสุด 4,750 m5dn.xlarge 4 16 1 x 150 NVMe SSD สูงสุด 25 สูงสุด 4,750 m5dn.2xlarge 8 32 1 x 300 NVMe SSD สูงสุด 25 สูงสุด 4,750 m5dn.4xlarge 16 64 2 x 300 NVMe SSD สูงสุด 25 4,750 m5dn.8xlarge 32 128 2 x 600 NVMe SSD 25 6,800 m5dn.12xlarge 48 192 2 x 900 NVMe SSD 50 9,500 m5dn.16xlarge 64 256 4 x 600 NVMe SSD 75 13,600 m5dn.24xlarge 96 384 4 x 900 NVMe SSD 100 19,000 m5dn.metal 96* 384 4 x 900 NVMe SSD 100 19,000 * m5n.metal และ m5dn.metal มีตัวประมวลผลเชิงตรรกะ 96 ตัวบนแกนประมวลผลจริง 48 หน่วย
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล Intel Xeon Scalable (Cascade Lake) รุ่นที่ 2 แบบกำหนดเองที่มีความถี่ของแกนประมวลผลแบบรักษาความถี่พร้อมความเร็วแบบ Turbo ที่ 3.1 GHz และความถี่ของแกนประมวลผลเดี่ยวพร้อมความเร็วแบบ Turbo สูงสุดที่ 3.5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
เซิร์ฟเวอร์เว็บและแอปพลิเคชัน ฐานข้อมูลขนาดเล็กและขนาดกลาง การประมวลผลคลัสเตอร์ เซิร์ฟเวอร์เกม กลุ่มแคช และแอปพลิเคชันอื่นๆ สำหรับองค์กร
-
M5zn
-
อินสแตนซ์ Amazon EC2 M5zn มีโปรเซสเซอร์ Intel Xeon Scalable ที่เร็วที่สุดในระบบคลาวด์ ด้วยความถี่เทอร์โบแบบคอร์ทั้งหมดสูงสุด 4.5 GHz
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8252C) ที่มีความถี่แบบเทอร์โบของคอร์ประมวลผลทั้งหมดสูงสุด 4.5 GHz
- แบนด์วิดท์เครือข่ายสูงสุด 100 Gbps บนอินสแตนซ์ขนาดใหญ่ที่สุดและตัวแปรแบบ Bare Metal
- สูงสุด 19 Gbps สำหรับ Amazon Elastic Block Store
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- อินสแตนซ์ M5zn ขนาด 12x และ Metal ที่ใช้ประโยชน์จาก Elastic Network Adapter รุ่นล่าสุด และมีเวลาแฝงต่ำคงที่ด้วย Elastic Fabric Adapter
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB)
พื้นที่เก็บข้อมูลของอินสแตนซ์
(GB)
แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) m5zn.large 2 8 EBS เท่านั้น สูงสุด 25 สูงสุด 3,170 m5zn.xlarge 4 16 EBS เท่านั้น สูงสุด 25 สูงสุด 3,170 m5zn.2xlarge 8 32 EBS เท่านั้น สูงสุด 25 3,170 m5zn.3xlarge 12 48 EBS เท่านั้น สูงสุด 25 4,750 m5zn.6xlarge 24 96 EBS เท่านั้น 50 9,500 m5zn.12xlarge 48 192 EBS เท่านั้น 100 19,000 m5zn.metal 48 192 EBS เท่านั้น 100 19,000 2 x 300 NVMe SSD 2 x 300 NVMe SSD กรณีการใช้งาน
อินสแตนซ์ M5zn เหมาะสมอย่างยิ่งสำหรับแอปพลิเคชันที่ได้รับประโยชน์จากระบบเครือข่ายที่มีประสิทธิภาพการทำงานแบบซิงเกิลเธรดสูง มีอัตราการโอนถ่ายข้อมูลสูง และมีเวลาแฝงต่ำ เช่น การเล่นเกม การประมวลผลประสิทธิภาพสูง และการสร้างโมเดลการจำลองสำหรับอุตสาหกรรมยานยนต์ การบินและอวกาศ พลังงาน และโทรคมนาคม
-
M5a
-
อินสแตนซ์ Amazon EC2 M5a คืออินสแตนซ์สำหรับใช้งานทั่วไปรุ่นล่าสุดที่ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 อินสแตนซ์ M5a ช่วยประหยัดค่าใช้จ่ายได้มากถึง 10% เมื่อเทียบกับอินสแตนซ์ประเภทอื่นๆ ที่เทียบเคียงได้ เมื่อใช้อินสแตนซ์ M5ad ดิสก์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมอบพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 (AMD EPYC 7571) ที่มีความเร็วสัญญาณนาฬิกาแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 2.5 GHz
- แบนด์วิดท์เครือข่ายสูงสุด 20 Gbps โดยใช้ Enhanced Networking
- ต้องมี HVM AMI ที่รวมไดรเวอร์สำหรับ ENA และ NVMe
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ M5ad ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ M5a
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB)
พื้นที่เก็บข้อมูลของอินสแตนซ์
(GB)
แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) m5a.large 2 8 EBS เท่านั้น สูงสุด 10 สูงสุด 2,880 m5a.xlarge 4 16 EBS เท่านั้น สูงสุด 10 สูงสุด 2,880 m5a.2xlarge 8 32 EBS เท่านั้น สูงสุด 10 สูงสุด 2,880 m5a.4xlarge 16 64 EBS เท่านั้น สูงสุด 10 2,880 m5a.8xlarge 32 128 EBS เท่านั้น สูงสุด 10 4,750 m5a.12xlarge 48 192 EBS เท่านั้น 10 6,780 m5a.16xlarge 64 256 EBS เท่านั้น 12 9,500 m5a.24xlarge 96 384 EBS เท่านั้น 20 13,570 m5ad.large 2 8 1 x 75 NVMe SSD สูงสุด 10 สูงสุด 2,880 m5ad.xlarge 4 16 1 x 150 NVMe SSD สูงสุด 10 สูงสุด 2,880 m5ad.2xlarge 8 32 1 x 300 NVMe SSD สูงสุด 10 สูงสุด 2,880 m5ad.4xlarge 16 64 2 x 300 NVMe SSD สูงสุด 10 2,880 m5ad.8xlarge 32 128 2 x 600 NVMe SSD สูงสุด 10 4,750 m5ad.12xlarge 48 192 2 x 900 NVMe SSD 10 6,870 m5ad.16xlarge 64 256 4 x 600 NVMe SSD 12 9,500 m5ad.24xlarge 96 384 4 x 900 NVMe SSD 20 13,570 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.5 GHz AMD EPYC ซีรีส์ 7000
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ฐานข้อมูลขนาดเล็กและกลาง, งานประมวลผลข้อมูลที่ต้องใช้หน่วยความจำเพิ่ม, กลุ่มแคชและสำหรับการใช้งานเซิร์ฟเวอร์แบ็คเอนด์สำหรับ SAP, Microsoft SharePoint, การประมวลผลคลัสเตอร์ และแอปพลิเคชันอื่นๆ สำหรับองค์กร
- โปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 (AMD EPYC 7571) ที่มีความเร็วสัญญาณนาฬิกาแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 2.5 GHz
-
M4
-
อินสแตนซ์ Amazon EC2 M4 มีความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และเครือข่าย ซึ่งเป็นตัวเลือกที่ดีสำหรับแอปพลิเคชันจำนวนมาก
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 2.4 GHz (Broadwell E5-2686 v4 หรือ Haswell E5-2676 v3)
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้นโดยไม่มีค่าใช้จ่ายเพิ่มเติม
- รองรับ Enhanced Networking
- มีความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และเครือข่าย
อินสแตนซ์ vCPU* หน่วยความจำ (GiB) พื้นที่จัดเก็บ แบนด์วิดท์เฉพาะสำหรับ EBS (Mbps) ประสิทธิภาพเครือข่าย*** m4.large 2 8 EBS เท่านั้น 450 ปานกลาง m4.xlarge 4 16 EBS เท่านั้น 750 สูง m4.2xlarge 8 32 EBS เท่านั้น 1,000 สูง m4.4xlarge 16 64 EBS เท่านั้น 2,000 สูง m4.10xlarge 40 160 EBS เท่านั้น 4,000 10 กิกะบิต m4.16xlarge 64 256 EBS เท่านั้น 10,000 25 กิกะบิต อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.4 GHz Intel Xeon E5-2676 v3**
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ฐานข้อมูลขนาดเล็กและขนาดกลาง งานประมวลผลข้อมูลที่ต้องใช้หน่วยความจำเพิ่มเติม กลุ่มแคช และสำหรับการใช้งานเซิร์ฟเวอร์แบ็คเอนด์สำหรับ SAP, Microsoft SharePoint, การประมวลผลคลัสเตอร์ และแอปพลิเคชันอื่นๆ ในระดับองค์กร
-
T4g
-
อินสแตนซ์ T4g ของ Amazon EC2 ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton2 ที่สร้างขึ้นสำหรับสถาปัตยกรรมแบบ Arm โดยเฉพาะ และมอบประสิทธิภาพการประมวลผลที่มีความคุ้มค่ากว่าอินสแตนซ์ T3 ถึง 40% สำหรับเวิร์กโหลดในการทำงานทั่วไปที่ขยายได้แบบต่างๆ
อินสแตนซ์ T4g จะสะสม CPU Credit เมื่อเวิร์กโหลดทำงานอยู่ในระดับต่ำกว่าเกณฑ์พื้นฐาน CPU Credit ที่ได้รับแต่ละเครดิตช่วยให้อินสแตนซ์ T4g สามารถใช้แกนประมวลผล CPU ให้ทำงานเต็มประสิทธิภาพเป็นเวลา 1 นาทีได้เมื่อจำเป็น อินสแตนซ์ T4g จะขยายประสิทธิภาพเมื่อใดก็ได้และใช้งานได้นานเท่าที่ต้องการในโหมดไร้ขีดจำกัด
คุณสมบัติ:
- ทดลองใช้งานอินสแตนซ์ t4g.small ฟรีถึง 750 ชั่วโมงต่อเดือนถึง 31 ธันวาคม 2024 ดูรายละเอียดได้ในคำถามที่พบบ่อย
- CPU ที่ขยายได้ ซึ่งควบคุมโดยเครดิต CPU พร้อมสมรรถนะขั้นพื้นฐานที่สม่ำเสมอ
- โหมดไร้ขีดจำกัดตามค่าเริ่มต้นช่วยให้มั่นใจว่าสามารถทำงานอย่างมีประสิทธิภาพในช่วงที่มีการใช้งานอย่างหนักและตัวเลือกในโหมดมาตรฐานช่วยให้คาดการณ์ค่าใช้จ่ายรายเดือนได้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) ประสิทธิภาพพื้นฐาน / vCPU CPU Credit ที่ได้รับ / ชม. แบนด์วิดท์การเพิ่มเครือข่าย (Gbps)*** แบนด์วิดท์การเพิ่ม EBS (Mbps) t4g.nano 2 0.5 5% 6 สูงสุด 5 สูงสุด 2,085 t4g.micro 2 1 10% 12 สูงสุด 5 สูงสุด 2,085 t4g.small 2 2 20% 24 สูงสุด 5 สูงสุด 2,085 t4g.medium 2 4 20% 24 สูงสุด 5 สูงสุด 2,085 t4g.large 2 8 30% 36 สูงสุด 5 สูงสุด 2,780 t4g.xlarge 4 16 40% 96 สูงสุด 5 สูงสุด 2,780 t4g.2xlarge 8 32 40% 192 สูงสุด 5 สูงสุด 2,780 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีใช้งาน:
ไมโครเซอร์วิส แอปพลิเคชันเชิงโต้ตอบที่มีเวลาแฝงต่ำ ฐานข้อมูลขนาดเล็กและกลาง เดสก์ท็อปเสมือน สภาพแวดล้อมการพัฒนา คลังเก็บโค้ด และแอปพลิเคชันที่สำคัญต่อธุรกิจ
- ทดลองใช้งานอินสแตนซ์ t4g.small ฟรีถึง 750 ชั่วโมงต่อเดือนถึง 31 ธันวาคม 2024 ดูรายละเอียดได้ในคำถามที่พบบ่อย
-
T3
-
อินสแตนซ์ T3 ของ Amazon EC2 คืออินสแตนซ์ประเภทใช้งานทั่วไปที่ขยายได้รุ่นใหม่ ซึ่งมอบสมรรถนะของ CPU ในระดับพื้นฐานพร้อมความสามารถในการขยายการใช้งาน CPU ได้ตลอดเวลาตราบเท่าที่ต้องการ อินสแตนซ์ T3 มีความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และเครือข่าย รวมทั้งได้รับการออกแบบมาสำหรับแอปพลิเคชันที่มีการใช้งาน CPU ปานกลางซึ่งมีการใช้งานอย่างหนักเพียงครั้งคราว
อินสแตนซ์ T3 จะสะสม CPU Credit เมื่อปริมาณงานอยู่ต่ำกว่าเกณฑ์พื้นฐาน เครดิต CPU ที่ได้รับแต่ละเครดิตช่วยให้อินสแตนซ์ T3 ใช้ CPU Core ทำงานเต็มประสิทธิภาพเป็นเวลา 1 นาทีได้เมื่อต้องการ อินสแตนซ์ T3 จะขยายประสิทธิภาพเมื่อใดก็ได้และใช้งานได้นานเท่าที่ต้องการในโหมดไร้ขีดจำกัด
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.1 GHz (Skylake 8175M หรือ Cascade Lake 8259CL)
- CPU ที่ขยายได้ ซึ่งควบคุมโดย CPU Credit พร้อมสมรรถนะขั้นพื้นฐานที่สม่ำเสมอ
- โหมดไร้ขีดจำกัดตามค่าเริ่มต้นช่วยให้มั่นใจว่าสามารถทำงานอย่างมีประสิทธิภาพในช่วงที่มีการใช้งานอย่างหนักและตัวเลือกในโหมดมาตรฐานช่วยให้คาดการณ์ค่าใช้จ่ายรายเดือนได้
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- AWS Nitro System และโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ที่มีความถี่สูงส่งผลให้ช่วยประหยัดค่าใช้จ่ายได้มากกว่าถึง 30% เมื่อเทียบกับอินสแตนซ์ T2
อินสแตนซ์ vCPU* CPU Credit/ชั่วโมง หน่วยความจำ (GiB) พื้นที่จัดเก็บ ประสิทธิภาพเครือข่าย (Gbps)*** t3.nano 2
6
0.5 EBS เท่านั้น สูงสุด 5 t3.micro 2
12
1 EBS เท่านั้น
สูงสุด 5 t3.small 2
24
2 EBS เท่านั้น
สูงสุด 5 t3.medium 2 24
4 EBS เท่านั้น
สูงสุด 5 t3.large 2 36
8 EBS เท่านั้น สูงสุด 5 t3.xlarge 4 96
16 EBS เท่านั้น สูงสุด 5 t3.2xlarge 8 192
32 EBS เท่านั้น สูงสุด 5 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.1 GHz
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน:
ไมโครเซอร์วิส แอปพลิเคชันเชิงโต้ตอบที่มีเวลาแฝงต่ำ ฐานข้อมูลขนาดเล็กและกลาง เดสก์ท็อปเสมือน สภาพแวดล้อมการพัฒนา คลังเก็บโค้ด และแอปพลิเคชันที่สำคัญต่อธุรกิจ
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.1 GHz (Skylake 8175M หรือ Cascade Lake 8259CL)
-
T3a
-
อินสแตนซ์ Amazon EC2 T3a คืออินสแตนซ์ประเภทใช้งานทั่วไปที่ขยายได้รุ่นใหม่ ซึ่งมอบสมรรถนะของ CPU ในระดับพื้นฐานพร้อมความสามารถในการขยายการใช้งาน CPU ได้ตลอดเวลาตราบเท่าที่ต้องการ อินสแตนซ์ T3a มีความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และเครือข่าย รวมทั้งได้รับการออกแบบมาสำหรับแอปพลิเคชันที่มีการใช้งาน CPU ปานกลางซึ่งมีการใช้งานอย่างหนักเพียงครั้งคราว อินสแตนซ์ T3a ช่วยประหยัดค่าใช้จ่ายได้มากถึง 10% เมื่อเทียบกับประเภทอินสแตนซ์อื่น
อินสแตนซ์ T3a จะสะสม CPU credit เมื่อปริมาณงานอยู่ต่ำกว่าเกณฑ์พื้นฐาน CPU Credit ที่ได้รับแต่ละเครดิตช่วยให้อินสแตนซ์ T3a สามารถใช้ CPU Core ให้ทำงานเต็มประสิทธิภาพเป็นเวลา 1 นาทีได้เมื่อต้องการ อินสแตนซ์ T3a จะขยายประสิทธิภาพเมื่อใดก็ได้และใช้งานได้นานเท่าที่ต้องการในโหมดไร้ขีดจำกัด
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 (AMD EPYC 7571) ที่มีความเร็วสัญญาณนาฬิกาแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 2.5 GHz
- CPU ที่ขยายได้ ซึ่งควบคุมโดย CPU Credit พร้อมสมรรถนะขั้นพื้นฐานที่สม่ำเสมอ
- โหมดไร้ขีดจำกัดตามค่าเริ่มต้นช่วยให้มั่นใจว่าสามารถทำงานอย่างมีประสิทธิภาพในช่วงที่มีการใช้งานอย่างหนักและตัวเลือกในโหมดมาตรฐานช่วยให้คาดการณ์ค่าใช้จ่ายรายเดือนได้
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
อินสแตนซ์ vCPU* CPU Credit/ชั่วโมง หน่วยความจำ (GiB) พื้นที่จัดเก็บ ประสิทธิภาพเครือข่าย (Gbps)*** t3a.nano 2
6
0.5 EBS เท่านั้น สูงสุด 5 t3a.micro 2
12
1 EBS เท่านั้น
สูงสุด 5 t3a.small 2
24
2 EBS เท่านั้น
สูงสุด 5 t3a.medium 2 24
4 EBS เท่านั้น
สูงสุด 5 t3a.large 2 36
8 EBS เท่านั้น สูงสุด 5 t3a.xlarge 4 96
16 EBS เท่านั้น สูงสุด 5 t3a.2xlarge 8 192
32 EBS เท่านั้น สูงสุด 5 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.5 GHz AMD EPYC ซีรีส์ 7000
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน:
ไมโครเซอร์วิส แอปพลิเคชันเชิงโต้ตอบที่มีเวลาแฝงต่ำ ฐานข้อมูลขนาดเล็กและกลาง เดสก์ท็อปเสมือน สภาพแวดล้อมการพัฒนา คลังเก็บโค้ด และแอปพลิเคชันที่สำคัญต่อธุรกิจ
-
T2
-
อินสแตนซ์ Amazon EC2 T2 คืออินสแตนซ์ที่ขยายประสิทธิภาพได้ ซึ่งให้ประสิทธิภาพ CPU ขั้นพื้นฐาน พร้อมความสามารถในการขยายให้เหนือกว่าระดับพื้นฐาน
อินสแตนซ์ T2 แบบไม่จำกัดสามารถคงไว้ซึ่งประสิทธิภาพ CPU ระดับสูงได้นานเท่าที่เวิร์กโหลดต้องการ โดยอินสแตนซ์ T2 แบบไม่จำกัดจะมอบประสิทธิภาพที่มากเพียงพอสำหรับปริมาณงานที่มีงานทั่วไปส่วนใหญ่โดยไม่มีการคิดค่าธรรมเนียมเพิ่มเติม หากอินสแตนซ์จำเป็นต้องรันโดยใช้ประโยชน์จาก CPU ในระดับที่สูงขึ้นเพื่อช่วงเวลาที่ยาวนานขึ้น จะสามารถดำเนินการได้โดยมีค่าธรรมเนียมเหมาจ่ายเพิ่มเติม 0.05 USD ต่อ vCPU/ชั่วโมง
CPU Credit คือตัวควบคุมประสิทธิภาพและความสามารถขั้นพื้นฐานในการรองรับ อินสแตนซ์ T2 ได้รับ CPU Credit อย่างต่อเนื่องตามอัตราที่กำหนดไว้โดยขึ้นอยู่กับขนาดของอินสแตนซ์ดังกล่าว จะมีการสะสม CPU Credit หากไม่มีการใช้งานและจะใช้เครดิตดังกล่าวเมื่อมีการใช้งานอินสแตนซ์ อินสแตนซ์ T2 ป็นตัวเลือกที่ดีสำหรับตามปริมาณงานหลากหลายสำหรับงานทั่วไป รวมถึงไมโครเซอร์วิส, แอปพลิเคชันเชิงโต้ตอบที่มีการหน่วงเวลาต่ำ, ฐานข้อมูลขนาดเล็กและกลาง, เดสก์ท็อปเสมือน, สภาพแวดล้อมการพัฒนา การสร้าง และแสดง, ที่เก็บโค้ด และต้นแบบผลิตภัณฑ์ โปรดดูข้อมูลเพิ่มเติมที่อินสแตนซ์ที่ขยายประสิทธิภาพได้
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.3 GHz (Haswell E5-2676 v3 หรือ Broadwell E5-2686 v4)
- โปรเซสเซอร์ Intel Xeon ความถี่สูง
- CPU ที่ขยายได้ ซึ่งควบคุมโดยเครดิต CPU พร้อมสมรรถนะขั้นพื้นฐานที่สม่ำเสมอ
- อินสแตนซ์ประเภทงานทั่วไปซึ่งมีราคาถูกที่สุดและมีสิทธิ์การเข้าถึง Free Tier*
- มีความสมดุลของทรัพยากรการประมวลผล หน่วยความจำ และเครือข่าย
* t2.micro เท่านั้น ในกรณีที่กำหนดค่าเป็น T2 แบบไม่จำกัดและการใช้ประโยชน์จาก CPU โดยเฉลี่ยเกินขั้นต่ำของอินสแตนซ์ อาจมีการเรียกเก็บค่าธรรมเนียม โปรดดูรายละเอียดเพิ่มเติมที่เอกสารประกอบ
อินสแตนซ์ vCPU* CPU Credit/ชั่วโมง
หน่วยความจำ (GiB) พื้นที่จัดเก็บ
ประสิทธิภาพเครือข่าย t2.nano 1 3 0.5 EBS เท่านั้น ต่ำ t2.micro 1 6 1 EBS เท่านั้น
ต่ำถึงปานกลาง t2.small 1 12 2 EBS เท่านั้น
ต่ำถึงปานกลาง t2.medium 2 24 4 EBS เท่านั้น
ต่ำถึงปานกลาง t2.large 2 36 8 EBS เท่านั้น ต่ำถึงปานกลาง t2.xlarge 4 54 16 EBS เท่านั้น ปานกลาง t2.2xlarge 8 81 32 EBS เท่านั้น ปานกลาง อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- Intel AVX†, Intel Turbo†
- t2.nano, t2.micro, t2.small, t2.medium มีโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.3 GHz
- t2.large, t2.xlarge และ t2.2xlarge มีโปรเซสเซอร์ Intel แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.0 GHz
กรณีการใช้งาน
เว็บไซต์และเว็บแอปพลิเคชัน สภาพแวดล้อมการพัฒนา เซิร์ฟเวอร์ที่มีการผสานการทำงานอย่างต่อเนื่อง ที่เก็บโค้ด ไมโครเซอร์วิส สภาพแวดล้อมการจัดเตรียมและทดสอบ รวมถึงกลุ่มผลิตภัณฑ์แอปพลิเคชันสำหรับธุรกิจ
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.3 GHz (Haswell E5-2676 v3 หรือ Broadwell E5-2686 v4)
vCPU แต่ละรายการบนอินสแตนซ์ Amazon EC2 ที่ใช้ Graviton เป็นแกนของตัวประมวลผล AWS Graviton
vCPU แต่ละรายการบนอินสแตนซ์ Amazon EC2 ที่ไม่ใช้ Graviton เป็นเธรดของตัวประมวลผลที่ใช้ x86 ยกเว้นอินสแตนซ์ M7a, อินสแตนซ์ T2 และ m3.medium
† AVX, AVX2 และระบบเครือข่ายที่ปรับปรุงประสิทธิภาพพร้อมใช้งานบนอินสแตนซ์ที่เปิดใช้ด้วย AMI ของ HVM เท่านั้น
* ค่านี้เป็นค่าเริ่มต้นและจำนวนสูงสุดของ vCPU ที่พร้อมใช้งานสำหรับประเภทอินสแตนซ์นี้ คุณสามารถระบุจำนวน vCPU แบบกำหนดเองได้เมื่อเรียกใช้งานประเภทอินสแตนซ์นี้ สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับจำนวน vCPU ที่ใช้ได้และวิธีเริ่มต้นใช้งานคุณสมบัตินี้ โปรดดูที่หน้าเอกสารประกอบ Optimize CPU ที่นี่
** อินสแตนซ์ M4 อาจเปิดใช้บนโปรเซสเซอร์ Intel Xeon E5-2686 v4 (Broadwell)
*** อินสแตนซ์ที่ระบุว่าแบนด์วิดท์เครือข่าย "สูงสุดถึง" มีแบนด์วิดท์พื้นฐานและสามารถใช้กลไกการให้เครดิต I/O ของเครือข่ายเพื่อขยายแบนด์วิดท์พื้นฐานเท่าที่จะเป็นไปได้ ดูข้อมูลเพิ่มเติมได้ที่แบนวิดท์เครือข่ายอินสแตนซ์
เพิ่มประสิทธิภาพการประมวลผล
อินสแตนซ์แบบเพิ่มประสิทธิภาพการประมวลผลเหมาะกับแอปพลิเคชันที่เน้นการประมวลผลซึ่งใช้ประโยชน์ตัวประมวลผลประสิทธิภาพสูง อินสแตนซ์ในหมวดหมู่นี้เหมาะกับเวิร์กโหลดการประมวลผลเป็นกลุ่ม การแปลงข้อมูลที่เข้ารหัส เซิร์ฟเวอร์เว็บประสิทธิภาพสูง การประมวลผลประสิทธิภาพสูง (HPC) การสร้างโมเดลทางวิทยาศาสตร์ เซิร์ฟเวอร์เกมเฉพาะและเครื่องมือเซิร์ฟเวอร์โฆษณา การอนุมานแมชชีนเลิร์นนิง และแอปพลิเคชันที่เน้นการประมวลผลอื่นๆ
-
C8g
-
C7g
-
C7gn
-
C7i
-
C7i-flex
-
C7a
-
C6g
-
C6gn
-
C6i
-
C6in
-
C6a
-
C5
-
C5n
-
C5a
-
C4
-
C8g
-
อินสแตนซ์ Amazon EC2 C8g ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ซึ่งมีประสิทธิภาพต่อราคาดีที่สุดใน Amazon EC2 สำหรับเวิร์กโหลดที่ใช้การประมวลผลที่เข้มข้น
ฟีเจอร์:
- ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ขนาดอินสแตนซ์ที่ใหญ่ขึ้น พร้อม vCPU และหน่วยความจํามากกว่าอินสแตนซ์ C7g สูงสุดถึง 3 เท่า
- มีหน่วยความจํา DDR5-5600 รุ่นล่าสุด
- ปรับมาให้เหมาะสําหรับ Amazon EBS โดยค่าเริ่มต้น
- รองรับ Elastic Fabric Adapter (EFA) บน c8g.24xlarge, c8g.48xlarge, c8g.metal-24xl และ c8g.metal-48xl
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนวิดท์ Amazon EBS (Gbps) c8g.medium
1
2
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c8g.large
2
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c8g.xlarge
4
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c8g.2xlarge
8
16
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
c8g.4xlarge
16
32
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
c8g.8xlarge
32
64
EBS เท่านั้น
15
10
c8g.12xlarge
48
96
EBS เท่านั้น
22.5
15
c8g.16xlarge
64
128
EBS เท่านั้น
30
20
c8g.24xlarge
96
192
EBS เท่านั้น
40
30
c8g.48xlarge
192
384
EBS เท่านั้น
50
40
c8g.metal-24xl
96
192
EBS เท่านั้น
40
30
c8g.metal-48xl
192
384
EBS เท่านั้น
50
40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ปรับมาให้เหมาะสําหรับ Amazon EBS
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
การประมวลผลประสิทธิภาพสูง (HPC) การประมวลผลเป็นชุด การนำเสนอโฆษณา การเข้ารหัสวิดีโอ การเล่นเกม การสร้างโมเดลทางวิทยาศาสตร์ การวิเคราะห์แบบกระจาย และการอนุมานของ ML ที่ใช้ CPU
-
C7g
-
อินสแตนซ์ Amazon EC2 C7g ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3 แบบ Arm เหมาะอย่างยิ่งสำหรับการใช้งานเวิร์กโหลดที่ใช้การประมวลผลที่เข้มข้น
ฟีเจอร์:
- ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3 แบบกำหนดเอง
- ใช้งานหน่วยความจำ DDR5 รุ่นล่าสุดที่มีแบนด์วิดท์เพิ่มขึ้น 50% เมื่อเทียบกับ DDR4
- แบนด์วิดท์ระบบเครือข่ายที่ดีกว่าอินสแตนซ์ C6g ถึง 20%
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ C7gd SSD ที่ใช้ NVMe ในเครื่องจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมอบพื้นที่เก็บข้อมูลระดับบล็อกที่สัมพันธ์กับอายุการใช้งานของอินสแตนซ์
- รองรับ Elastic Fabric Adapter บนอินสแตนซ์ c7g.16xlarge, c7g.metal, c7gd.16xlarge และ c7gd.metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c7g.medium
1
2
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7g.large
2
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7g.xlarge
4
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7g.2xlarge
8
16
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
c7g.4xlarge
16
32
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
c7g.8xlarge
32
64
EBS เท่านั้น
15
10
c7g.12xlarge
48
96
EBS เท่านั้น
22.5
15
c7g.16xlarge
64
128
EBS เท่านั้น
30
20
c7g.metal 64 128 EBS เท่านั้น 30 20 c7gd.medium
1
2
1 x 59 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c7gd.large
2
4
1 x 118 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c7gd.xlarge
4
8
1 x 237 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c7gd.2xlarge
8
16
1 x 474 NVMe SSD
สูงสุด 15
สูงสุด 10
c7gd.4xlarge
16
32
1 x 950 NVMe SSD
สูงสุด 15
สูงสุด 10
c7gd.8xlarge
32
64
1 x 1900 NVMe SSD
15
10
c7gd.12xlarge
48
96
2 x 1425 NVMe SSD
22.5
15
c7gd.16xlarge
64
128
2 x 1900 NVMe SSD
30
20
c7gd.metal
64
128
2 x 1900 NVMe SSD
30
20
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton3 แบบกำหนดเองที่มีแกนประมวลผล Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
การประมวลผลประสิทธิภาพสูง (HPC) การประมวลผลเป็นชุด การนำเสนอโฆษณา การเข้ารหัสวิดีโอ การเล่นเกม การสร้างโมเดลทางวิทยาศาสตร์ การวิเคราะห์แบบกระจาย และการอนุมานของแมชชีนเลิร์นนิงตาม CPU
- ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3 แบบกำหนดเอง
-
C7gn
-
อินสแตนซ์ Amazon EC2 C7gn ขับเคลื่อนโดยหน่วยประมวลผลกลาง AWS Graviton3E แบบ Arm มาพร้อมกับแบนวิดท์เครือข่ายสูงสุด 200 Gbps และประสิทธิภาพการประมวลผลแพ็กเก็ตที่สูงขึ้นสูงสุด 3 เท่าต่อ vCPU เมื่อเทียบกับอินสแตนซ์ที่เพิ่มประสิทธิภาพเครือข่ายที่ใช้ x86 รุ่นปัจจุบันที่เทียบเคียงได้
คุณสมบัติ:
- ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3E แบบกำหนดเอง
- ข้อเสนอหน่วยความจำ Double Data Rate 5 (DDR5) รุ่นล่าสุดที่มีแบนด์วิดท์เพิ่มขึ้น 50% เมื่อเทียบกับ DDR4
- แบนวิดท์เครือข่ายสูงสุด 200 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store (EBS) สูงสุด 40 Gbps
- แบนวิดท์เครือข่ายที่ดีกว่าถึง 2 เท่าเมื่อเทียบกับอินสแตนซ์ C6gn
- ปรับ EBS ให้เหมาะสมตามค่าเริ่มต้น
- รองรับ Elastic Fabric Adapter (EFA) บนอินสแตนซ์ c7gn.16xlarge และ c7gn.metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c7gn.medium
1
2
EBS เท่านั้น
สูงสุด 25
สูงสุด 10
c7gn.large
2
4
EBS เท่านั้น
สูงสุด 30
สูงสุด 10
c7gn.xlarge
4
8
EBS เท่านั้น
สูงสุด 40
สูงสุด 10
c7gn.2xlarge
8
16
EBS เท่านั้น
สูงสุด 50
สูงสุด 10
c7gn.4xlarge
16
32
EBS เท่านั้น
50
สูงสุด 10
c7gn.8xlarge
32
64
EBS เท่านั้น
100
สูงสุด 20
c7gn.12xlarge
48
96
EBS เท่านั้น
150
สูงสุด 30
c7gn.16xlarge
64
128
EBS เท่านั้น
200
สูงสุด 40
c7gn.metal
64
128
EBS เท่านั้น
200
สูงสุด 40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton3 แบบกำหนดเองที่มีแกนประมวลผล Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
เวิร์กโหลดที่เน้นเครือข่าย เช่น อุปกรณ์เสมือนเครือข่าย การวิเคราะห์ข้อมูล และการอนุมานปัญญาประดิษฐ์และแมชชีนเลิร์นนิง (AI/ML) บน CPU - ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton3E แบบกำหนดเอง
-
C7i
-
อินสแตนซ์ Amazon EC2 C7i ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 และมอบประสิทธิภาพด้านราคาที่ดีขึ้น 15% เมื่อเทียบกับอินสแตนซ์ C6i
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 ความถี่สูงสุด 3.2 GHz (Sapphire Rapids 8488C)
- Advance Matrix Extension (AMX) ใหม่ช่วยเร่งความเร็วในการดำเนินการคูณเมทริกซ์
- 2 ขนาด Meta: c7i.metal-24xl and c7i.metal-48xl
- ตัวเร่งแบบแยกส่วนที่มีมาในตัว (พร้อมใช้งานในขนาด C7i Bare Metal เท่านั้น) ได้แก่ตัวเร่งการทำ Data Stream (DSA), ตัวเร่งการวิเคราะห์แบบใช้หน่วยความจำ (IAA) และ QuickAssist Technology (QAT) ช่วยให้ลดภาระการประมวลผลได้อย่างมีประสิทธิภาพ และเร่งความเร็วในการดำเนินการกับข้อมูลซึ่งช่วยในการเพิ่มประสิทธิภาพให้กับฐานข้อมูล การเข้ารหัสและการบีบอัด และเวิร์กโหลดการจัดการคิว
- หน่วยความจำ DDR5 รุ่นล่าสุด ซึ่งมีแบนวิดท์มากขึ้นเมื่อเทียบกับ DDR4
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับไฟล์แนบโวลุ่ม EBS สูงสุด 128 EBS ต่ออินสแตนซ์
- vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 384 GiB
- รองรับ Elastic Fabric Adapter ในขนาด 48xlarge และขนาด metal-48xl
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและ Hypervisor ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c7i.large
2
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i.xlarge
4
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i.2xlarge
8
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i.4xlarge
16
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i.8xlarge
32
64
EBS เท่านั้น
12.5
10
c7i.12xlarge
48
96
EBS เท่านั้น
18.75
15
c7i.16xlarge
64
128
EBS เท่านั้น
25
20
c7i.24xlarge
96
192
EBS เท่านั้น
37.5
30
c7i.48xlarge
192
384
EBS เท่านั้น
50
40
c7i.metal-24xl
96
192
EBS เท่านั้น
37.5
30
c7i.metal-48xl
192
384
EBS เท่านั้น
50
40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล Intel Xeon Scalable รุ่นที่ 4 สูงสุด 3.2 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
อินสแตนซ์ C7i เหมาะสมอย่างยิ่งสำหรับเวิร์กโหลดที่เน้นการประมวลผล เช่น การประมวลผลเป็นชุด การวิเคราะห์แบบกระจาย การประมวลผลประสิทธิภาพสูง (HPC) การแสดงโฆษณา การเล่นเกมหลายผู้เล่นที่ปรับขนาดได้สูง และการเข้ารหัสวิดีโอ
-
C7i-flex
-
อินสแตนซ์ Amazon EC2 C7i-flex ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 และมอบประสิทธิภาพด้านราคาที่ดีขึ้น 19% เมื่อเทียบกับอินสแตนซ์ C6i
คุณสมบัติ:
- วิธีที่ง่ายที่สุดที่จะช่วยให้คุณได้รับประสิทธิภาพด้านราคาและประหยัดค่าใช้จ่ายในระบบคลาวด์สำหรับเวิร์กโหลดที่เน้นการประมวลผลของคุณ
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 ความถี่สูงสุด 3.2 GHz (Sapphire Rapids 8488C)
- Advance Matrix Extensions (AMX) ใหม่ช่วยเร่งความเร็วในการดำเนินการคูณเมทริกซ์
- หน่วยความจำ DDR5 รุ่นล่าสุด ซึ่งมีแบนด์วิธมากขึ้นเมื่อเทียบกับ DDR4
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนวิดท์ EBS (Gbps) c7i-flex.large
2
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i-flex.xlarge
4
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i-flex.2xlarge
8
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i-flex.4xlarge
16
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7i-flex.8xlarge
32
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
กรณีการใช้งาน
อินสแตนซ์ C7i-flex เป็นตัวเลือกแรกที่ดีเยี่ยมในการเรียกใช้เวิร์กโหลดที่เน้นการประมวลผลส่วนใหญ่ได้อย่างราบรื่น รวมถึงเซิร์ฟเวอร์เว็บและแอปพลิเคชัน ฐานข้อมูล แคช Apache Kafka และ Elasticsearch
-
C7a
-
อินสแตนซ์ Amazon EC2 C7a ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC รุ่นที่ 4 ให้ประสิทธิภาพที่สูงขึ้นถึง 50% เมื่อเทียบกับอินสแตนซ์ C6a
คุณสมบัติ:- โปรเซสเซอร์ AMD EPYC รุ่นที่ 4 ที่มีความถี่สูงสุด 3.7 GHz (AMD EPYC 9R14)
- แบนวิดท์เครือข่ายสูงสุด 50 Gbps
- แบนวิดท์สูงสุด 40 Gbps สำหรับ Amazon Elastic Block Store (Amazon EBS)
- ขนาดอินสแตนซ์พร้อม vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 384 GiB
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดตลอดเวลาโดยใช้การเข้ารหัสหน่วยความจำที่ปลอดภัยของ AMD (SME)
- รองรับความสามารถใหม่ของหน่วยประมวลผลกลาง เช่น AVX-512, VNNI และ bfloat16
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) c7a.medium
1
2
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7a.large
2
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7a.xlarge
4
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7a.2xlarge
8
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7a.4xlarge
16
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c7a.8xlarge
32
64
EBS เท่านั้น
12.5
10
c7a.12xlarge
48
96
EBS เท่านั้น
18.75
15
c7a.16xlarge
64
128
EBS เท่านั้น
25
20
c7a.24xlarge
96
192
EBS เท่านั้น
37.5
30
c7a.32xlarge
128
256
EBS เท่านั้น
50
40
c7a.48xlarge
192
384
EBS เท่านั้น
50
40
c7a.metal-48xl
192
384
EBS เท่านั้น
50
40
กรณีใช้งาน
เวิร์กโหลดที่เน้นการประมวลผล เช่น การประมวลผลแบบชุด การวิเคราะห์แบบกระจาย การประมวลผลสมรรถนะสูง (HPC) การนำเสนอโฆษณา การเล่นเกมแบบหลายผู้เล่นที่ปรับขนาดได้ รวมถึงการเข้ารหัสวิดีโอ
-
C6g
-
อินสแตนซ์ Amazon EC2 C6g ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton2 แบบ Arm อินสแตนซ์ดังกล่าวมอบประสิทธิภาพและความคุ้มค่ามากขึ้นถึง 40% เมื่อเทียบกับอินสแตนซ์ C5 รุ่นปัจจุบัน สำหรับการประยุกต์ใช้งานที่เน้นการประมวลผล
คุณสมบัติ:
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- รองรับ Enhanced Networking โดยมีแบนด์วิดท์เครือข่ายสูงสุด 25 Gbps
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- เมื่อใช้อินสแตนซ์ C6gd ดิสก์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) c6g.medium 1 2 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c6g.large 2 4 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c6g.xlarge 4 8 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c6g.2xlarge 8 16 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c6g.4xlarge 16 32 EBS เท่านั้น สูงสุด 10 4,750 c6g.8xlarge 32 64 EBS เท่านั้น 12 9,000 c6g.12xlarge 48 96 EBS เท่านั้น 20 13,500 c6g.16xlarge 64 128 EBS เท่านั้น 25 19,000 c6g.metal 64 128 EBS เท่านั้น 25 19,000 c6gd.medium 1 2 1 x 59 NVMe SSD สูงสุด 10 สูงสุด 4,750 c6gd.large 2 4 1 x 118 NVMe SSD สูงสุด 10 สูงสุด 4,750 c6gd.xlarge 4 8 1 x 237 NVMe SSD สูงสุด 10 สูงสุด 4,750 c6gd.2xlarge 8 16 1 x 474 NVMe SSD สูงสุด 10 สูงสุด 4,750 c6gd.4xlarge 16 32 1 x 950 NVMe SSD สูงสุด 10 4,750 c6gd.8xlarge 32 64 1 x 1900 NVMe SSD 12 9,000 c6gd.12xlarge 48 96 2 x 1425 NVMe SSD 20 13,500 c6gd.16xlarge 64 128 2 x 1900 NVMe SSD 25 19,000 c6gd.metal 64 128 2 x 1900 NVMe SSD 25 19,000 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
การประมวลผลประสิทธิภาพสูง (HPC) การประมวลผลเป็นชุด การนำเสนอโฆษณา การเข้ารหัสวิดีโอ การเล่นเกม การสร้างโมเดลทางวิทยาศาสตร์ การวิเคราะห์แบบกระจาย และการอนุมานของแมชชีนเลิร์นนิ่งตาม CPU
-
C6gn
-
อินสแตนซ์ Amazon EC2 C6gn ขับเคลื่อนโดยหน่วยประมวลผลกลาง AWS Graviton2 แบบ Arm โดยมีค่าประสิทธิภาพต่อราคาที่ดีกว่าอินสแตนซ์ C5n รุ่นปัจจุบันสูงสุด 40% และมีระบบเครือข่ายความเร็วสูงสุด 100 Gbps ทั้งยังสนับสนุน Elastic Fabric Adapter (EFA) สำหรับแอปพลิเคชันที่ต้องการอัตราการรับส่งข้อมูลของระบบเครือข่ายที่สูงขึ้น เช่น การประมวลผลประสิทธิภาพสูง (HPC) อุปกรณ์เครือข่าย การสื่อสารทางวิดีโอแบบเรียลไทม์ และการวิเคราะห์ข้อมูล
คุณสมบัติ:
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- รองรับ Enhanced Networking โดยมีแบนด์วิดท์เครือข่ายสูงสุด 100 Gbps
- การสนับสนุน EFA บนอินสแตนซ์ c6gn.16xlarge
- ปรับให้เหมาะสมกับ EBS มาเป็นค่าเริ่มต้น, แบนด์วิดท์ EBS 2 เท่าเมื่อเทียบกับอินสแตนซ์ C5n
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c6gn.medium
1
2
EBS เท่านั้น
สูงสุด 16
สูงสุด 9.5
c6gn.large
2
4
EBS เท่านั้น
สูงสุด 25
สูงสุด 9.5
c6gn.xlarge
4
8
EBS เท่านั้น
สูงสุด 25
สูงสุด 9.5
c6gn.2xlarge
8
16
EBS เท่านั้น
สูงสุด 25
สูงสุด 9.5
c6gn.4xlarge
16
32
EBS เท่านั้น
สูงสุด 25
9.5
c6gn.8xlarge
32
64
EBS เท่านั้น
50
19
c6gn.12xlarge
48
96
EBS เท่านั้น
75
28.5
c6gn.16xlarge
64
128
EBS เท่านั้น
100
38
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
เว็บเซิร์ฟเวอร์ประสิทธิภาพสูง, การสร้างโมเดลทางวิทยาศาสตร์, การประมวลผลเป็นชุด, การวิเคราะห์แบบกระจาย, การประมวลผลประสิทธิภาพสูง (HPC), อุปกรณ์เครือข่าย, การอนุมานของแมชชีนเลิร์นนิ่ง/ดีปเลิร์นนิ่ง, การให้บริการโฆษณา, การเล่นเกมแบบมัลติเพลเยอร์ที่ปรับขนาดได้สูง และการเข้ารหัสวิดีโอ
-
C6i
-
อินสแตนซ์ Amazon EC2 C6i ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon Scalable รุ่นที่ 3 และเหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่เน้นการประมวลผล
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- ประสิทธิภาพการประมวลผลที่มีความคุ้มค่ามากขึ้นถึง 15% เมื่อเทียบกับอินสแตนซ์ C5
- แบนด์วิดท์หน่วยความจำต่อ vCPU สูงขึ้นถึง 9% เมื่อเทียบกับอินสแตนซ์ C5
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 40 Gbps
- ขนาดอินสแตนซ์ใหม่ (32xlarge) ที่มี vCPU 128 รายการและหน่วยความจำ 256 GiB
- รองรับ Elastic Fabric Adapter ในขนาด 32xlarge และ metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
- เมื่อใช้อินสแตนซ์ C6id ไดรฟ์ SSD แบบใช้ NVMe ภายในความจุสูงสุด 7.6 TB จะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์ และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ C6i
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c6i.large
2
4
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c6i.xlarge
4
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c6i.2xlarge
8
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c6i.4xlarge
16
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
c6i.8xlarge
32
64
EBS เท่านั้น
12.5
10
c6i.12xlarge
48
96
EBS เท่านั้น
18.75
15
c6i.16xlarge
64
128
EBS เท่านั้น
25
20
c6i.24xlarge
96
192
EBS เท่านั้น
37.5
30
c6i.32xlarge
128
256
EBS เท่านั้น
50
40
c6i.metal 128 256 EBS เท่านั้น 50 40 c6id.large
2
4
1x118 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c6id.xlarge
4
8
1x237 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c6id.2xlarge
8
16
1x474 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c6id.4xlarge
16
32
1x950 NVMe SSD
สูงสุด 12.5
สูงสุด 10
c6id.8xlarge
32
64
1x1900 NVMe SSD
12.5
10
c6id.12xlarge
48
96
2x1425 NVMe SSD
18.75
15
c6id.16xlarge
64
128
2x1900 NVMe SSD
25
20
c6id.24xlarge
96
192
4x1425 NVMe SSD
37.5
30
c6id.32xlarge
128
256
4x1900 NVMe SSD
50
40
c6id.metal 128 256 4x1900 NVMe SSD 50 40 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล Intel Xeon Scalable รุ่นที่ 3 ที่มีความเร็วสูงสุดถึง 3.5 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
เวิร์กโหลดที่เน้นการประมวลผล เช่น การประมวลผลแบบชุด การวิเคราะห์แบบกระจาย การประมวลผลสมรรถนะสูง (HPC) การนำเสนอโฆษณา การเล่นเกมแบบหลายผู้เล่นที่ปรับขนาดได้ รวมถึงการเข้ารหัสวิดีโอ
-
C6in
-
อินสแตนซ์ Amazon EC2 C6in เหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่เน้นเครือข่าย เช่น อุปกรณ์เครือข่ายเสมือน การวิเคราะห์ข้อมูล การประมวลผลประสิทธิภาพสูง (HPC) และ AI/ML บน CPU ซึ่งขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 (Ice Lake) ที่มีความถี่เทอร์โบแบบ All-Core 3.5 GHz อินสแตนซ์ C6in มีแบนวิดท์เครือข่ายสูงสุด 200 Gbps และแบนด์วิดท์ Amazon Elastic Block Store (EBS) สูงสุด 80 Gbps อินสแตนซ์ C6in.32xlarge และ C6in.metal รองรับ Elastic Fabric Adapter (EFA) EFA คืออินเทอร์เฟซเครือข่ายสำหรับอินสแตนซ์ Amazon EC2 ที่คุณใช้เพื่อเรียกใช้แอปพลิเคชันที่ต้องใช้การสื่อสารระหว่างโหนดในระดับสูงได้ เช่น แอปพลิเคชัน HPC โดยใช้ Message Passing Interface (MPI) ตามขนาดบน AWS
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- รองรับ Enhanced Networking ที่มีแบนวิดท์เครือข่ายสูงสุด 200 Gbps ซึ่งเพิ่มขึ้นถึง 2 เท่าเมื่อเทียบกับอินสแตนซ์ C5n
- แบนวิดท์ EBS สูงสุด 100 Gbps ซึ่งเพิ่มขึ้นถึง 5.2 เท่าเมื่อเทียบกับอินสแตนซ์ C5n
- EFA รองรับขนาด 32xlarge และ metal
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการประมวลผลอัลกอริทึมเข้ารหัสลับที่เร็วยิ่งขึ้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c6in.large
2
4
EBS เท่านั้น
สูงสุด 25
สูงสุด 25
c6in.xlarge
4
8
EBS เท่านั้น
สูงสุด 30
สูงสุด 25
c6in.2xlarge
8
16
EBS เท่านั้น
สูงสุด 40
สูงสุด 25
c6in.4xlarge
16
32
EBS เท่านั้น
สูงสุด 50
สูงสุด 25
c6in.8xlarge
32
64
EBS เท่านั้น
50
25
c6in.12xlarge
48
96
EBS เท่านั้น
75
37.5
c6in.16xlarge
64
128
EBS เท่านั้น
100
50
c6in.24xlarge
96
192
EBS เท่านั้น
150
75
c6in.32xlarge 128 256 EBS เท่านั้น 200**** 100 c6in.metal 128 256 EBS เท่านั้น 200**** 100
****สำหรับ 32xlarge และขนาด Metal จำเป็นต้องมีอินเทอร์เฟซเครือข่ายแบบยืดหยุ่นอย่างน้อย 2 อินเทอร์เฟซ โดยแต่ละอินเทอร์เฟซเชื่อมต่อกับการ์ดเครือข่ายที่แตกต่างกัน ซึ่งจำเป็นบนอินสแตนซ์เพื่อรองรับอัตราการโอนถ่ายข้อมูล 200 Gbps แต่ละอินเทอร์เฟซเครือข่ายที่เชื่อมต่อกับการ์ดเครือข่ายรองรับความเร็วได้สูงสุด 170 Gbps ดูข้อมูลเพิ่มเติม ได้ที่การ์ดเครือข่ายอินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
เวิร์กโหลดที่เน้นการประมวลผลซึ่งต้องการแบนวิดท์เครือข่ายสูงหรือประสิทธิภาพการประมวลผลแพ็คเก็ตสูง เช่น แอปพลิเคชันการประมวลผลแบบกระจาย อุปกรณ์เสมือนเครือข่าย การวิเคราะห์ข้อมูล การประมวลผลประสิทธิภาพสูง (HPC) และ AI/ML บน CPU
-
C6a
-
อินสแตนซ์ Amazon C6a ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ซึ่งออกแบบมาสำหรับเวิร์กโหลดที่เน้นการประมวลผล
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ที่มีความถี่สูงสุด 3.6 GHz (AMD EPYC 7R13)
- ประสิทธิภาพการประมวลผลที่มีความคุ้มค่ามากขึ้นถึง 15% เมื่อเทียบกับอินสแตนซ์ C5a
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 40 Gbps
- vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 384 GiB ในขนาดที่ใหญ่ที่สุด
- อินสแตนซ์ที่ได้รับการรับรองจาก SAP
- รองรับ Elastic Fabric Adapter ในขนาด 48xlarge
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ AMD Transparent Single Key Memory Encryption (TSME)
- รองรับคำสั่ง AMD Advanced Vector Extensions (AVX-2) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) c6a.large 2 4 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 c6a.xlarge 4 8 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 c6a.2xlarge 8 16 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 c6a.4xlarge 16 32 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 c6a.8xlarge 32 64 EBS เท่านั้น 12.5 10 c6a.12xlarge 48 96 EBS เท่านั้น 18.75 15 c6a.16xlarge 64 128 EBS เท่านั้น 25 20 c6a.24xlarge 96 192 EBS เท่านั้น 37.5 30 c6a.32xlarge 128 256 EBS เท่านั้น 50 40 c6a.48xlarge 192 384 EBS เท่านั้น 50 40 c6a.metal 192 384 EBS เท่านั้น 50 40 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AMD EPYC รุ่น 3 สูงสุดถึง 3.6 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
ปริมาณงานที่เน้นการประมวลผล เช่น การประมวลผลแบบชุด การวิเคราะห์แบบกระจาย การประมวลผลสมรรถนะสูง (HPC) การนำเสนอโฆษณา การเล่นเกมแบบหลายผู้เล่นที่ปรับขนาดได้ และการเข้ารหัสวิดีโอ
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ที่มีความถี่สูงสุด 3.6 GHz (AMD EPYC 7R13)
-
C5
-
อินสแตนซ์ Amazon EC2 C5 ได้รับการปรับให้เหมาะสมสำหรับเวิร์กโหลดที่เน้นการประมวลผล โดยให้ประสิทธิภาพขั้นสูงที่ประหยัดคุ้มค่าในราคาต่ำต่ออัตราส่วนการประมวลผล
คุณสมบัติ:
- อินสแตนซ์ C5 เสนอตัวเลือกของโปรเซสเซอร์ตามขนาดของอินสแตนซ์
- ขนาดของอินสแตนซ์ C5 และ C5d 12xlarge, 24xlarge และ Metal มาพร้อมโปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8275CL) ที่มีความถี่ต่อเนื่องแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 3.6 GHz และความถี่แบบเทอร์โบของคอร์ประมวลผลเดี่ยวสูงสุด 3.9 GHz
- อินสแตนซ์ C5 ขนาดอื่นๆ จะเปิดใช้งานบนโปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8223CL) หรือโปรเซสเซอร์ Intel Xeon Platinum ซีรีส์ 8000 รุ่นที่ 1 (Skylake 8124M) ที่มีความถี่ต่อเนื่องแบบเทอร์โบของคอร์ประมวลผลทั้งหมดสูงสุด 3.4 GHz และความถี่แบบเทอร์โบของคอร์ประมวลผลเดี่ยวสูงสุด 3.5 GHz
- อินสแตนซ์ 24xlarge ขนาดใหญ่ขึ้นแบบใหม่มี vCPU 96 หน่วย, หน่วยความจำ 192 GiB และ SSD เสริมแบบ NVMe ในเครื่อง 3.6 TB
- ต้องมี HVM AMI ที่รวมไดรเวอร์สำหรับ ENA และ NVMe
- เมื่อใช้อินสแตนซ์ C5d ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ C5
- Elastic Network Adapter (ENA) จะทำให้อินสแตนซ์ C5 มีแบนด์วิดท์เครือข่ายสูงสุดถึง 25 Gbps และแบนด์วิดท์เฉพาะสำหรับ Amazon EBS สูงสุดถึง 19 Gbps
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
รุ่น vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Mbps) c5.large 2 4 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c5.xlarge 4 8 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c5.2xlarge 8 16 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 c5.4xlarge 16 32 EBS เท่านั้น สูงสุด 10 4,750 c5.9xlarge 36 72 EBS เท่านั้น 12 9,500 c5.12xlarge 48 96 EBS เท่านั้น 12 9,500 c5.18xlarge 72 144 EBS เท่านั้น 25 19,000 c5.24xlarge 96 192 EBS เท่านั้น 25 19,000 c5.metal 96 192 EBS เท่านั้น 25 19,000 c5d.large 2 4 1 x 50 NVMe SSD สูงสุด 10 สูงสุด 4,750 c5d.xlarge 4 8 1 x 100 NVMe SSD สูงสุด 10 สูงสุด 4,750 c5d.2xlarge 8 16 1 x 200 NVMe SSD สูงสุด 10 สูงสุด 4,750 c5d.4xlarge 16 32 1 x 400 NVMe SSD สูงสุด 10 4,750 c5d.9xlarge 36 72 1 x 900 NVMe SSD 12 9,500 c5d.12xlarge 48 96 2 x 900 NVMe SSD 12 9,500 c5d.18xlarge 72 144 2 x 900 NVMe SSD 25 19,000 c5d.24xlarge 96 192 4 x 900 NVMe SSD 25 19,000 c5d.metal 96 192 4 x 900 NVMe SSD 25 19,000 อินสแตนซ์ C5 และ C5d 12xlarge, 24xlarge และ Metal มีข้อมูลจำเพาะดังต่อไปนี้:
- ตัวประมวลผล Intel Xeon Scalable (Cascade Lake) รุ่นที่สองแบบกำหนดเองซึ่งมีความถี่ของแกนประมวลผลแบบรักษาความถี่พร้อมความเร็วแบบ Turbo ที่ 3.6 GHz และความถี่ของแกนประมวลผลเดี่ยวพร้อมความเร็วแบบ Turbo สูงสุดถึง 3.9 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
อินสแตนซ์ C5 และ C5d ที่เหลือทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล Intel Xeon Scalable (Cascade Lake) รุ่นที่สองแบบกำหนดเองซึ่งมีความถี่ของแกนประมวลผลแบบรักษาความถี่พร้อมความเร็วแบบ Turbo ที่ 3.6 GHz และความถี่ของแกนประมวลผลเดี่ยวพร้อมความเร็วแบบ Turbo สูงสุดถึง 3.9 GHz หรือหน่วยประมวลผล Intel Xeon Platinum ซีรีส์ 8000 (Skylake-SP) รุ่นแรกซึ่งมีความถี่ของแกนประมวลผลแบบรักษาความถี่พร้อมความเร็วแบบ Turbo สูงสุดถึง 3.4 GHz และความถี่ของแกนประมวลผลเดี่ยวพร้อมความเร็วแบบ Turbo สูงสุดถึง 3.5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
เว็บเซิร์ฟเวอร์เว็บประสิทธิภาพสูง, การสร้างโมเดลทางวิทยาศาสตร์, การประมวลผลเป็นชุด, การวิเคราะห์แบบกระจาย, การประมวลผลประสิทธิภาพสูง (HPC), การอนุมาน Machine/Deep Learning, การให้บริการโฆษณา, การเล่นเกมแบบมัลติเพลเยอร์ที่ปรับขนาดได้สูง และการเข้ารหัสวิดีโอ
-
C5n
-
อินสแตนซ์ Amazon EC2 C5n เหมาะสำหรับแอปพลิเคชันที่ต้องใช้การประมวลผลสูง (รวมถึงเวิร์กโหลดการประมวลผลสมรรถนะสูง (HPC), Data Lake และอุปกรณ์เครือข่าย เช่น ไฟร์วอลล์และเราเตอร์) ที่สามารถใช้ประโยชน์จากปริมาณการรับส่งข้อมูลของเครือข่ายและประสิทธิภาพของอัตราแพ็กเก็ตที่ปรับปรุงให้ดีขึ้น อินสแตนซ์ C5n ให้แบนด์วิดท์เครือข่ายสูงสุดถึง 100 Gbps และหน่วยความจำที่เพิ่มขึ้นเมื่อเปรียบเทียบกับอินสแตนซ์ C5 อินสแตนซ์ C5n.18xlarge สนับสนุน Elastic Fabric Adapter (EFA) ซึ่งเป็นอินเทอร์เฟซเครือข่ายสำหรับ Amazon EC2 instance ที่ช่วยให้ลูกค้าสามารถเรียกใช้แอปพลิเคชันที่ต้องใช้การสื่อสารระหว่างโหนดในระดับสูง เช่น แอปพลิเคชันการประมวลผลประสิทธิภาพสูง (HPC) โดยใช้ Message Passing Interface (MPI) ปริมาณมากบน AWS
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon Platinum ที่มีความถี่ 3.0 GHz (Skylake 8124) พร้อมชุดคำสั่ง Intel Advanced Vector Extension 512 (AVX-512)
- ความถี่ต่อเนื่องแบบเทอร์โบของคอร์ประมวลผลทั้งหมดสูงสุด 3.4 GHz และความถี่แบบเทอร์โบของคอร์ประมวลผลเดี่ยวสูงสุด 3.5 GHz
- ขนาดอินสแตนซ์ที่ใหญ่ขึ้นของ c5n.18xlarge โดยมี 72 vCPU และหน่วยความจำ 192 GiB
- ต้องมี HVM AMI ที่รวมไดรเวอร์สำหรับ ENA และ NVMe
- แบนด์วิดท์เครือข่ายเพิ่มสูงสุดถึง 100 Gbps ส่งผลให้ประสิทธิภาพสำหรับแอปพลิเคชันที่เน้นด้านเครือข่ายเพิ่มขึ้น
- EFA support บนอินสแตนซ์ c5n.18xlarge
- ขนาดหน่วยความจำสูงขึ้น 33% เมื่อเทียบกับอินสแตนซ์ C5
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
รุ่น vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Mbps) c5n.large 2 5.25 EBS เท่านั้น สูงสุด 25
สูงสุด 4,750 c5n.xlarge 4 10.5 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 c5n.2xlarge 8 21 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 c5n.4xlarge 16 42 EBS เท่านั้น สูงสุด 25 4,750 c5n.9xlarge 36 96
EBS-เท่านั้น 50 9,500 c5n.18xlarge 72 192 EBS เท่านั้น 100 19,000 c5n.metal 72 192 EBS เท่านั้น 100 19,000 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 3.0 GHz Intel Xeon Platinum
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
เว็บเซิร์ฟเวอร์เว็บประสิทธิภาพสูง, การสร้างโมเดลทางวิทยาศาสตร์, การประมวลผลเป็นชุด, การวิเคราะห์แบบกระจาย, การประมวลผลประสิทธิภาพสูง (HPC), การอนุมาน Machine/Deep Learning, การให้บริการโฆษณา, การเล่นเกมแบบมัลติเพลเยอร์ที่ปรับขนาดได้สูง และการเข้ารหัสวิดีโอ
-
C5a
-
อินสแตนซ์ Amazon EC2 C5a มอบประสิทธิภาพด้านราคาของ x86 ระดับแนวหน้าสำหรับชุดเวิร์กโหลดที่เน้นการประมวลผลต่างๆ ที่หลากหลาย
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC ซีรีส์ 7002 รุ่นที่ 2 (AMD EPYC 7R32) ซึ่งทำงานที่ความถี่สูงสุด 3.3 GHz
- Elastic Network Adapter (ENA) จะทำให้อินสแตนซ์ C5a มีแบนด์วิดท์เครือข่ายสูงสุด 20 Gbps และแบนด์วิดท์เฉพาะสำหรับ Amazon EBS สูงสุด 9.5 Gbps
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- เมื่อใช้อินสแตนซ์ C5ad ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ C5a
รุ่น vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Mbps) c5a.large 2 4 EBS เท่านั้น สูงสุด 10
สูงสุด 3,170 c5a.xlarge 4 8 EBS เท่านั้น สูงสุด 10 สูงสุด 3,170 c5a.2xlarge 8 16 EBS เท่านั้น สูงสุด 10 สูงสุด 3,170 c5a.4xlarge 16 32 EBS เท่านั้น สูงสุด 10 สูงสุด 3,170 c5a.8xlarge 32 64
EBS เท่านั้น 10 3,170 c5a.12xlarge 48 96 EBS เท่านั้น 12 4,750
c5a.16xlarge 64 128 EBS เท่านั้น 20 6,300 c5a.24xlarge 96 192 EBS เท่านั้น 20 9,500 c5ad.large 2 4 1 x 75 NVMe SSD สูงสุด 10 สูงสุด 3,170 c5ad.xlarge 4 8 1 x 150 NVMe SSD สูงสุด 10 สูงสุด 3,170 c5ad.2xlarge 8 16 1 x 300 NVMe SSD สูงสุด 10 สูงสุด 3,170 c5ad.4xlarge 16 32 2 x 300 NVMe SSD สูงสุด 10 สูงสุด 3,170 c5ad.8xlarge 32 64 2 x 600 NVMe SSD 10 3,170 c5ad.12xlarge 48 96 2 x 900 NVMe SSD 12 4,750 c5ad.16xlarge 64 128 2 x 1200 NVMe SSD 20 6,300 c5ad.24xlarge 96 192 2 x 1900 NVMe SSD 20 9,500 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AMD EPYC รุ่น 2 สูงสุดถึง 3.3 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
อินสแตนซ์ C5a เหมาะสำหรับเวิร์กโหลดที่ต้องใช้ vCPU และแบนวิดท์หน่วยความจำสูง เช่น การประมวลผลเป็นชุด การวิเคราะห์แบบกระจาย การแปลงข้อมูล การเล่มเกม การวิเคราะห์บันทึก การใช้งานเว็บ และปริมาณงานแบบเน้นการประมวลผลอื่นๆ
-
C4
-
อินสแตนซ์ C4 ได้รับการเพิ่มประสิทธิภาพสำหรับปริมาณงานที่เน้นการประมวลผลและให้ประสิทธิภาพขั้นสูงที่ประหยัดคุ้มค่ามากในราคาที่ถูกต่ออัตราส่วนการประมวลผล
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 2.9 GHz (Haswell E5-2666 v3)
- โปรเซสเซอร์ Intel Xeon E5-2666 v3 (Haswell) ความถี่สูงซึ่งได้รับการปรับให้เหมาะกับ EC2 โดยเฉพาะ
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้นเพื่อเพิ่มประสิทธิภาพด้านพื้นที่จัดเก็บโดยไม่มีค่าใช้จ่ายเพิ่มเติม
- ประสิทธิภาพเครือข่ายสูงขึ้นด้วย Enhanced Networking ที่รองรับ Intel 82599 VF
- ต้องมี Amazon VPC, Amazon EBS และ HVM AMI 64 บิต
อินสแตนซ์ vCPU* หน่วยความจำ (GiB) พื้นที่จัดเก็บ แบนด์วิดท์เฉพาะสำหรับ EBS (Mbps) ประสิทธิภาพเครือข่าย c4.large 2 3.75 EBS-เท่านั้น 500 ปานกลาง c4.xlarge 4 7.5 EBS เท่านั้น 750 สูง c4.2xlarge 8 15 EBS-เท่านั้น 1,000 สูง c4.4xlarge 16 30 EBS เท่านั้น 2,000 สูง c4.8xlarge 36 60 EBS-เท่านั้น 4,000 10 กิกะบิต อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 2.9 GHz
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
กลุ่มอินสแตนซ์ฟรอนต์เอนด์ประสิทธิภาพสูง เว็บเซิร์ฟเวอร์ การประมวลผลเป็นชุด การวิเคราะห์แบบกระจาย แอปพลิเคชันด้านวิศวกรรมและวิทยาศาสตร์ประสิทธิภาพสูง การนำเสนอโฆษณา การเล่นเกม MMO และการเข้ารหัสวิดีโอ
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 2.9 GHz (Haswell E5-2666 v3)
vCPU แต่ละรายการบนอินสแตนซ์ Amazon EC2 ที่ใช้ Graviton เป็นแกนของตัวประมวลผลของ AWS Graviton
vCPU แต่ละรายการบนอินสแตนซ์ Amazon EC2 ที่ไม่ใช้ Graviton เป็นเธรดของตัวประมวลผลที่ใช้ x86 ยกเว้นอินสแตนซ์ C7a
† AVX, AVX2 และระบบเครือข่ายที่ปรับปรุงประสิทธิภาพพร้อมใช้งานบนอินสแตนซ์ที่เปิดใช้ด้วย AMI ของ HVM เท่านั้น
* ค่านี้เป็นค่าเริ่มต้นและจำนวนสูงสุดของ vCPU ที่พร้อมใช้งานสำหรับประเภทอินสแตนซ์นี้ คุณสามารถระบุจำนวน vCPU แบบกำหนดเองได้เมื่อเรียกใช้งานประเภทอินสแตนซ์นี้ สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับจำนวน vCPU ที่ใช้ได้และวิธีเริ่มต้นใช้งานคุณสมบัตินี้ โปรดดูที่หน้าเอกสารประกอบ Optimize CPU ที่นี่
*** อินสแตนซ์ที่ระบุว่าแบนด์วิดท์เครือข่าย "สูงสุดถึง" มีแบนด์วิดท์พื้นฐานและสามารถใช้กลไกการให้เครดิต I/O ของเครือข่ายเพื่อขยายแบนด์วิดท์พื้นฐานเท่าที่จะเป็นไปได้ ดูข้อมูลเพิ่มเติมได้ที่แบนวิดท์เครือข่ายอินสแตนซ์
เพิ่มประสิทธิภาพหน่วยความจำ
อินสแตนซ์แบบเพิ่มประสิทธิภาพหน่วยความจำออกแบบมาเพื่อให้มีประสิทธิภาพรวดเร็วสำหรับเวิร์กโหลดที่ต้องประมวลผลชุดข้อมูลขนาดใหญ่ในหน่วยความจำ
-
R8g
-
R7g
-
R7i
-
R7iz
-
R7a
-
R6g
-
R6i
-
R6in
-
R6a
-
R5
-
R5n
-
R5b
-
R5a
-
R4
-
U7i
-
High Memory (U-1)
-
X8g
-
X2gd
-
X2idn
-
X2iedn
-
X2iezn
-
X1
-
X1e
-
z1d
-
R8g
-
อินสแตนซ์ Amazon EC2 R8g ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ซึ่งมีประสิทธิภาพด้านราคาดีที่สุดใน Amazon EC2 สำหรับเวิร์กโหลดที่มีการใช้หน่วยความจำที่เข้มข้น
ฟีเจอร์:
- ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ขนาดอินสแตนซ์ที่ใหญ่ขึ้น พร้อม vCPU และหน่วยความจํามากกว่าอินสแตนซ์ R7g สูงสุดถึง 3 เท่า
- มีหน่วยความจํา DDR5-5600 รุ่นล่าสุด
- ปรับมาให้เหมาะสําหรับ Amazon EBS โดยค่าเริ่มต้น
- รองรับ Elastic Fabric Adapter (EFA) บน r8g.24xlarge, r8g.48xlarge, r8g.metal -24xl และ r8g.metal -48xl
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนวิดท์ EBS (Gbps) r8g.medium
1
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r8g.large
2
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r8g.xlarge
4
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r8g.2xlarge
8
64
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
r8g.4xlarge
16
128
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
r8g.8xlarge
32
256
EBS เท่านั้น
15
10
r8g.12xlarge
48
384
EBS เท่านั้น
22.5
15
r8g.16xlarge
64
512
EBS เท่านั้น
30
20
r8g.24xlarge
96
768
EBS เท่านั้น
40
30
r8g.48xlarge
192
1,536
EBS เท่านั้น
50
40
r8g.metal-24xl
96
768
EBS เท่านั้น
40
30
r8g. โลหะ-48xl
192
1,536
EBS เท่านั้น
50
40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ปรับมาให้เหมาะสําหรับ Amazon EBS
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
เวิร์กโหลดที่เน้นหน่วยความจำ เช่น ฐานข้อมูลโอเพนซอร์ส แคชแบบใช้หน่วยความจำ และการวิเคราะห์ Big Data แบบเรียลไทม์
-
R7g
-
อินสแตนซ์ Amazon EC2 R7g ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton3 เหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่มีการใช้หน่วยความจำที่เข้มข้น
ฟีเจอร์:
- ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton3 ที่สร้างขึ้นแบบกำหนดเอง
- มีหน่วยความจำ DDR5 ที่มีแบนด์วิดท์เพิ่มขึ้น 50% เมื่อเทียบกับ DDR4
- แบนวิดท์เครือข่ายที่ดีกว่าอินสแตนซ์ R6g ถึง 20%
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ R7gd SSD ที่ใช้ NVMe ในเครื่องจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมอบพื้นที่เก็บข้อมูลระดับบล็อกที่สัมพันธ์กับอายุการใช้งานของอินสแตนซ์
- รองรับ Elastic Fabric Adapter (EFA) บนอินสแตนซ์ r7g.16xlarge, r7g.metal, r7gd.16xlarge และ r7gd.metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) r7g.medium
1
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7g.large
2
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7g.xlarge
4
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7g.2xlarge
8
64
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
r7g.4xlarge
16
128
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
r7g.8xlarge
32
256
EBS เท่านั้น
15
10
r7g.12xlarge
48
384
EBS เท่านั้น
22.5
15
r7g.16xlarge
64
512
EBS เท่านั้น
30
20
r7g.metal
64
512
EBS เท่านั้น
30
20
r7gd.medium
1
8
1 x 59 NVMe SSD
สูงสุด 12.5
สูงสุด 10
r7gd.large
2
16
1 x 118 NVMe SSD
สูงสุด 12.5
สูงสุด 10
r7gd.xlarge
4
32
1 x 237 NVMe SSD
สูงสุด 12.5
สูงสุด 10
r7gd.2xlarge
8
64
1 x 474 NVMe SSD
สูงสุด 15
สูงสุด 10
r7gd.4xlarge
16
128
1 x 950 NVMe SSD
สูงสุด 15
สูงสุด 10
r7gd.8xlarge
32
256
1 x 1900 NVMe SSD
15
10
r7gd.12xlarge
48
384
2 x 1425 NVMe SSD
22.5
15
r7gd.16xlarge
64
512
2 x 1900 NVMe SSD
30
20
r7gd.metal
64
512
2 x 1900 NVMe SSD
30
20
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton3 แบบกำหนดเองที่มีแกนประมวลผล Arm แบบ 64 บิต
- EBS แบบเพิ่มประสิทธิภาพ
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
เวิร์กโหลดที่เน้นหน่วยความจำ เช่น ฐานข้อมูลโอเพนซอร์ส แคชแบบใช้หน่วยความจำ และการวิเคราะห์ Big Data แบบเรียลไทม์ -
R7i
-
อินสแตนซ์ Amazon EC2 R7i ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 และมอบประสิทธิภาพด้านราคาที่ดีขึ้น 15% เมื่อเทียบกับอินสแตนซ์ R6i
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 ความถี่สูงสุด 3.2 GHz (Sapphire Rapids 8488C)
- Advance Matrix Extensions (AMX) ใหม่ช่วยเร่งความเร็วในการดำเนินการคูณเมทริกซ์
- 2 ขนาด Metal: r7i.metal-24xl และ r7i.metal-48xl
- ตัวเร่งแบบแยกส่วนที่มีมาในตัว (พร้อมใช้งานในขนาด R7i Bare Metal เท่านั้น) ได้แก่ตัวเร่งการทำ Data Stream (DSA), ตัวเร่งการวิเคราะห์แบบใช้หน่วยความจำ (IAA) และ QuickAssist Technology (QAT) ช่วยให้ลดภาระการประมวลผลได้อย่างมีประสิทธิภาพ และเร่งความเร็วในการดำเนินการกับข้อมูลซึ่งช่วยในการเพิ่มประสิทธิภาพให้กับฐานข้อมูล การเข้ารหัสและการบีบอัด และเวิร์กโหลดการจัดการคิว
- หน่วยความจำ DDR5 รุ่นล่าสุด ซึ่งมีแบนวิดท์มากขึ้นเมื่อเทียบกับ DDR4
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับไฟล์แนบโวลุ่ม EBS สูงสุด 128 EBS ต่ออินสแตนซ์
- vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 1,536 GiB
- รองรับ Elastic Fabric Adapter ในขนาด 48xlarge และขนาด metal-48xl
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและ Hypervisor ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) r7i.large
2
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7i.xlarge
4
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7i.2xlarge
8
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7i.4xlarge
16
128
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7i.8xlarge
32
256
EBS เท่านั้น
12.5
10
r7i.12xlarge
48
384
EBS เท่านั้น
18.75
15
r7i.16xlarge
64
512
EBS-เท่านั้น
25
20
r7i.24xlarge
96
768
EBS เท่านั้น
37.5
30
r7i.48xlarge
192
1,536
EBS-เท่านั้น
50
40
r7i.metal-24xl
96
768
EBS เท่านั้น
37.5
30
r7i.metal-48xl
192
1,536
EBS-เท่านั้น
50
40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล Intel Xeon Scalable รุ่นที่ 4 สูงสุด 3.2 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
อินสแตนซ์ R7i ได้รับการรับรองจาก SAP และเหมาะอย่างยิ่งสำหรับเวิร์กโหลดทั้งหมดที่ใช้หน่วยความจำมาก (ฐานข้อมูล SQL และ NoSQL) แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์แบบกระจาย (Memcached และ Redis) ฐานข้อมูลแบบใช้หน่วยความจำ (SAP HANA) และการวิเคราะห์ Big Data แบบเรียลไทม์ (คลัสเตอร์ Apache Hadoop และ Apache Spark)
-
R7iz
-
อินสแตนซ์ Amazon EC2 R7iz ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 4 และเหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่เน้นการประมวลผล
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 4 แบบปรับขนาดได้ (Sapphire Rapids 6455B) ที่มีความถี่แบบเทอร์โบของคอร์ประมวลผลทั้งหมดสูงสุด 3.9 GHz
- ประสิทธิภาพการประมวลผลสูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ z1d
- Advance Matrix Extensions (AMX) ใหม่ช่วยเร่งความเร็วในการดำเนินการคูณเมทริกซ์ - มีพร้อมใช้งานในทุกขนาด
- ตัวเร่งความเร็วแบบแยกส่วนที่มีมาในตัว (มีให้ใช้งานในขนาด R7iz Bare Metal เท่านั้น) ได้แก่ Data Streaming Accelerator (DSA), In-Memory Analytics Accelerator (IAA) และ QuickAssist Technology (QAT) ช่วยให้ถ่ายโอนข้อมูลได้อย่างมีประสิทธิภาพและเร่งความเร็วในการดำเนินการกับข้อมูล ซึ่งช่วยในการเพิ่มประสิทธิภาพให้กับฐานข้อมูล การเข้ารหัสและการบีบอัด และเวิร์กโหลดการจัดการคิว
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store (EBS) สูงสุด 40 Gbps
- ขนาดอินสแตนซ์ที่มี vCPU สูงสุด 128 รายการและหน่วยความจำสูงสุด 1,024 GiB
- รองรับ Elastic Fabric Adapter ในขนาด 32xlarge และ metal-32xl
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์เฉพาะและ Hypervisor ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) r7iz.large
2
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7iz.xlarge
4
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7iz.2xlarge
8
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7iz.4xlarge
16
128
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7iz.8xlarge
32
256
EBS เท่านั้น
12.5
10
r7iz.12xlarge
48
384
EBS เท่านั้น
25
19
r7iz.16xlarge
64
512
EBS-เท่านั้น
25
20
r7iz.32xlarge
128
1,024
EBS เท่านั้น
50
40
r7iz.metal-16xl
64
512
EBS-เท่านั้น
25
20
r7iz.metal-32xl
128
1,024
EBS เท่านั้น
50
40
กรณีการใช้งาน
เวิร์กโหลดที่มีการประมวลผลสูงและเน้นหน่วยความจำ เช่น ฟรอนต์เอนด์ Electronic Design Automation (EDA), เวิร์กโหลดฐานข้อมูลแบบเชิงสัมพันธ์ที่มีค่าธรรมเนียมการให้สิทธิ์การใช้งานต่อคอร์สูง และเวิร์กโหลดการจำลองทางการเงิน คณิตศาสตร์ประกันภัย และการวิเคราะห์ข้อมูล
-
R7a
-
อินสแตนซ์ Amazon EC2 R7a ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC รุ่นที่ 4 ให้ประสิทธิภาพที่สูงขึ้นถึง 50% เมื่อเทียบกับอินสแตนซ์ R6a
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 4 ที่มีความถี่สูงสุด 3.7 GHz (AMD EPYC 9R14)
- แบนวิดท์เครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 40 Gbps
- ขนาดอินสแตนซ์พร้อม vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 1,536 GiB
- อินสแตนซ์ที่ได้รับการรับรองจาก SAP
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดตลอดเวลาโดยใช้การเข้ารหัสหน่วยความจำที่ปลอดภัยของ AMD (SME)
- รองรับความสามารถใหม่ของหน่วยประมวลผลกลาง เช่น AVX3-512, VNNI และ bfloat16
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) r7a.medium
1
8
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7a.large
2
16 EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7a.xlarge
4
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7a.2xlarge
8
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7a.4xlarge
16
128
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
r7a.8xlarge
32
256
EBS เท่านั้น
12.5
10
r7a.12xlarge
48
384
EBS เท่านั้น
18.75
15
r7a.16xlarge
64
512
EBS-เท่านั้น
25
20
r7a.24xlarge
96
768
EBS เท่านั้น
37.5
30
r7a.32xlarge
128
1,024
EBS เท่านั้น
50
40
r7a.48xlarge
192
1,536
EBS-เท่านั้น
50
40
r7a.metal-48xl
192
1,536
EBS-เท่านั้น
50
40
กรณีใช้งาน
เวิร์กโหลดที่ใช้หน่วยความจำมาก เช่น ฐานข้อมูล SQL และ NoSQL, แคชแบบใช้หน่วยความจำในระดับเว็บแบบกระจาย, ฐานข้อมูลแบบใช้หน่วยความจำ, การวิเคราะห์ Big Data แบบเรียลไทม์ และ Electronic Design Automation (EDA)
-
R6g
-
อินสแตนซ์ Amazon EC2 R6g ขับเคลื่อนโดยตัวประมวลผล AWS Graviton2 แบบ Arm อินสแตนซ์ดังกล่าวมอบประสิทธิภาพและความคุ้มค่ามากขึ้นถึง 40% เมื่อเทียบกับอินสแตนซ์ R5 รุ่นปัจจุบัน สำหรับการประยุกต์ใช้งานที่เน้นหน่วยความจำ
คุณสมบัติ:
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- รองรับ Enhanced Networking โดยมีแบนด์วิดท์เครือข่ายสูงสุด 25 Gbps
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- เมื่อใช้อินสแตนซ์ R6gd ดิสก์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) r6g.medium 1 8 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 r6g.large 2 16 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 r6g.xlarge 4 32 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 r6g.2xlarge 8 64 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 r6g.4xlarge 16 128 EBS-เท่านั้น สูงสุด 10 4,750 r6g.8xlarge 32 256 EBS เท่านั้น 12 9,000 r6g.12xlarge 48 384 EBS เท่านั้น 20 13,500 r6g.16xlarge 64 512 EBS-เท่านั้น 25 19,000 r6g.metal 64 512 EBS-เท่านั้น 25 19,000 r6gd.medium 1 8 1 x 59 NVMe SSD สูงสุด 10 สูงสุด 4,750 r6gd.large 2 16 1 x 118 NVMe SSD สูงสุด 10 สูงสุด 4,750 r6gd.xlarge 4 32 1 x 237 NVMe SSD สูงสุด 10 สูงสุด 4,750 r6gd.2xlarge 8 64 1 x 474 NVMe SSD สูงสุด 10 สูงสุด 4,750 r6gd.4xlarge 16 128 1 x 950 NVMe SSD สูงสุด 10 4,750 r6gd.8xlarge 32 256 1 x 1900 NVMe SSD 12 9,000 r6gd.12xlarge 48 384 2 x 1425 NVMe SSD 20 13,500 r6gd.16xlarge 64 512 2 x 1900 NVMe SSD 25 19,000 r6gd.metal 64 512 2 x 1900 NVMe SSD 25 19,000 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
การประยุกต์ใช้งานที่เน้นหน่วยความจำ เช่น ฐานข้อมูลโอเพนซอร์ส การแคชในหน่วยความจำ และการวิเคราะห์ Big Data แบบเรียลไทม์
-
R6i
-
อินสแตนซ์ Amazon R6i ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon Scalable รุ่นที่ 3 (ชื่อรหัส Ice Lake) ซึ่งเหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่ต้องใช้หน่วยความจำสูง
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- ประสิทธิภาพการประมวลผลที่มีความคุ้มค่ามากขึ้นถึง 15% เมื่อเทียบกับอินสแตนซ์ R5
- แบนด์วิดท์หน่วยความจำต่อ vCPU สูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ R5
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 40 Gbps
- ขนาดอินสแตนซ์ใหม่ (32xlarge) ที่มี vCPU 128 รายการและหน่วยความจำ 1,024 GiB
- รองรับ Elastic Fabric Adapter ในขนาด 32xlarge และเมทัล
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extension (AVX 512) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
- เมื่อใช้อินสแตนซ์ R6id ไดรฟ์ SSD แบบใช้ NVMe ภายในความจุสูงสุด 7.6 TB จะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์ และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ R6i
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) r6i.large 2 16 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6i.xlarge 4 32 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6i.2xlarge 8 64 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6i.4xlarge 16 128 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6i.8xlarge 32 256 EBS เท่านั้น 12.5 10 r6i.12xlarge 48 384 EBS เท่านั้น 18.75 15 r6i.16xlarge 64 512 EBS-เท่านั้น 25 20 r6i.24xlarge 96 768 EBS เท่านั้น 37.5 30 r6i.32xlarge 128 1,024 EBS เท่านั้น 50 40 r6i.metal 128 1,024 EBS เท่านั้น 50 40 r6id.large 2 16 1x118 NVMe SSD สูงสุด 12.5 สูงสุด 10 r6id.xlarge 4 32 1x237 NVMe SSD สูงสุด 12.5 สูงสุด 10 r6id.2xlarge 8 64 1x474 NVMe SSD สูงสุด 12.5 สูงสุด 10 r6id.4xlarge 16 128 1x950 NVMe SSD สูงสุด 12.5 สูงสุด 10 r6id.8xlarge 32 256 1x1900 NVMe SSD 12.5 10 r6id.12xlarge 48 384 2x1425 NVMe SSD 18.75 15 r6id.16xlarge 64 512 2x1900 NVMe SSD 25 20 r6id.24xlarge 96 768 4x1425 NVMe SSD 37.5 30 r6id.32xlarge 128 1,024 4x1900 NVMe SSD 50 40 r6id.metal 128 1,024 4x1900 NVMe SSD 50 40 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล Intel Xeon Scalable รุ่นที่ 3 ที่มีความเร็วสูงสุดถึง 3.5 GHz
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
เวิร์กโหลดที่ใช้หน่วยความจำสูง เช่น ฐานข้อมูล SAP, SQL และ NoSQL, แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์ของเว็บไซต์แบบกระจาย เช่น Memcached และ Redis, ฐานข้อมูลแบบใช้หน่วยความจำ เช่น SAP HANA และการวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) แบบเรียลไทม์ เช่น คลัสเตอร์ Hadoop และ Spark
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
-
R6in
-
อินสแตนซ์ Amazon EC2 R6in และ R6idn เหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่เน้นหน่วยความจำซึ่งสามารถใช้ประโยชน์จากแบนวิดท์เครือข่ายสูง เช่น ฐานข้อมูล SAP, SQL และ NoSQL และฐานข้อมูลแบบใช้หน่วยความจำ เช่น SAP HANA อินสแตนซ์ R6in และ R6idn มีแบนด์วิดท์เครือข่ายสูงสุด 200 Gbps และแบนด์วิดท์ Amazon Elastic Block Store (EBS) สูงสุด 80 Gbps
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- แบนด์วิดท์หน่วยความจำต่อ vCPU สูงขึ้นถึง 20% เมื่อเทียบกับอินสแตนซ์ R5n และ R5dn
- ความเร็วเครือข่ายสูงสุด 200 Gbps ซึ่งเพิ่มขึ้นถึง 2 เท่าเมื่อเทียบกับอินสแตนซ์ R5n และ R5dn
- แบนวิดท์ EBS สูงสุด 100 Gbps ซึ่งเพิ่มขึ้นถึง 1.6 เท่าเมื่อเทียบกับอินสแตนซ์ R5b
- รองรับ Elastic Fabric Adapter (EFA) ในขนาด 32xlarge และ metal
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการประมวลผลอัลกอริทึมเข้ารหัสลับที่เร็วยิ่งขึ้น
- เมื่อใช้อินสแตนซ์ R6idn ไดรฟ์ SSD แบบใช้ NVMe ภายในความจุสูงสุด 7.6 TB จะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์ และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ R6idn
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) r6in.large 2 16 EBS เท่านั้น สูงสุด 25 สูงสุด 25 r6in.xlarge 4 32 EBS เท่านั้น สูงสุด 30 สูงสุด 25 r6in.2xlarge 8 64 EBS เท่านั้น สูงสุด 40 สูงสุด 25 r6in.4xlarge 16 128 EBS เท่านั้น สูงสุด 50 สูงสุด 25 r6in.8xlarge 32 256 EBS เท่านั้น 50 25 r6in.12xlarge 48 384 EBS เท่านั้น 75 37.5 r6in.16xlarge 64 512 EBS เท่านั้น 100 50 r6in.24xlarge 96 768 EBS เท่านั้น 150 75 r6in.32xlarge 128 1,024 EBS เท่านั้น 200**** 100 r6in.metal 128 1,024 EBS เท่านั้น 200**** 100 r6idn.large 2 16 1x118 NVMe SSD สูงสุด 25 สูงสุด 25 r6idn.xlarge 4 32 1x237 NVMe SSD สูงสุด 30 สูงสุด 25 r6idn.2xlarge 8 64 1x474 NVMe SSD สูงสุด 40 สูงสุด 25 r6idn.4xlarge 16 128 1x950 NVMe SSD สูงสุด 50 สูงสุด 25 r6idn.8xlarge 32 256 1x1900 NVMe SSD 50 25 r6idn.12xlarge 48 384 2x1425 NVMe SSD 75 37.5 r6idn.16xlarge 64 512 2x1900 NVMe SSD 100 50 r6idn.24xlarge 96 768 4x1425 NVMe SSD 150 75 r6idn.32xlarge 128 1,024 4x1900 NVMe SSD 200**** 100 r6idn.metal 128 1,024 4x1900 NVMe SSD 200**** 100
****สำหรับขนาด 32xlarge และ Metal จำเป็นต้องมีอินเทอร์เฟซเครือข่ายแบบยืดหยุ่นอย่างน้อย 2 อินเทอร์เฟซ โดยแต่ละอินเทอร์เฟซเชื่อมต่อกับการ์ดเครือข่ายที่แตกต่างกัน ซึ่งจำเป็นสำหรับอินสแตนซ์เพื่อรองรับอัตราการโอนถ่ายข้อมูล 200 Gbps แต่ละอินเทอร์เฟซเครือข่ายที่เชื่อมต่อกับการ์ดเครือข่ายรองรับความเร็วได้สูงสุด 170 Gbps ดูข้อมูลเพิ่มเติม ได้ที่การ์ดเครือข่ายอินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ เจนเนอเรชั่น 3 ความถี่สูงสุด 3.5 GHz
- EBS แบบเพิ่มประสิทธิภาพ
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ปริมาณงานที่เน้นหน่วยความจำซึ่งสามารถใช้ประโยชน์จากปริมาณการประมวลผลเครือข่ายสูง เช่น ฐานข้อมูล SAP, SQL และ NoSQL และฐานข้อมูลแบบใช้หน่วยความจำ เช่น SAP HANA
-
R6a
-
อินสแตนซ์ Amazon EC2 R6a ขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ซึ่งเหมาะเป็นอย่างยิ่งสำหรับเวิร์กโหลดที่ใช้หน่วยความจำมาก
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ที่มีความถี่สูงสุด 3.6 GHz (AMD EPYC 7R13)
- ประสิทธิภาพการประมวลผลที่มีความคุ้มค่ามากขึ้นถึง 35% เมื่อเทียบกับอินสแตนซ์ R5a
- ความเร็วในระบบเครือข่ายสูงสุด 50 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 40 Gbps
- ขนาดอินสแตนซ์พร้อม vCPU สูงสุด 192 รายการและหน่วยความจำสูงสุด 1,536 GiB
- อินสแตนซ์ที่ได้รับการรับรองจาก SAP
- รองรับ Elastic Fabric Adapter ในขนาด 48xlarge และ metal
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ AMD Transparent Single Key Memory Encryption (TSME)
- รองรับคำสั่ง AMD Advanced Vector Extensions (AVX-2) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) r6a.large 2 16 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6a.xlarge 4 32 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6a.2xlarge 8 64 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6a.4xlarge 16 128 EBS เท่านั้น สูงสุด 12.5 สูงสุด 10 r6a.8xlarge 32 256 EBS เท่านั้น 12.5 10 r6a.12xlarge 48 384 EBS เท่านั้น 18.75 15 r6a.16xlarge 64 512 EBS-เท่านั้น 25 20 r6a.24xlarge 96 768 EBS เท่านั้น 37.5 30 r6a.32xlarge 128 1024 EBS เท่านั้น 50 40 r6a.48xlarge 192 1536 EBS เท่านั้น 50 40 r6a.metal 192 1536 EBS เท่านั้น 50 40 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AMD EPYC รุ่น 3 สูงสุดถึง 3.6 GHz
- EBS แบบเพิ่มประสิทธิภาพ
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีใช้งาน
เวิร์กโหลดที่ใช้หน่วยความจำสูง เช่น ฐานข้อมูล SAP, SQL และ NoSQL, แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์ของเว็บไซต์แบบกระจาย เช่น Memcached และ Redis, ฐานข้อมูลแบบใช้หน่วยความจำ และการวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) แบบเรียลไทม์ เช่น คลัสเตอร์ Hadoop และ Spark และแอปพลิเคชันระดับองค์กรอื่นๆ
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 ที่มีความถี่สูงสุด 3.6 GHz (AMD EPYC 7R13)
-
R5
-
อินสแตนซ์ Amazon EC2 R5 ให้หน่วยความจำเสริมต่อ vCPU มากกว่า R4 ถึง 5% และขนาดที่ใหญ่ที่สุดให้หน่วยความจำขนาด 768 GiB นอกจากนี้ อินสแตนซ์ R5 ยังช่วยประหยัดค่าใช้จ่ายต่อการเพิ่มหน่วยความจำได้ 10% ต่อ GiB และเพิ่มประสิทธิภาพของ CPU ได้มากกว่า R4 ประมาณ 20%
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon® Platinum ซีรีส์ 8000 ที่มีความถี่สูงสุด 3.1 GHz (Skylake 8175M หรือ Cascade Lake 8259CL) พร้อมชุดคำสั่ง Intel Advanced Vector Extension (AVX-512) แบบใหม่
- หน่วยความจำต่ออินสแตนซ์สูงสุด 768 GiB
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- เมื่อใช้อินสแตนซ์ R5d ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ R5
- ขนาด 8xlarge และ 16xlarge แบบใหม่พร้อมใช้งานแล้ว
อินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) ประสิทธิภาพเครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) r5.large 2 16 EBS-เท่านั้น สูงสุด 10 สูงสุด 4,750 r5.xlarge 4 32 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 r5.2xlarge 8 64 EBS เท่านั้น สูงสุด 10 สูงสุด 4,750 r5.4xlarge 16 128 EBS เท่านั้น สูงสุด 10 4,750 r5.8xlarge 32 256 EBS เท่านั้น 10 6,800 r5.12xlarge 48 384 EBS เท่านั้น 10 9,500 r5.16xlarge 64 512 EBS เท่านั้น 20 13,600 r5.24xlarge 96 768 EBS เท่านั้น 25 19,000 r5.metal 96* 768 EBS เท่านั้น 25 19,000 r5d.large 2 16 1 x 75 NVMe SSD สูงสุด 10 สูงสุด 4,750 r5d.xlarge 4 32 1 x 150 NVMe SSD สูงสุด 10 สูงสุด 4,750 r5d.2xlarge 8 64 1 x 300 NVMe SSD สูงสุด 10 สูงสุด 4,750 r5d.4xlarge 16 128 2 x 300 NVMe SSD สูงสุด 10 4,750 r5d.8xlarge 32 256 2 x 600 NVMe SSD 10 6,800 r5d.12xlarge 48 384 2 x 900 NVMe SSD 10 9,500 r5d.16xlarge 64 512 4 x 600 NVMe SSD 20 13,600 r5d.24xlarge 96 768 4 x 900 NVMe SSD 25 19,000 r5d.metal 96* 768 4 x 900 NVMe SSD 25 19,000 *อินสแตนซ์ r5.metal และ r5d.metal มีตัวประมวลผลเชิงตรรกะ 96 ตัวบนแกนกายภาพ 48 ตัว ซึ่งทำงานในเซิร์ฟเวอร์เดี่ยวที่มีซ็อกเก็ต Intel จริง 2 ตัว
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล Intel Xeon Platinum สูงสุด 3.1 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
อินสแตนซ์ R5 เหมาะกับแอปพลิเคชันที่ใช้หน่วยความจำมาก เช่น ฐานข้อมูลประสิทธิภาพสูง แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์ของเว็บไซต์แบบกระจาย ฐานข้อมูลแบบใช้หน่วยความจำขนาดกลาง การวิเคราะห์ข้อมูลขนาดใหญ่ (ฺBig Data) แบบเรียลไทม์ และแอปพลิเคชันอื่นๆ สำหรับองค์กร
-
R5n
-
อินสแตนซ์ Amazon EC2 R5 เหมาะเป็นอย่างยิ่งสำหรับเวิร์กโหลดที่ขึ้นอยู่กับปริมาณหน่วยความจำ เช่น ฐานข้อมูลประสิทธิภาพสูง แคชแบบใช้หน่วยความจำระดับเว็บไซต์ที่เผยแพร่ ฐานข้อมูลแบบใช้หน่วยความจำขนาดกลาง การวิเคราะห์ Big Data แบบเรียลไทม์ และแอปพลิเคชันอื่นๆ สำหรับองค์กร อินสแตนซ์ R5n และ R5dn ที่มีแบนด์วิดท์สูงกว่าเหมาะสมที่สุดสำหรับแอปพลิเคชันที่สามารถใช้ประโยชน์จากอัตราการส่งข้อมูลผ่านเครือข่ายและประสิทธิภาพการส่งแพ็กเก็ตที่ได้รับการปรับปรุง
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8259CL) ที่มีความถี่ต่อเนื่องแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 3.1 GHz และความถี่แบบเทอร์โบของคอร์ประมวลผลเดี่ยวสูงสุด 3.5 GHz
- การรองรับ Intel Vector Neural Network Instructions (AVX-512 VNNI) รุ่นใหม่ซึ่งจะช่วยเพิ่มความเร็วสำหรับการทำงานด้านแมชชีนเลิร์นนิงโดยทั่วไป เช่น เนื้อหาที่มีความซับซ้อน และปรับปรุงประสิทธิภาพในการอนุมานให้กับเวิร์กโหลดด้านดีปเลิร์นนิ่งได้อย่างหลากหลายโดยอัตโนมัติ
- แบนด์วิธสูงสุด 25 Gbps ในขนาดอินสแตนซ์ที่เล็กกว่า
- แบนด์วิธเครือข่าย 100 Gbps ในขนาดอินสแตนซ์ที่ใหญ่กว่า
- ต้องมี HVM AMI ที่รวมไดรเวอร์สำหรับ ENA และ NVMe
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ R5dn ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมอบพื้นที่จัดเก็บระดับบล็อกที่มีอายุการใช้งานเทียบเท่าอินสแตนซ์ R5
ขนาดของอินสแตนซ์
vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) ประสิทธิภาพเครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) r5n.large 2 16 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 r5n.xlarge 4 32 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 r5n.2xlarge 8 64 EBS เท่านั้น สูงสุด 25 สูงสุด 4,750 r5n.4xlarge 16 128 EBS-เท่านั้น สูงสุด 25 4,750 r5n.8xlarge 32 256 EBS เท่านั้น 25 6,800 r5n.12xlarge 48 384 EBS เท่านั้น 50 9,500 r5n.16xlarge 64 512 EBS เท่านั้น 75 13,600 r5n.24xlarge 96 768 EBS-เท่านั้น 100 19,000 r5n.metal 96* 768 EBS-เท่านั้น 100 19,000 r5dn.large 2 16 1 x 75 NVMe SSD สูงสุด 25 สูงสุด 4,750 r5dn.xlarge 4 32 1 x 150 NVMe SSD สูงสุด 25 สูงสุด 4,750 r5dn.2xlarge 8 64 1 x 300 NVMe SSD สูงสุด 25 สูงสุด 4,750 r5dn.4xlarge 16 128 2 x 300 NVMe SSD สูงสุด 25 4,750 r5dn.8xlarge 32 256 2 x 600 NVMe SSD 25 6,800 r5dn.12xlarge 48 384 2 x 900 NVMe SSD 50 9,500 r5dn.16xlarge 64 512 4 x 600 NVMe SSD 75 13,600 r5dn.24xlarge 96 768 4 x 900 NVMe SSD 100 19,000 r5dn.metal 96* 768 4 x 900 NVMe SSD 100 19,000 *r5n.metal และ r5dn.metal มีตัวประมวลผลเชิงตรรกะ 96 ตัวบนแกนประมวลผลจริง 48 หน่วย
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล Intel Xeon Scalable (Cascade Lake) รุ่นที่ 2 แบบกำหนดเองที่มีความถี่ของแกนประมวลผลแบบรักษาความถี่พร้อมความเร็วแบบ Turbo ที่ 3.1 GHz และความถี่ของแกนประมวลผลเดี่ยวพร้อมความเร็วแบบ Turbo สูงสุดที่ 3.5 GHz
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo, Intel DL Boost
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ฐานข้อมูลประสิทธิภาพสูง แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์ของเว็บไซต์แบบกระจาย ฐานข้อมูลแบบใช้หน่วยความจำขนาดกลาง การวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) แบบเรียลไทม์ และแอปพลิเคชันอื่นๆ สำหรับองค์กร
-
R5b
-
อินสแตนซ์ Amazon EC2 R5b คือตัวเลือกที่ปรับให้เหมาะสำหรับ EBS ของอินสแตนซ์ R5 แบบเพิ่มประสิทธิภาพของหน่วยความจำ อินสแตนซ์ R5b เพิ่มประสิทธิภาพของ EBS เป็น 3 เท่าเมื่อเทียบกับอินสแตนซ์ R5 ขนาดเดียวกัน อินสแตนซ์ R5b มีแบนด์วิดท์สูงสุด 60 Gbps และประสิทธิภาพ EBS 260K IOPS ซึ่งเป็นประสิทธิภาพของพื้นที่จัดเก็บบล็อกที่เร็วที่สุดบน EC2
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8259CL) ที่มีความถี่ต่อเนื่องแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 3.1 GHz และความถี่แบบเทอร์โบของคอร์ประมวลผลเดี่ยวอยู่ที่ 3.5 GHz
- สูงสุด 96 vCPU, หน่วยความจำสูงสุด 768 GiB
- แบนด์วิดท์เครือข่ายสูงสุด 25 Gbps
- แบนด์วิดท์ EBS สูงสุด 60 Gbps
ขนาดของอินสแตนซ์
vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) ประสิทธิภาพเครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) r5b.large
2
16
EBS-เท่านั้น
สูงสุด 10
สูงสุด 10,000
r5b.xlarge
4
32
EBS เท่านั้น
สูงสุด 10
สูงสุด 10,000
r5b.2xlarge
8
64
EBS เท่านั้น
สูงสุด 10
สูงสุด 10,000
r5b.4xlarge
16
128
EBS เท่านั้น
สูงสุด 10
10,000
r5b.8xlarge
32
256
EBS เท่านั้น
10
20,000
r5b.12xlarge
48
384
EBS เท่านั้น
10
30,000
r5b.16xlarge
64
512
EBS เท่านั้น
20
40,000
r5b.24xlarge
96
768
EBS เท่านั้น
25
60,000
r5b.metal
96*
768
EBS เท่านั้น
25
60,000
กรณีการใช้งาน
ฐานข้อมูลประสิทธิภาพสูง แคชแบบใช้หน่วยความจำที่ลดจำนวนอินสแตนซ์ของเว็บไซต์แบบกระจายฐานข้อมูลแบบใช้หน่วยความจำขนาดกลาง การวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) แบบเรียลไทม์
-
R5a
-
อินสแตนซ์ Amazon EC2 R5a คืออินสแตนซ์แบบเพิ่มประสิทธิภาพหน่วยความจำรุ่นล่าสุด ซึ่งเหมาะสำหรับเวิร์กโหลดที่ขึ้นอยู่กับปริมาณหน่วยความจำและขับเคลื่อนโดยโปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 อินสแตนซ์ R5a ช่วยประหยัดค่าใช้จ่ายได้มากถึง 10% ต่อหน่วยความจำ GiB เมื่อเทียบกับอินสแตนซ์ประเภทอื่น
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 (AMD EPYC 7571) ที่มีความเร็วสัญญาณนาฬิกาแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 2.5 GHz
- แบนด์วิดท์เครือข่ายสูงสุด 20 Gbps โดยใช้ Enhanced Networking
- หน่วยความจำต่ออินสแตนซ์สูงสุด 768 GiB
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- พื้นที่จัดเก็บอินสแตนซ์ให้บริการผ่าน EBS หรือ NVMe SSD ซึ่งแนบมากับเซิร์ฟเวอร์โฮสต์จริง
- เมื่อใช้อินสแตนซ์ R5ad ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่เก็บข้อมูลระดับบล็อกที่เชื่อมต่อกับอายุการใช้งานของอินสแตนซ์ R5a
ขนาดของอินสแตนซ์
vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) ประสิทธิภาพเครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Mbps) r5a.large 2 16
EBS เท่านั้น สูงสุด 10
สูงสุด 2,880 r5a.xlarge 4 32 EBS เท่านั้น สูงสุด 10 สูงสุด 2,880 r5a.2xlarge 8 64 EBS เท่านั้น สูงสุด 10 สูงสุด 2,880 r5a.4xlarge 16 128 EBS-เท่านั้น สูงสุด 10 2,880 r5a.8xlarge 32 256 EBS เท่านั้น สูงสุด 10 4,750 r5a.12xlarge 48 384 EBS เท่านั้น 10 6,780 r5a.16xlarge 64 512 EBS เท่านั้น 12 9,500 r5a.24xlarge 96 768 EBS-เท่านั้น 20 13,570 r5ad.large 2 16 1 x 75 NVMe SSD สูงสุด 10
สูงสุด 2,880 r5ad.xlarge 4 32 1 x 150 NVMe SSD สูงสุด 10
สูงสุด 2,880 r5ad.2xlarge 8 64 1 x 300 NVMe SSD สูงสุด 10
สูงสุด 2,880 r5ad.4xlarge 16 128 2 x 300 NVMe SSD สูงสุด 10
2,880 r5ad.8xlarge 32 256 2 x 600 NVMe SSD สูงสุด 10 4,750 r5ad.12xlarge 48 384 2 x 900 NVMe SSD 10 6,780 r5ad.16xlarge 64 512 4 x 600 NVMe SSD 12 9,500 r5ad.24xlarge 96 768 4 x 900 NVMe SSD 20 13,570 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.5 GHz AMD EPYC ซีรีส์ 7000
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
อินสแตนซ์ R5a เหมาะกับแอปพลิเคชันที่ใช้หน่วยความจำมาก เช่น ฐานข้อมูลประสิทธิภาพสูง แคชในหน่วยความจำระดับเว็บไซต์ที่เผยแพร่ ฐานข้อมูลในหน่วยความจำขนาดกลาง การวิเคราะห์ข้อมูลขนาดใหญ่แบบเรียลไทม์ และแอปพลิเคชันอื่นๆ สำหรับองค์กร
- โปรเซสเซอร์ AMD EPYC ซีรีส์ 7000 (AMD EPYC 7571) ที่มีความเร็วสัญญาณนาฬิกาแบบเทอร์โบของคอร์ประมวลผลทั้งหมดอยู่ที่ 2.5 GHz
-
R4
-
อินสแตนซ์ Amazon EC2 R4 เหมาะสำหรับแอปพลิเคชันที่ใช้หน่วยความจำปริมาณมาก ทั้งยังมีข้อเสนอด้านราคาต่อ GiB ของ RAM ที่ถูกกว่าเมื่อเทียบกับ R3
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ความถี่สูง (Broadwell E5-2686 v4)
- หน่วยความจำ DDR4
- รองรับ Enhanced Networking
อินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่จัดเก็บ ประสิทธิภาพเครือข่าย (Gbps)*** r4.large 2 15.25 EBS-เท่านั้น สูงสุด 10 r4.xlarge 4 30.5 EBS เท่านั้น สูงสุด 10 r4.2xlarge 8 61 EBS เท่านั้น สูงสุด 10 r4.4xlarge 16 122 EBS-เท่านั้น สูงสุด 10 r4.8xlarge 32 244 EBS-เท่านั้น 10 r4.16xlarge 64 488 EBS-เท่านั้น 25 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ด้วยความถี่สูงสุด 2.3 GHz
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ฐานข้อมูลประสิทธิภาพสูง, Data Mining และการวิเคราะห์, ฐานข้อมูลแบบใช้หน่วยความจำ, แคชแบบใช้หน่วยความจำระดับเว็บที่เผยแพร่, แอปพลิเคชันที่ดำเนินการแบบเรียลไทม์ของ Big Data ที่ยังไม่ได้รับการจัดระบบ, คลัสเตอร์ Hadoop/Spark และแอปพลิเคชันองค์กรอื่นๆ
-
U7i
-
อินสแตนซ์ Amazon EC2 High Memory U7i สร้างขึ้นมาโดยเฉพาะเพื่อเรียกใช้ฐานข้อมูลแบบใช้หน่วยความจำที่มีขนาดใหญ่ ซึ่งรวมถึงการนำ SAP HANA ไปใช้จริงในระบบคลาวด์
คุณสมบัติ:
- มี vCPU ให้บริการ 896 ยูนิต
- มาพร้อมหน่วยความจำ DDR5
- หน่วยความจำอินสแตนซ์สูงสุด 32 TiB
- ขับเคลื่อนด้วยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- อินสแตนซ์เสมือนพร้อมใช้งานสำหรับตัวเลือกการซื้อแบบตามความต้องการและ Savings Plan แบบ 1 ปีและ 3 ปี
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนวิดท์ EBS (Gbps) u7i-12tb.224xlarge
896
12,288
EBS เท่านั้น
100
60
u7in-16tb.224xlarge
896
16.384
EBS เท่านั้น
200
100
u7in-24tb.224xlarge
896
24,576
EBS เท่านั้น
200
100
u7in-32tb.224xlarge
896
32.768
EBS เท่านั้น
200
100
อินสแตนซ์ U7i ที่ขับเคลื่อนด้วยตัวประมวลผล Intel Xeon Scalable รุ่นที่ 4 (Sapphire Rapids) มีหน่วยความจำ DDR5 ล่าสุดสูงสุดถึง 32TiB และ vCPU สูงสุด 896 ยูนิต
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
กรณีการใช้งาน
เหมาะสำหรับการเรียกใช้ฐานข้อมูลในองค์กรขนาดใหญ่ ซึ่งรวมถึงการติดตั้งงานผลิตของฐานข้อมูล SAP HANA ในหน่วยความจำในระบบคลาวด์ ได้รับการรับรองโดย SAP สำหรับการเรียกใช้ Business Suite on HANA, Business Suite S/4HANA รุ่นใหม่, Data Mart Solutions on HANA, Business Warehouse on HANA และ SAP BW/4HANA ในสภาพแวดล้อมการผลิต
-
High Memory (U-1)
-
อินสแตนซ์ Amazon EC2 High Memory (U-1) สร้างขึ้นมาโดยเฉพาะเพื่อเรียกใช้ฐานข้อมูลแบบใช้หน่วยความจำที่มีขนาดใหญ่ ซึ่งรวมถึงการนำ SAP HANA ไปใช้จริงในระบบคลาวด์
คุณสมบัติ:
- ขณะนี้มีให้เลือกทั้งหน่วยความจำแบบ Bare Metal และหน่วยความจำเสมือน
- หน่วยความจำอินสแตนซ์ตั้งแต่ 3 ถึง 24 TiB
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- อินสแตนซ์เสมือนพร้อมใช้งานสำหรับตัวเลือกการซื้อแบบตามความต้องการและ Savings Plan แบบ 1 ปีและ 3 ปี
ชื่อ ตัวประมวลผลเชิงตรรกะ* หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) u-3tb1.56xlarge 224 3,072 EBS เท่านั้น 50 19 u-6tb1.56xlarge 224 6,144 EBS เท่านั้น 100 38 u-6tb1.112xlarge 448 6,144 EBS เท่านั้น 100 38 u-6tb1.metal** 448 6,144 EBS เท่านั้น 100 38 u-9tb1.112xlarge 448 9,216 EBS เท่านั้น 100 38 u-9tb1.metal** 448 9,216 EBS เท่านั้น 100 38 u-12tb1.112xlarge 448 12,288 EBS เท่านั้น 100 38 u-12tb1.metal** 448 12,288 EBS เท่านั้น 100 38 u-18tb1.112xlarge 448 18,432 EBS เท่านั้น 100 38 u-18tb1.metal 448 18,432 EBS เท่านั้น 100 38 u-24tb1.112xlarge 448 24,576 EBS เท่านั้น 100 38 u-24tb1.metal 448 24,576 EBS เท่านั้น 100 38 **อินสแตนซ์บางรายการที่เปิดใช้งานก่อนวันที่ 12 มีนาคม 2020 อาจมีประสิทธิภาพลดลง โปรดติดต่อทีมบัญชีเพื่ออัปเกรดอินสแตนซ์ของคุณ (ไม่มีค่าใช้จ่ายเพิ่มเติม) เพื่อประสิทธิภาพที่สูงขึ้น
* ตัวประมวลผลเชิงตรรกะแต่ละตัวคือไฮเปอร์เธรดบนคอร์ประมวลผล 224 หน่วย
- อินสแตนซ์ 6 TB, 9 TB และ 12 TB ขับเคลื่อนด้วยโปรเซสเซอร์ Intel Xeon Scalable (Skylake 8176M) 2.1 GHz (พร้อมความเร็ว Turbo Boost ที่ 3.80 GHz) หรือโปรเซสเซอร์รุ่นที่ 2 Intel Xeon Scalable (Cascade Lake 8280L) 2.7 GHz (พร้อมความเร็ว Turbo Boost to 4.0 GHz)
- อินสแตนซ์ 18 TB และ 24 TB ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake 8280L) ที่มีความถี่ 2.7 GHz (พร้อมความเร็ว Turbo Boost ที่ 4.0 GHz)
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
กรณีการใช้งาน
เหมาะสำหรับการเรียกใช้ฐานข้อมูลในองค์กรขนาดใหญ่ ซึ่งรวมถึงการติดตั้งงานผลิตของฐานข้อมูล SAP HANA ในหน่วยความจำในระบบคลาวด์ ได้รับการรับรองโดย SAP สำหรับการเรียกใช้ Business Suite on HANA, Business Suite S/4HANA รุ่นใหม่, Data Mart Solutions on HANA, Business Warehouse on HANA และ SAP BW/4HANA ในสภาพแวดล้อมการผลิต
-
X8g
-
อินสแตนซ์ Amazon EC2 X8g ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 มอบประสิทธิภาพด้านราคาที่ดีที่สุดในบรรดาอินสแตนซ์ Amazon EC2 X-series
คุณสมบัติ:
- ขับเคลื่อนโดยหน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ขนาดอินสแตนซ์ที่ใหญ่ขึ้น พร้อม vCPU และหน่วยความจํามากกว่าอินสแตนซ์ X2gd สูงสุดถึง 3 เท่า
- มีหน่วยความจํา DDR5-5600 รุ่นล่าสุด
- ปรับมาให้เหมาะสําหรับ Amazon EBS โดยค่าเริ่มต้น
- รองรับ Elastic Fabric Adapter (EFA) บน x8g.24xlarge, x8g.48xlarge, x8g.metal-24xl และ x8g.metal-48xl
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนวิดท์เครือข่าย (Gbps) แบนวิดท์ EBS (Gbps) x8g.medium
1
16
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
x8g.large
2
32
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
x8g.xlarge
4
64
EBS เท่านั้น
สูงสุด 12.5
สูงสุด 10
x8g.2xlarge
8
128
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
x8g.4xlarge
16
256
EBS เท่านั้น
สูงสุด 15
สูงสุด 10
x8g.8xlarge
32
512
EBS เท่านั้น
15
10
x8g.12xlarge
48
768
EBS เท่านั้น
22.5
15
x8g.16xlarge
64
1,024
EBS เท่านั้น
30
20
x8g.24xlarge
96
1,536
EBS เท่านั้น
40
30
x8g.48xlarge
192
3,072
EBS เท่านั้น
50
40
x8g.metal-24xl
96
1,536
EBS เท่านั้น
40
30
x8g.metal-48xl
192
3,072
EBS เท่านั้น
50
40
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผล AWS Graviton4 ที่สร้างขึ้นแบบกำหนดเอง
- ปรับมาให้เหมาะสําหรับ Amazon EBS
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
เวิร์กโหลดที่ใช้หน่วยความจำมาก เช่น ฐานข้อมูลแบบใช้หน่วยความจำ (Redis, Memcached), ฐานข้อมูลแบบเชิงสัมพันธ์ (MySQL, PostgreSQL), เวิร์กโหลด Electronic Design Automation (EDA), การวิเคราะห์ Big Data แบบเรียลไทม์, เซิร์ฟเวอร์แคชแบบเรียลไทม์ และแอปพลิเคชันคอนเทนเนอร์ที่ใช้หน่วยความจำมาก
-
X2gd
-
อินสแตนซ์ Amazon EC2 X2gd ให้บริการโดยโปรเซสเซอร์ AWS Graviton2 แบบ Arm และให้บริการด้วยค่าใช้จ่ายต่อ GiB ของหน่วยความจำใน Amazon EC2 ต่ำที่สุด ซึ่งมอบประสิทธิภาพและความคุ้มค่ามากขึ้นถึง 55% เมื่อเทียบกับอินสแตนซ์ X1 รุ่นปัจจุบัน
คุณสมบัติ:
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับ Enhanced Networking โดยมีแบนด์วิดท์เครือข่ายสูงสุด 25 Gbps
- พื้นที่จัดเก็บแบบ SSD แบบ NVMe ในเครื่องให้การเข้าถึงข้อมูลในหน่วยความจำด้วยความเร็วสูงและมีเวลาแฝงต่ำ
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
ขนาดของอินสแตนซ์
vCPU
หน่วยความจำ (GiB)
พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB)
แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Gbps)
x2gd.medium
1
16
1x59 NVMe SSD
สูงสุด 10
สูงสุด 4.75
x2gd.large
2
32
1x118 NVMe SSD
สูงสุด 10
สูงสุด 4.75
x2gd.xlarge
4
64
1x237 NVMe SSD
สูงสุด 10
สูงสุด 4.75
x2gd.2xlarge
8
128
1x475 NVMe SSD
สูงสุด 10
สูงสุด 4.75
x2gd.4xlarge
16
256
1x950 NVMe SSD
สูงสุด 10
4.75
x2gd.8xlarge
32
512
1x1900 NVMe SSD
12
9.5
x2gd.12xlarge
48
768
2x1425 NVMe SSD
20
14.25
x2gd.16xlarge
64
1024
2x1900 NVMe SSD
25
19
x2gd.metal
64
1024
2x1900 NVMe SSD
25
19
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm แบบ 64 บิต
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
กรณีการใช้งาน
ปริมาณงานที่เน้นการใช้งานหน่วยความจำ เช่น ฐานข้อมูลแบบโอเพ่นซอร์ส (MySQL, MariaDB และ PostgreSQL) การแคชในหน่วยความจำ (Redis, KeyDB, Memcached) ปริมาณงาน Electronic Design Automation (EDA) การวิเคราะห์แบบเรียลไทม์ และเซิร์ฟเวอร์การแคชแบบเรียลไทม์
-
X2idn
-
อินสแตนซ์ Amazon EC2 X2idn ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon Scalable รุ่นที่ 3 โดยมีความถี่เทอร์โบแบบ all-core สูงสุดที่ 3.5 GHz และเป็นตัวเลือกที่ดีสำหรับแอปพลิเคชันที่ใช้หน่วยความจำสูง
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- อัตราส่วนหน่วยความจำ 16:1 ต่อ vCPU ในทุกขนาด
- ประสิทธิภาพด้านราคาดีกว่าอินสแตนซ์ X1 ถึง 50%
- ความเร็วในระบบเครือข่ายสูงสุด 100 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 80 Gbps
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
ขนาดของอินสแตนซ์
vCPU
หน่วยความจำ (GiB)
พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB)
แบนด์วิดท์เครือข่าย (Gbps)
แบนด์วิดท์ EBS (Gbps)
x2idn.16xlarge
64
1,024
1 x 1900 NVMe SSD
50
40
x2idn.24xlarge
96 1,536 2 x 1425 NVMe SSD
75
60
x2idn.32xlarge
128 2,048
2 x 1900 NVMe SSD
100
80
x2idn.metal
128 2,048
2 x 1900 NVMe SSD
100
80
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
กรณีการใช้งาน
ฐานข้อมูลในหน่วยความจำ (เช่น SAP HANA, Redis), ฐานข้อมูลดั้งเดิม (เช่น Oracle DB, Microsoft SQL Server) และการวิเคราะห์ในหน่วยความจำ (เช่น SAS, Aerospike)
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
-
X2iedn
-
อินสแตนซ์ Amazon EC2 X2iedn ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon Scalable รุ่นที่ 3 (ชื่อรหัส Ice Lake) โดยมีความถี่เทอร์โบแบบ all-core สูงสุดที่ 3.5 GHz และเป็นตัวเลือกที่ดีสำหรับแอปพลิเคชันขนาดใหญ่ที่ใช้หน่วยความจำสูง
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
- อัตราส่วนหน่วยความจำ 32:1 ต่อ vCPU ในทุกขนาด
- ประสิทธิภาพด้านราคาดีกว่าอินสแตนซ์ X1 ถึง 50%
- ความเร็วในระบบเครือข่ายสูงสุด 100 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 80 Gbps
- ขับเคลื่อนด้วย AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการเข้ารหัสหน่วยความจำแบบเปิดใช้งานตลอดเวลาโดยใช้ Intel Total Memory Encryption (TME)
- รองรับคำสั่ง Intel Advanced Vector Extensions (AVX 512) แบบใหม่เพื่อการใช้อัลกอริทึมเข้ารหัสที่เร็วยิ่งขึ้น
ขนาดของอินสแตนซ์
vCPU
หน่วยความจำ (GiB)
พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB)
แบนด์วิดท์เครือข่าย (Gbps)***
แบนด์วิดท์ EBS (Gbps)
x2iedn.xlarge
4
128
1 x 118 NVMe SSD
สูงสุด 25
สูงสุด 20
x2iedn.2xlarge
8 256
1 x 237 NVMe SSD
สูงสุด 25
สูงสุด 20
x2iedn.4xlarge
16 512
1 x 475 NVMe SSD
สูงสุด 25
สูงสุด 20
x2iedn.8xlarge
32 1,024
1 x 950 NVMe SSD
25
20
x2iedn.16xlarge
64 2,048
1 x 1900 NVMe SSD
50
40
x2iedn.24xlarge
96 3,072
2 x 1425 NVMe SSD
75
60
x2iedn.32xlarge
128 4,096
2 x 1900 NVMe SSD
100
80
x2iedn.metal
128 4,096
2 x 1900 NVMe SSD
100
80
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
กรณีการใช้งาน
ฐานข้อมูลขนาดใหญ่ในหน่วยความจำ (เช่น SAP HANA, Redis), ฐานข้อมูลดั้งเดิม (เช่น Oracle DB, Microsoft SQL Server) และการวิเคราะห์ในหน่วยความจำ (เช่น SAS, Aerospike)
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 3 แบบปรับขนาดได้ด้วยความถี่สูงสุด 3.5 GHz (Ice Lake 8375C)
-
X2iezn
-
อินสแตนซ์ Amazon EC2 X2iezn ขับเคลื่อนโดยโปรเซสเซอร์ Intel Xeon Scalable ที่เร็วที่สุด (ชื่อรหัส Cascade Lake) ในระบบคลาวด์ โดยมีความถี่เทอร์โบแบบ all-core สูงสุดที่ 4.5 GHz และเป็นตัวเลือกที่ดีสำหรับเวิร์กโหลด Electronic Design Automation (EDA) ที่ใช้หน่วยความจำสูง
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ด้วยความถี่สูงสุด 4.5 GHz (Cascade Lake 8252C)
- อัตราส่วนหน่วยความจำ 32:1 ต่อ vCPU ในทุกขนาด
- ประสิทธิภาพด้านราคาดีกว่าอินสแตนซ์ X1e ถึง 55%
- ความเร็วในระบบเครือข่ายสูงสุด 100 Gbps
- แบนด์วิดท์สำหรับ Amazon Elastic Block Store สูงสุด 19 Gbps
- รองรับ Elastic Fabric Adapter ในขนาด 12xlarge และ metal
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) x2iezn.2xlarge 8 256 EBS เท่านั้น สูงสุด 25 3.17 x2iezn.4xlarge 16 512 EBS เท่านั้น สูงสุด 25 4.75 x2iezn.6xlarge 24 768 EBS เท่านั้น 50 9.5 x2iezn.8xlarge 32 1,024 EBS เท่านั้น 75 12 x2iezn.12xlarge 48 1,536 EBS เท่านั้น 100 19 x2iezn.metal 48 1,536 EBS เท่านั้น 100 19 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
กรณีการใช้งาน
เวิร์กโหลด Electronic Design Automation (EDA) เช่น การตรวจสอบทางกายภาพ การวิเคราะห์เวลาคงที่ การจำลองระดับเกตชิปแบบเต็ม และ Power Signoff
-
X1
-
อินสแตนซ์ Amazon EC2 X1 เหมาะสำหรับฐานข้อมูลระดับองค์กรและแอปพลิเคชันในหน่วยความจำ
คุณสมบัติ:
- ตัวประมวลผล Intel Xeon E7-8880 v3 (Haswell) ความถี่สูง
- ราคาถูกที่สุดต่อ GiB ของ RAM
- สูงสุดถึง 1,952 GiB ของ DRAM บนหน่วยความจำอินสแตนซ์
- พื้นที่จัดเก็บอินสแตนซ์ SSD สำหรับพื้นที่จัดเก็บระดับบล็อกแบบชั่วคราวและเพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้นโดยไม่มีค่าใช้จ่ายเพิ่มเติม
- สามารถควบคุมการกำหนดค่าตัวประมวลผล C-state และ P-state
อินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่จัดเก็บ SSD (GB) แบนด์วิดท์เฉพาะสำหรับ EBS (Mbps) ประสิทธิภาพเครือข่าย (Gbps) x1.16xlarge 64 976 1 x 1,920 7,000 10 x1.32xlarge 128 1,952 2 x 1,920 14,000 25 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ที่มีความถี่ 2.3 GHz (Haswell E7-8880 v3)
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
ฐานข้อมูลภายในหน่วยความจำ (เช่น SAP HANA), กลไกประมวลผล Big Data (เช่น Apache Spark หรือ Presto), High Performance Computing (HPC) ได้รับการรับรองจาก SAP ในการใช้งาน Business Warehouse on HANA (BW), Data Mart Solutions on HANA, Business Suite on HANA (SoH), Business Suite S/4HANA
-
X1e
-
อินสแตนซ์ Amazon EC2 X1e เหมาะสำหรับฐานข้อมูลขนาดใหญ่ ฐานข้อมูลแบบใช้หน่วยความจำ และแอปพลิเคชันอื่นๆ สำหรับองค์กรที่ใช้หน่วยความจำสูง
คุณสมบัติ:
- ตัวประมวลผล Intel Xeon E7-8880 v3 (Haswell) ความถี่สูง
- ราคาถูกที่สุดต่อ GiB ของ RAM
- สูงสุด 3,904 GiB ของ DRAM บนหน่วยความจำอินสแตนซ์
- พื้นที่จัดเก็บอินสแตนซ์ SSD สำหรับพื้นที่จัดเก็บระดับบล็อกแบบชั่วคราวและเพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้นโดยไม่มีค่าใช้จ่ายเพิ่มเติม
- สามารถควบคุมการกำหนดค่าตัวประมวลผล C-state และ P-state บนอินสแตนซ์ x1e.32xlarge, x1e.16xlarge และ x1e.8xlarge
อินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่จัดเก็บ SSD (GB) แบนด์วิดท์เฉพาะสำหรับ EBS (Mbps) ประสิทธิภาพเครือข่าย (Gbps)*** x1e.xlarge 4 122 1 x 120 500 สูงสุด 10 x1e.2xlarge 8 244 1 x 240 1,000 สูงสุด 10 x1e.4xlarge 16 488 1 x 480 1,750 สูงสุด 10 x1e.8xlarge 32 976 1 x 960 3,500 สูงสุด 10 x1e.16xlarge 64 1,952 1 x 1,920 7,000 10 x1e.32xlarge 128 3,904 2 x 1,920 14,000 25 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ที่มีความถี่ 2.3 GHz (Haswell E7-8880 v3)
- Intel AVX†, Intel AVX2†
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
นอกจากนี้ x1e.16xlarge และ x1e.32xlarge มี
กรณีการใช้งาน
ฐานข้อมูลประสิทธิภาพสูง ฐานข้อมูลแบบใช้หน่วยความจำ (เช่น SAP HANA) และแอปพลิเคชันที่ใช้หน่วยความจำมาก อินสแตนซ์ x1e.32xlarge ได้รับการรับรองจาก SAP ในการรัน Business Suite S/4HANA รุ่นต่อไป, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) และ Data Mart Solutions on HANA บน AWS Cloud
-
z1d
-
อินสแตนซ์ Amazon EC2 z1d มีความสามารถทั้งด้านการประมวลผลสูงและมีขนาดหน่วยความจำสูง อินสแตนซ์ z1d ความถี่สูงมีความถี่ของแกนประมวลผลแบบรักษาความถี่สูงสุด 4.0 GHz อินสแตนซ์นี้จึงเป็นอินสแตนซ์ที่เร็วที่สุดที่ทำงานบนระบบคลาวด์
คุณสมบัติ:
- โปรเซสเซอร์ Intel® Xeon® แบบกำหนดเองและปรับขนาดได้ (Skylake 8151) ที่มีความถี่ต่อเนื่องของคอร์ประมวลผลทั้งหมดสูงสุด 4.0 GHz พร้อมชุดคำสั่ง Intel Advanced Vector Extension (AVX-512)
- พื้นที่เก็บข้อมูลของอินสแตนซ์สูงสุด 1.8 TB
- หน่วยความจำ RAM สูงสุด 384 GiB
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- เมื่อใช้อินสแตนซ์ z1d ไดรฟ์ SSD แบบใช้ NVMe ภายในจะเชื่อมต่อจริงกับโฮสต์เซิร์ฟเวอร์และมีพื้นที่จัดเก็บระดับบล็อกที่มีอายุการใช้งานเทียบเท่ากับอินสแตนซ์ z1d
อินสแตนซ์ vCPU หน่วยความจำ (GiB) ประสิทธิภาพเครือข่าย (Gbps)*** พื้นที่จัดเก็บ SSD (GB) z1d.large 2 16 สูงสุด 10 1 x 75 NVMe SSD z1d.xlarge 4 32 สูงสุด 10 1 x 150 NVMe SSD z1d.2xlarge 8 64 สูงสุด 10 1 x 300 NVMe SSD z1d.3xlarge 12 96 สูงสุด 10 1 x 450 NVMe SSD z1d.6xlarge 24 192 10 1 x 900 NVMe SSD z1d.12xlarge 48 384 25 2 x 900 NVMe SSD z1d.metal 48* 384 25 2 x 900 NVMe SSD *z1d.metal มีตัวประมวลผลเชิงตรรกะ 48 ตัวบนแกนประมวลผลจริง 24 หน่วย
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล Intel® Xeon® Scalable สูงสุด 4.0 GHz
- Intel AVX, Intel AVX2, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
เหมาะกับ Electronic Design Automation (EDA) และเวิร์กโหลดจากฐานข้อมูลแบบเชิงสัมพันธ์ที่มีต้นทุนสูงในการให้สิทธิ์การใช้ต่อแกน
vCPU แต่ละรายการบนอินสแตนซ์ Amazon EC2 ที่ใช้ Graviton เป็นแกนของตัวประมวลผล AWS Graviton
vCPU แต่ละรายการบนอินสแตนซ์ Amazon EC2 ที่ไม่ใช้ Graviton เป็นเธรดของตัวประมวลผลที่ใช้ x86 ยกเว้นอินสแตนซ์ R7a
† AVX, AVX2 และระบบเครือข่ายที่ปรับปรุงประสิทธิภาพพร้อมใช้งานบนอินสแตนซ์ที่เปิดใช้ด้วย AMI ของ HVM เท่านั้น
*** อินสแตนซ์ที่ระบุว่าแบนวิดท์เครือข่าย "สูงสุด" มีแบนวิดท์พื้นฐานและสามารถใช้กลไกการให้เครดิต I/O ของเครือข่ายเพื่อขยายแบนวิดท์พื้นฐานเท่าที่จะเป็นไปได้ ดูข้อมูลเพิ่มเติม ได้ที่แบนวิดท์เครือข่ายอินสแตนซ์
การประมวลผลแบบอัตราเร่ง
อินสแตนซ์การประมวลผลแบบเร่งความเร็วฮาร์ดแวร์หรือตัวประมวลผลร่วมเพื่อดำเนินการฟังก์ชันต่างๆ เช่น การคำนวณจำนวนจุดทศนิยมลอยตัว การประมวลผลกราฟิก หรือการจับคู่รูปแบบข้อมูล ซึ่งจะมีประสิทธิภาพมากกว่าการใช้ซอฟต์แวร์บน CPU
-
P5
-
P4
-
P3
-
P2
-
G6e
-
G6
-
G5g
-
G5
-
G4dn
-
G4ad
-
G3
-
Trn1
-
Inf2
-
Inf1
-
DL1
-
DL2q
-
F1
-
VT1
-
P5
-
อินสแตนซ์ Amazon EC2 P5 เป็นอินสแตนซ์ GPU รุ่นล่าสุด และมีประสิทธิภาพสูงสุดใน Amazon EC2 สำหรับดีปเลิร์นนิงและการประมวลผลประสิทธิภาพสูง (HPC)
คุณสมบัติ:
- โปรเซสเซอร์ 3rd Gen AMD EPYC (AMD EPYC 7R13)
- GPU Tensor Core NVIDIA H100 (ใน P5) หรือ H200 (ใน P5e) สูงสุด 8 ตัว
- แบนวิดท์เครือข่ายสูงสุด 3,200 Gbps พร้อมรองรับ Elastic Fabric Adapter (EFA) และ NVIDIA GPUDirect RDMA (การเข้าถึงหน่วยความจำโดยตรงจากระยะไกล)
- การสื่อสารของ GPU แบบ Peer to Peer 900 GB/วินาทีด้วย NVIDIA NVSwitch
อินสแตนซ์ GPU vCPU อินสแตนซ์
หน่วยความจำ (TiB)GPU
หน่วยความจำแบนวิดท์เครือข่าย GPUDirect RDMA GPU แบบ Peer to Peer พื้นที่เก็บข้อมูลอินสแตนซ์ (TB) แบนวิดท์ EBS (Gbps) p5.48xlarge
8 H100
192
2
640 GB HBM3
3200 Gbps EFA
ใช้ได้
NVSwitch 900 GB/วินาที
8 x 3.84 NVMe SSD
80
p5e.48xlarge 8 H200 192 2 1128 GB HBM3 3200 Gbps EFA ใช้ได้ NVSwitch 900 GB/วินาที 8x 3.84 NVMe SSD 80 อินสแตนซ์ P5 มีข้อมูลจำเพาะดังต่อไปนี้
กรณีการใช้งาน
แอปพลิเคชัน AI ช่วยสร้าง รวมถึงการตอบคำถาม การสร้างรหัส การสร้างวิดีโอและรูปภาพ การรู้จำเสียง และอื่นๆ
การประยุกต์ใช้ HPC ในวงกว้างในการวิจัยยา การวิเคราะห์แผ่นดินไหว การพยากรณ์อากาศ และการสร้างแบบจำลองทางการเงิน
- โปรเซสเซอร์ 3rd Gen AMD EPYC (AMD EPYC 7R13)
-
P4
-
อินสแตนซ์ Amazon EC2 P4 ให้ประสิทธิภาพสูงสำหรับการฝึกอบรมแมชชีนเลิร์นนิงและการประมวลผลประสิทธิภาพสูงในระบบคลาวด์
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ที่มีความถี่ 3.0 GHz (Cascade Lake P-8275CL)
- NVIDIA A100 Tensor Core GPU สูงสุด 8 ตัว
- ระบบเครือข่ายอินสแตนซ์ 400 Gbps พร้อมการสนับสนุน Elastic Fabric Adapter (EFA) และ NVIDIA GPUDirect RDMA (การเข้าถึงหน่วยความจำโดยตรงจากระยะไกล)
- การสื่อสารของ GPU แบบ Peer to Peer 600 GB/วินาทีด้วย NVIDIA NVSwitch
- ปรับใช้ใน Amazon EC2 UltraClusters ซึ่งประกอบด้วย NVIDIA A100 Tensor Core GPU กว่า 4,000 ตัว, ระบบเครือข่ายระดับเพตะบิต และพื้นที่จัดเก็บเวลาแฝงต่ำที่ปรับขนาดได้ด้วย Amazon FSx สำหรับ Lustre
อินสแตนซ์ GPU vCPU อินสแตนซ์
หน่วยความจำ (GiB)GPU
หน่วยความจำแบนวิดท์เครือข่าย GPUDirect RDMA GPU แบบ Peer to Peer พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์ EBS (Gbps) p4d.24xlarge 8 96 1152 320 GB HBM2 400 ENA และ EFA ใช่ NVSwitch 600 GB/วินาที 8 x 1000 NVMe SSD 19 p4de.24xlarge
(การแสดงตัวอย่าง)8 96 1152 640 GB HBM2e 400 ENA และ EFA ใช่ NVSwitch 600 GB/วินาที 8 x 1000 NVMe SSD 19 อินสแตนซ์ P4d มีข้อมูลจำเพาะดังต่อไปนี้:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ที่มีความถี่ 3.0 GHz
- Intel AVX, Intel AVX2, Intel AVX-512 และ Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
- Elastic Fabric Adapter (EFA)
กรณีการใช้งาน
แมชชีนเลิร์นนิ่ง, การประมวลผลที่มีประสิทธิภาพสูง, พลศาสตร์ของไหลเชิงคำนวณ, การเงินเชิงคำนวณ, การวิเคราะห์แรงแผ่นดินไหว, การรู้จำเสียงพูด, รถยนต์อัตโนมัติไร้คนขับ, การค้นคว้ายาใหม่
-
P3
-
อินสแตนซ์ Amazon EC2 P3 ให้บริการประมวลผลประสิทธิภาพสูงในระบบคลาวด์ด้วย NVIDIA® V100 Tensor Core GPU ถึง 8 ตัวและอัตราความเร็วในอัตราการโอนถ่ายข้อมูลผ่านเครือข่ายสำหรับแมชชีนเลิร์นนิงและแอปพลิเคชัน HPC สูงถึง 100 Gbps
คุณสมบัติ:
- NVIDIA Tesla V100 GPU สูงสุดถึง 8 ตัว โดยจับคู่กับ CUDA Core 5,120 หน่วยและ Tensor Core 640 หน่วย
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ความถี่สูง (Broadwell E5-2686 v4) สำหรับ p3.2xlarge, p3.8xlarge และ p3.16xlarge
- โปรเซสเซอร์ Intel Xeon ความถี่สูง 2.5 GHz (พื้นฐาน) (Skylake 8175) สำหรับ p3dn.24xlarge
- รองรับ NVLink สำหรับการสื่อสารระหว่าง GPU แบบเพียร์ทูเพียร์
- ให้แบนด์วิดท์เครือข่ายรวมสูงสุดถึง 100 Gbps
- การสนับสนุน EFA บนอินสแตนซ์ p3dn.24xlarge
อินสแตนซ์ GPU vCPU หน่วยความจำ (GiB) หน่วยความจำ GPU (GiB) GPU P2P พื้นที่จัดเก็บ (GB) แบนด์วิดท์เฉพาะสำหรับ EBS (Gbps) ประสิทธิภาพเครือข่าย (Gbps)*** p3.2xlarge 1 8 61 16 - EBS เท่านั้น 1.5 สูงสุด 10 p3.8xlarge 4 32 244 64 NVLink EBS เท่านั้น 7 10 p3.16xlarge 8 64 488 128 NVLink EBS เท่านั้น 14 25 p3dn.24xlarge 8 96 768 256 NVLink 2 x 900 NVMe SSD 19 100 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
p3.2xlarge, p3.8xlarge และ p3.16xlarge มีตัวประมวลผล Intel Xeon E5-2686 v4 2.3 GHz (พื้นฐาน) และ 2.7 GHz (Turbo)p3dn.24xlarge มีหน่วยประมวลผล Intel Xeon 8175M 2.5 GHz (พื้นฐาน) และ 3.1 GHz (ความเร็วแบบ Turbo ที่มีการรักษาความเร็วอย่างต่อเนื่อง) และสนับสนุน Intel AVX-512 นอกจากนี้ อินสแตนซ์ p3dn.24xlarge ยังสนับสนุนการทำงานของ Elastic Fabric Adapter (EFA) ที่ทำให้สามารถใช้แอปพลิเคชัน การประมวลผลสมรรถนะสูง (HPC) ที่ใช้งาน Message Passing Interface (MPI) และแอปพลิเคชันแมชชีนเลิร์นนิง (ML) ที่ใช้งาน NVIDIA Collective Communications Library (NCCL) ในการปรับขนาดให้เหมาะกับ GPU นับพันกรณีการใช้งาน
Machine/Deep Learning, การประมวลผลที่มีประสิทธิภาพสูง, พลศาสตร์ของไหลเชิงคำนวณ, การเงินเชิงคำนวณ, การวิเคราะห์แรงแผ่นดินไหว, การรู้จำเสียงพูด, รถยนต์ไร้คนขับ, การค้นคว้ายาใหม่
-
P2
-
อินสแตนซ์ P2 มีไว้สำหรับแอปพลิเคชันการประมวลผล GPU ที่มีจุดประสงค์โดยทั่วไป
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ความถี่สูง (Broadwell E5-2686 v4)
- NVIDIA K80 GPU ประสิทธิภาพสูง โดยมีคอร์ประมวลผลแบบขนาน 2,496 หน่วยและหน่วยความจำ GPU 12 GiB
- รองรับ GPUDirect™ สำหรับการสื่อสาร GPU แบบเพียร์ทูเพียร์
- จัดเตรียม Enhanced Networking ให้โดยใช้ Elastic Network Adapter (ENA) พร้อมแบนด์วิธเครือข่ายรวมสูงสุด 25 Gbps ภายในกลุ่มการจัดวาง
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้นโดยไม่มีค่าใช้จ่ายเพิ่มเติม
อินสแตนซ์ GPU vCPU หน่วยความจำ (GiB) หน่วยความจำ GPU (GiB) ประสิทธิภาพเครือข่าย (Gbps) p2.xlarge 1 4 61 12 สูง p2.8xlarge 8 32 488 96 10 p2.16xlarge 16 64 732 192 25 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.3 GHz (พื้นฐาน) และ 2.7 GHz (Turbo) Intel Xeon E5-2686 v4
- Intel AVX, Intel AVX2, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
แมชชีนเลิร์นนิง ฐานข้อมูลประสิทธิภาพสูง พลศาสตร์ของไหลเชิงคำนวณ การเงินเชิงคำนวณ การวิเคราะห์แผ่นดินไหว การทำแบบจำลองโมเลกุล จีโนมิกส์ การสร้างภาพ และเวิร์กโหลดประมวลผล GPU ฝั่งเซิร์ฟเวอร์อื่น ๆ
-
G6e
-
อินสแตนซ์ Amazon EC2 G6e ถูกออกแบบมาเพื่อเร่งเวิร์กโหลดการอนุมานดีปเลิร์นนิงและการประมวลผลเชิงพื้นที่
ฟีเจอร์:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 (AMD EPYC 7R13)
- GPU หลัก NVIDIA L40S Tensor สูงสุด 8 ตัว
- แบนวิดท์เครือข่ายสูงสุด 400 Gbps
- พื้นที่จัดเก็บในเครื่องแบบใช้ NVMe ภายในสูงสุด 7.6 TB
ชื่ออินสแตนซ์ vCPU หน่วยความจำ (GiB) NVIDIA L40S Tensor Core GPU หน่วยความจำ GPU (GiB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) g6e.xlarge 4 32 1 48 สูงสุด 20 สูงสุด 5 g6e.2xlarge 8 64 1 48 สูงสุด 20 สูงสุด 5 g6e.4xlarge 16 128 1 48 20 8 g6e.8xlarge 32 256 1 48 25 16 g6e.16xlarge 64 512 1 48 35 20 g6e.12xlarge 48 384 4 192 100 20 g6e.24xlarge 96 768 4 192 200 30 g6e.48xlarge 192 1536 8 384 400 60 กรณีการใช้งาน
เวิร์กโหลดการอนุมานสำหรับโมเดลภาษาขนาดใหญ่และโมเดลการแพร่กระจายสำหรับภาพ เสียง และวิดีโอ การสร้าง การฝึกโหนดเดียวของโมเดล AI ช่วยสร้างที่มีความซับซ้อนปานกลาง การจำลองแบบ 3 มิติ Digital Twin และการเปลี่ยนไปเป็นระบบดิจิทัลในอุตสาหกรรม
-
G6
-
อินสแตนซ์ Amazon EC2 G6 ได้รับการออกแบบมาเพื่อช่วยเร่งแอปพลิเคชันที่เน้นกราฟิกและการอนุมานของแมชชีนเลิร์นนิง
ฟีเจอร์:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 3 (AMD EPYC 7R13)
- GPU หลัก NVIDIA L4 Tensor สูงสุด 8 ตัว
- แบนวิดท์เครือข่ายสูงสุด 100 Gbps
- พื้นที่จัดเก็บในเครื่องแบบใช้ NVMe ภายในสูงสุด 7.52 TB
ชื่ออินสแตนซ์ vCPU หน่วยความจำ (GiB) NVIDIA L4 Tensor Core GPU หน่วยความจำ GPU (GiB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนวิดท์ EBS (Gbps) g6.xlarge 4 16 1 24 สูงสุด 10 สูงสุด 5 g6.2xlarge 8 32 1 24 สูงสุด 10 สูงสุด 5 g6.4xlarge 16 64 1 24 สูงสุด 25 8 g6.8xlarge 32 128 1 24 25 16 g6.16xlarge 64 256 1 24 25 20 g6.12xlarge 48 192 4 96 40 20 g6.24xlarge 96 384 4 96 50 30 g6.48xlarge 192 768 8 192 100 60 อินสแตนซ์ Gr6 ที่มีอัตราส่วน vCPU:RAM 1:8 gr6.4xlarge 16 128 1 24 สูงสุด 25 8 gr6.8xlarge 32 256 1 24 25 16 กรณีการใช้งาน
การนำโมเดล ML ไปใช้เพื่อการประมวลผลภาษาธรรมชาติ การแปลภาษา การวิเคราะห์วิดีโอและภาพ การจดจำคำพูด และการปรับแต่ง ตลอดจนเวิร์กโหลดกราฟิก เช่น การสร้างและแสดงผลแบบเรียลไทม์ กราฟิกคุณภาพระดับภาพยนตร์ และการสตรีมเกม
-
G5g
-
อินสแตนซ์ Amazon EC2 G5g ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton2 และมีคุณสมบัติ NVIDIA T4G Tensor Core GPU เพื่อมอบประสิทธิภาพด้านราคาดีที่สุดใน Amazon EC2 สำหรับเวิร์กโหลดกราฟิก เช่น การสตรีมเกม Android ซึ่งเป็นอินสแตนซ์แบบ Arm ตัวแรกในระบบคลาวด์หลักที่มีการเร่งความเร็ว GPU และลูกค้ายังสามารถใช้อินสแตนซ์ G5g สำหรับการอนุมาน ML ที่คุ้มค่าอีกด้วย
คุณสมบัติ:
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
- NVIDIA T4G Tensor Core GPU สูงสุด 2 ตัว
- แบนด์วิดท์เครือข่ายสูงสุด 25 Gbps
- เพิ่มประสิทธิภาพ EBS ตามค่าเริ่มต้น
- ขับเคลื่อนโดยระบบ AWS Nitro System ซึ่งประกอบด้วยฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
ชื่ออินสแตนซ์ vCPU หน่วยความจำ (GiB) NVIDIA T4G Tensor Core GPU หน่วยความจำ GPU (GiB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) g5g.xlarge 4 8 1 16 สูงสุด 10 สูงสุด 3.5 g5g.2xlarge 8 16 1 16 สูงสุด 10 สูงสุด 3.5 g5g.4xlarge 16 32 1 16 สูงสุด 10 สูงสุด 3.5 g5g.8xlarge 32 64 1 16 12 9 g5g.16xlarge 64 128 2 32 25 19 g5g.metal 64 128 2 32 25 19 กรณีการใช้งาน
การสตรีมเกม Android, การอนุมานแมชชีนเลิร์นนิง, การเรนเดอร์กราฟิก, การจำลองยานพาหนะอัตโนมัติ
- โปรเซสเซอร์ AWS Graviton2 แบบกำหนดเองที่มีแกน Arm Neoverse 64 บิต
-
G5
-
อินสแตนซ์ Amazon EC2 G5 ได้รับการออกแบบมาเพื่อช่วยเร่งแอปพลิเคชันที่เน้นกราฟิกและการอนุมานของแมชชีนเลิร์นนิง นอกจากนี้ยังสามารถใช้ในการฝึกฝนโมเดลแมชชีนเลิร์นนิ่งที่เรียบง่ายถึงซับซ้อนระดับปานกลางได้
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 2 (AMD EPYC 7R32)
- NVIDIA A10G Tensor Core GPU สูงสุด 8 ตัว
- แบนด์วิดท์เครือข่ายสูงสุด 100 Gbps
- พื้นที่จัดเก็บในเครื่องแบบใช้ NVMe ภายในสูงสุด 7.6 TB
ขนาดของอินสแตนซ์ GPU หน่วยความจำ GPU (GiB) vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) g5.xlarge 1 24 4 16 1 x 250 NVMe SSD สูงสุด 10 สูงสุด 3.5 g5.2xlarge 1 24 8 32 1 x 450 NVMe SSD สูงสุด 10 สูงสุด 3.5 g5.4xlarge 1 24 16 64 1 x 600 NVMe SSD สูงสุด 25 8 g5.8xlarge 1 24 32 128 1 x 900 NVMe SSD 25 16 g5.16xlarge 1 24 64 256 1 x 1900 NVMe SSD 25 16 g5.12xlarge 4 96 48 192 1 x 3800 NVMe SSD 40 16 g5.24xlarge 4 96 96 384 1 x 3800 NVMe SSD 50 19 g5.48xlarge 8 192 192 768 2x 3800 NVME SSD 100 19 อินสแตนซ์ G5 มีข้อมูลจำเพาะดังต่อไปนี้
- หน่วยประมวลผลกลาง AMD EPYC รุ่นที่ 2
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
แอปพลิเคชันที่เน้นกราฟิก เช่น เวิร์กสเตชันระยะไกล การแสดงผลวิดีโอ และการเล่นเกมบนระบบคลาวด์ เพื่อสร้างกราฟิกที่มีความเที่ยงตรงสูงแบบเรียลไทม์ การฝึกอบรมและการอนุมานโมเดลดีปเลิร์นนิ่งสำหรับกรณีใช้งานต่างๆ ของแมชชีนเลิร์นนิ่ง เช่น กรณีใช้งานการประมวลผลภาษาธรรมชาติ คอมพิวเตอร์วิทัศน์ และระบบแนะนำ
-
G4dn
-
อินสแตนซ์ Amazon EC2 G4dn ได้รับการออกแบบมาเพื่อช่วยเร่งการอนุมานของแมชชีนเลิร์นนิงและเวิร์กโหลดที่เน้นกราฟิก
คุณสมบัติ:
- ตัวประมวลผลแบบปรับขนาดได้ Intel Xeon รุ่นที่ 2 (Cascade Lake P-8259CL)
- GPU หลัก NVIDIA T4 Tensor สูงสุด 8 ตัว
- มีอัตราการส่งข้อมูลเครือข่ายสูงสุด 100 Gbps
- พื้นที่จัดเก็บ NVMe ภายในสูงสุด 1.8 TB
อินสแตนซ์ GPU vCPU หน่วยความจำ (GiB) หน่วยความจำ GPU (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ (GB) ประสิทธิภาพเครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) g4dn.xlarge 1 4 16 16 1 x 125 NVMe SSD สูงสุด 25 สูงสุด 3.5 g4dn.2xlarge 1 8
32 16 1 x 225 NVMe SSD สูงสุด 25 สูงสุด 3.5 g4dn.4xlarge 1 16 64 16 1 x 225 NVMe SSD สูงสุด 25 4.75 g4dn.8xlarge 1 32 128 16 1 x 900 NVMe SSD 50 9.5 g4dn.16xlarge 1 64 256 16 1 x 900 NVMe SSD 50 9.5 g4dn.12xlarge 4 48 192 64 1 x 900 NVMe SSD 50 9.5 g4dn.metal 8 96 384 128 2 x 900 NVMe SSD 100 19
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้- ตัวประมวลผล Cascade Lake 24C 2.5 GHz
- Intel AVX, Intel AVX2, Intel AVX-512 และ Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
การอนุมานของแมชชีนเลิร์นนิ่งสำหรับแอปพลิเคชันต่างๆ เช่น การเพิ่มข้อมูลเมตาลงในรูปภาพ การตรวจจับวัตถุ ระบบแนะนำ การรู้จำเสียงพูดอัตโนมัติ และการแปลภาษา อินสแตนซ์ G4 ยังมีแพลตฟอร์มที่คุ้มค่ามากสำหรับการสร้างและใช้งานแอปพลิเคชันที่เน้นกราฟิก เช่น เวิร์กสเตชันกราฟิกระยะไกล การแปลงรหัสวิดีโอ การออกแบบที่เหมือนจริงของภาพถ่าย และการสตรีมเกมในคลาวด์
- ตัวประมวลผลแบบปรับขนาดได้ Intel Xeon รุ่นที่ 2 (Cascade Lake P-8259CL)
-
G4ad
-
อินสแตนซ์ Amazon EC2 G4ad มอบประสิทธิภาพด้านราคาที่ดีที่สุดสำหรับแอปพลิเคชันที่เน้นกราฟิกในระบบคลาวด์
คุณสมบัติ:
- โปรเซสเซอร์ AMD EPYC รุ่นที่ 2 (AMD EPYC 7R32)
- AMD Radeon Pro V520 GPU
- พื้นที่จัดเก็บ NVMe ภายในสูงสุด 2.4 TB
อินสแตนซ์ GPU vCPU หน่วยความจำ (GiB) หน่วยความจำ GPU (GiB) ที่จัดเก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS (Gbps) g4ad.xlarge 1 4 16 8 1 x 150 NVMe SSD สูงสุด 10 สูงสุด 3 g4ad.2xlarge 1 8 32 8 1 x 300 NVMe SSD สูงสุด 10 สูงสุด 3 g4ad.4xlarge 1 16 64 8 1 x 600 NVMe SSD สูงสุด 10 สูงสุด 3 g4ad.8xlarge 2 32 128 16 1 x 1200 NVMe SSD 15 3 g4ad.16xlarge 4 64 256 32 1 x 2400 NVMe SSD 25 6
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้- หน่วยประมวลผลกลาง AMD EPYC รุ่นที่สอง
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
แอปพลิเคชันที่เน้นกราฟิก เช่น เวิร์กสเตชันกราฟิกระยะไกล การแปลงรหัสวิดีโอ การออกแบบภาพถ่ายแบบสมจริง และการสตรีมเกมในระบบคลาวด์
-
G3
-
อินสแตนซ์ Amazon EC2 G3 ได้รับการปรับให้เหมาะสำหรับแอปพลิเคชันที่เน้นกราฟิก
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ความถี่สูง (Broadwell E5-2686 v4)
- NVIDIA Tesla M60 GPU โดยมีคอร์ประมวลผลแบบขนาน 2,048 หน่วยและหน่วยความจำวิดีโอ 8 GiB
- ทำให้ใช้คุณสมบัติ NVIDIA GRID Virtual Workstation ได้ รวมถึงรองรับหน้าจอ 4 หน้าจอพร้อมความละเอียดสูงถึง 4,096x2,160 ทุก GPU ที่รวมอยู่ในอินสแตนซ์ของคุณจะมีสิทธิ์การใช้งานสำหรับ “ผู้ใช้ที่ต่อเชื่อมกันพร้อมกัน” หนึ่งราย
- ทำให้ใช้ความสามารถ NVIDIA GRID Virtual Application สำหรับซอฟต์แวร์การจำลองแอปพลิเคชันอย่าง Citrix XenApp Essentials และ VMware Horizon ได้ โดยรองรับผู้ใช้พร้อมกันได้สูงสุด 25 รายต่อ GPU
- แต่ละ GPU จะเน้นตัวเข้ารหัสวิดีโอฮาร์ดแวร์แบบออนบอร์ดที่ออกแบบมาเพื่อรองรับได้มากถึง 10 H.265 (HEVC) 1080p30 สตรีม และมากถึง 18 H.264 1080p30 สตรีม ซึ่งทำให้การจับภาพและการเข้ารหัสมีเวลาแฝงต่ำ รวมทั้งมีประสบการณ์ในการสตรีมเชิงโต้ตอบคุณภาพสูง
- Enhanced Networking ที่ใช้ Elastic Network Adapter (ENA) พร้อมแบนด์วิดท์เครือข่ายรวมที่ 25 Gbps ภายในกลุ่มการจัดวาง
อินสแตนซ์ GPU vCPU หน่วยความจำ (GiB) หน่วยความจำ GPU (GiB) ประสิทธิภาพเครือข่าย (Gbps)*** g3s.xlarge 1 4 30.5 8 สูงสุด 10 g3.4xlarge 1 16 122 8 สูงสุด 10 g3.8xlarge 2 32 244 16 10 g3.16xlarge 4 64 488 32 25 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.3 GHz (พื้นฐาน) และ 2.7 GHz (Turbo) Intel Xeon E5-2686 v4
- Intel AVX, Intel AVX2, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
การแสดงข้อมูลด้วยภาพ 3 มิติ เวิร์กสเตชันทางไกลที่ใช้กราฟิกสูง การสร้างภาพ 3 มิติ การสตรีมแอปพลิเคชัน การเข้ารหัสวิดีโอ และเวิร์กโหลดกราฟิกฝั่งเซิร์ฟเวอร์อื่นๆ
-
Trn1
-
อินสแตนซ์ Amazon EC2 Trn1 ขับเคลื่อนด้วยชิป AWS Trainium สร้างมาเพื่อการฝึกดีปเลิร์นนิงประสิทธิภาพสูง พร้อมข้อเสนอการฝึกอบรมที่ประหยัดมากถึง 50% เมื่อเทียบกับอินสแตนซ์ Amazon EC2 ที่เปรียบเทียบกันได้
ฟีเจอร์:
- ชิป AWS Trainium ( AWS Trainium) 16 ชิป
- รองรับโดย AWS Neuron SDK
- โปรเซสเซอร์ Intel Xeon Scalable รุ่นที่ 3 (Ice Lake SP)
- แบนวิดท์เครือข่าย Elastic Fabric Adapter (EFA) รุ่นที่สองสูงสุด 1600 Gbps
- พื้นที่จัดเก็บ NVMe ภายในสูงสุด 8 TB
- แบนด์วิดท์สูง การเชื่อมต่อภายใต้อินสแตนซ์ด้วย NeuronLink
- ติดตั้งใช้งานใน EC2 UltraClusters ทำให้สามารถปรับขนาด Accelerator ของ AWS Trainium ได้สูงสุดถึง 30,000 ตัว ซึ่งเชื่อมต่อกับเครือข่ายแบบไม่มีการปิดกั้นระดับเพตะบิด รวมถึงพื้นที่จัดเก็บที่มีเวลาแฝงต่ำและปรับขนาดได้พร้อม Amazon FSx สำหรับ Lustre
- Amazon EBS - แบบเพิ่มประสิทธิภาพ
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ
ขนาดของอินสแตนซ์ ชิป Trainium Accelerator Memory (GB) vCPU หน่วยความจำ (GiB) อินสแตนซ์
พื้นที่จัดเก็บ (GB)เครือข่าย
แบนวิดท์ (Gbps)***แบนด์วิดท์ EBS
(Gbps)trn1.2xlarge 1 32 8 32 1 x 500 NVMe SSD
สูงสุด 12.5 สูงสุด 20
trn1.32xlarge 16 512 128 512 4 x 2000 NVMe SSD
800 80 trn1n.32xlarge 16 512 128 512 4 x 2000 NVMe SSD 1600 80 กรณีใช้งาน
การฝึกดีปเลิร์นนิงสำหรับการประมวลผลภาษาธรรมชาติ (NLP) มุมมองคอมพิวเตอร์ การค้น คำแนะนำ การจัดอันดับ และอื่นๆ
- ชิป AWS Trainium ( AWS Trainium) 16 ชิป
-
Inf2
-
อินสแตนซ์ Amazon EC2 Inf2 สร้างขึ้นตามวัตถุประสงค์เพื่อการอนุมานดีปเลิร์นนิง โดยมอบประสิทธิภาพสูงด้วยต้นทุนที่ต่ำที่สุดใน Amazon EC2 สำหรับโมเดลปัญญาประดิษฐ์ ช่วยสร้าง รวมถึงโมเดลภาษาขนาดใหญ่ และตัวแปลงการมองเห็น อินสแตนซ์ Inf2 ขับเคลื่อนโดย AWS Inferentia2 อินสแตนซ์ใหม่เหล่านี้มอบประสิทธิภาพการประมวลผลที่เพิ่มขึ้นถึง 3 เท่า Accelerator Memory ที่เพิ่มขึ้นถึง 4 เท่า อัตราการโอนถ่ายข้อมูลที่เพิ่มขึ้นถึง 4 เท่า และเวลาแฝงที่ต่ำกว่าถึง 10 เท่าเมื่อเทียบกับอินสแตนซ์ Inf1
ฟีเจอร์:
- ชิป AWS Inferentia2 สูงสุด 12 ชิป
- รองรับโดย AWS Neuron SDK
- โปรเซสเซอร์ Dual AMD EPYC (AMD EPYC 7R13)
- Accelerator Memory ที่ใช้ร่วมกันสูงสุด 384 GB (32 GB HBM ต่อ Accelerator)
- ระบบเครือข่ายสูงสุด 100 Gbps
ขนาดของอินสแตนซ์ ชิป Inferentia2
Accelerator Memory (GB) vCPU หน่วยความจำ (GiB) พื้นที่จัดเก็บในเครื่อง Inter-Accelerator Interconnect แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) inf2.xlarge 1 32 4 16 EBS เท่านั้น NA สูงสุด 15 สูงสุด 10 inf2.8xlarge 1 32 32 128 EBS เท่านั้น NA สูงสุด 25 10 inf2.24xlarge 6 192 96 384 EBS เท่านั้น มี 50 30 inf2.48xlarge 12 384 192 768 EBS เท่านั้น ใช้ได้ 100 60 กรณีการใช้งาน
ความเข้าใจภาษาธรรมชาติ (การวิเคราะห์ข้อความขั้นสูง การวิเคราะห์เอกสาร เอเจนต์การสนทนา) การแปล การสร้างภาพและวิดีโอ การจดจำเสียงพูด การปรับให้เหมาะกับแต่ละบุคคล การตรวจจับการฉ้อโกง และอื่นๆ
-
Inf1
-
อินสแตนซ์ Amazon EC2 Inf1 ได้รับการออกแบบใหม่ทั้งหมดเพื่อรองรับแอปพลิเคชันการอนุมานของแมชชีนเลิร์นนิง
คุณสมบัติ:
- ชิปสูงสุด 16 AWS Inferentia
- รองรับโดย AWS Neuron SDK
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ความถี่สูง (Cascade Lake P-8259L)
- ระบบเครือข่ายสูงสุด 100 Gbps
ขนาดของอินสแตนซ์ ชิป Inferentia vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ Inter-Accelerator Interconnect แบนด์วิดท์เครือข่าย (Gbps)*** แบนด์วิดท์ EBS inf1.xlarge 1 4 8 EBS เท่านั้น ไม่ระบุ สูงสุด 25 สูงสุด 4.75 inf1.2xlarge 1 8 16 EBS เท่านั้น ไม่ระบุ สูงสุด 25 สูงสุด 4.75 inf1.6xlarge 4 24 48 EBS เท่านั้น ใช้ได้ 25 4.75 inf1.24xlarge 16 96 192 EBS เท่านั้น มี 100 19 กรณีการใช้งาน
กลไกการแนะนำ การคาดการณ์ การวิเคราะห์รูปภาพและวิดีโอ การวิเคราะห์ข้อความขั้นสูง การวิเคราะห์เอกสาร เสียง เอเจนต์เชิงสนทนา การแปล การถอดความ และการตรวจจับการฉ้อโกง
-
DL1
-
อินสแตนซ์ Amazon EC2 DL1 ขับเคลื่อนโดย Gaudi Accelerator จาก Habana Labs (บริษัท Intel) โดยมอบประสิทธิภาพและความคุ้มค่ามากขึ้นสูงสุดถึง 40% สำหรับโมเดลดีปเลิร์นนิ่งในการฝึกอบรม เมื่อเทียบกับอินสแตนซ์ EC2 ที่ใช้ GPU รุ่นปัจจุบัน
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake P-8275CL)
- Gaudi Accelerator สูงสุด 8 ตัว พร้อมหน่วยความจำแบนด์วิดท์สูง (HBM) 32 GB ต่อ Accelerator 1 ตัว
- อัตราการส่งข้อมูลเครือข่าย 400 Gbps
- พื้นที่จัดเก็บ NVMe ภายใน 4 TB
ขนาดของอินสแตนซ์
vCPU
Gaudi Accelerator
หน่วยความจำของอินสแตนซ์ (GiB)
พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB)
Accelerator สองทิศทางแบบ Peer-to-Peer
(Gbps)แบนด์วิดท์เครือข่าย (Gbps)
แบนด์วิดท์ EBS (Gbps)
dl1.24xlarge
96
8
768
4 x 1000 NVMe SSD
100
400
19
อินสแตนซ์ DL1 มีข้อมูลจำเพาะดังต่อไปนี้:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีใช้งาน
การฝึกฝนดีปเลิร์นนิง การตรวจจับวัตถุ การจดจำภาพ การประมวลผลภาษาธรรมชาติ และกลไกการแนะนำ
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake P-8275CL)
-
DL2q
-
อินสแตนซ์ Amazon EC2 DL2q ที่ขับเคลื่อนโดยตัวเร่ง Qualcomm AI 100 สามารถใช้เพื่อปรับใช้เวิร์กโหลดดีปเลิร์นนิง (DL) ในระบบคลาวด์ได้สำเร็จผล หรือตรวจสอบประสิทธิภาพและความแม่นยำของเวิร์กโหลด DL ที่จะปรับใช้บนอุปกรณ์ Qualcomm ต่างๆ
คุณสมบัติ:
- 8 ตัวเร่ง Qualcomm AI 100
- รองรับโดย Qualcomm Cloud AI Platform และ Apps SDK
- ตัวประมวลผลแบบปรับขนาดได้ Intel Xeon รุ่นที่ 2 (Cascade Lake P-8259CL)
- สูงสุด 128 GB ของหน่วยความจําตัวเร่งที่ใช้ร่วมกัน
- ระบบเครือข่ายสูงสุด 100 Gbps
ขนาดของอินสแตนซ์ ตัวเร่ง Qualcomm AI 100
หน่วยความจำตัวเร่ง (GB) vCPU หน่วยความจำ (GiB) พื้นที่จัดเก็บในเครื่อง Inter-Accelerator Interconnect แบนด์วิดท์เครือข่าย (Gbps) แบนวิดท์ EBS (Gbps) dl2q.24xlarge 8 128 96 768 EBS เท่านั้น ใช้ไม่ได้ 100 19 กรณีการใช้งาน
เรียกใช้แอปพลิเคชัน DL และ AI ช่วยสร้างยอดนิยม เช่น การสร้างเนื้อหา การวิเคราะห์ภาพ การสรุปข้อความ และผู้ช่วยเสมือน ตรวจสอบเวิร์กโหลด AI ก่อนที่จะปรับใช้กับสมาร์ทโฟน รถยนต์ หุ่นยนต์ และชุดหูฟังโลกจริงผสานโลกเสมือน
-
F1
-
อินสแตนซ์ Amazon EC2 F1 มอบการเร่งฮาร์ดแวร์แบบกำหนดเองได้ด้วย Field Programmable Gate Array (FPGA)
คุณสมบัติของอินสแตนซ์:
- โปรเซสเซอร์ Intel Xeon แบบปรับขนาดได้ความถี่สูง (Broadwell E5-2686 v4)
- พื้นที่จัดเก็บแบบ SSD NVMe
- รองรับ Enhanced Networking
คุณสมบัติ FPGA:
- Xilinx Virtex UltraScale+ VU9P FPGA
- ECC 64 GiB คือหน่วยความจำที่ได้รับการป้องกันบน DDR4 แบบ 4x
- อินเทอร์เฟซ PCI-Express x16 เฉพาะ
- มีลอจิกอีลิเมนต์ประมาณ 2.5 ล้านอีลิเมนต์
- มีเครื่องมือ Digital Signal Processing (DSP) ประมาณ 6,800 อย่าง
- FPGA Developer AMI
อินสแตนซ์ FPGA vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) ประสิทธิภาพเครือข่าย (Gbps)*** f1.2xlarge 1 8 122 1 x 470 สูงสุด 10 f1.4xlarge 2 16 244 1 x 940 สูงสุด 10 f1.16xlarge 8 64 976 4 x 940 25 สำหรับอินสแตนซ์ f1.16xlarge โครงสร้าง PCI-e เฉพาะจะให้ FPGA ได้ใช้พื้นที่หน่วยความจำร่วมกันและสื่อสารระหว่างกันแบบข้ามโครงสร้าง โดยการสื่อสารแต่ละทางจะใช้ได้สูงสุดถึง 12 Gbps
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- ตัวประมวลผล 2.3 GHz (พื้นฐาน) และ 2.7 GHz (Turbo) Intel Xeon E5-2686 v4
- Intel AVX†, Intel AVX2†, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
การวิจัยจีโนมิกส์, การวิเคราะห์ทางการเงิน, การประมวลผลวิดีโอแบบเรียลไทม์, การค้นหาและการวิเคราะห์ Big Data และการรักษาความปลอดภัย
-
VT1
-
อินสแตนซ์ Amazon EC2 VT1 ออกแบบมาเพื่อมอบการแปลงข้อมูลที่เข้ารหัสวิดีโอแบบเรียลไทม์ในราคาไม่แพง พร้อมรองรับความละเอียดระดับ 4K UHD
คุณสมบัติ:
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake P-8259CL)
- การ์ดจอประมวลผลสื่อ Xilinx U30 สูงสุด 8 ตัวที่มี codec แบบ H.264/AVC และ H.265/HEVC ความเร็วสูง
- มีอัตราการส่งข้อมูลเครือข่ายที่ได้รับการประบประสิทธิภาพสูงสุด 25 Gbps
- แบนด์วิดท์ EBS สูงสุด 19 Gbps
ขนาดของอินสแตนซ์
U30 Accelerator
vCPU
หน่วยความจำ (GiB)
แบนด์วิดท์เครือข่าย (Gbps)
แบนด์วิดท์ EBS
(Gbps)สตรีม 1080p60
สตรีม 4Kp60
vt1.3xlarge
1
12
24
3.125
สูงสุด 4.75
8
2
vt1.6xlarge
2
24
48
6.25
4.75
16
4
vt1.24xlarge
8
96
192
25
19
64
16
อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้
- Intel AVX†, Intel AVX2†, Intel AVX-512, Intel Turbo
- EBS ที่ปรับให้เหมาะสม
- ระบบเครือข่ายที่ปรับปรุงประสิทธิภาพ†
กรณีการใช้งาน
การถ่ายทอดสด การประชุมผ่านวิดีโอคอล และการแปลงข้อมูลที่เข้ารหัสแบบ Just-In-Time
- โปรเซสเซอร์ Intel Xeon รุ่นที่ 2 แบบปรับขนาดได้ (Cascade Lake P-8259CL)
แต่ละ vCPU คือเธรดของแกนประมวลผล Intel Xeon หรือแกนประมวลผล AMD EPYC ยกเว้นสำหรับ T2 และ m3.medium
† AVX, AVX2, AVX-512 และ Enhanced Networking ใช้ได้บนอินสแตนซ์ที่เปิดใช้ด้วย HVM AMI เท่านั้น
* ค่านี้เป็นค่าเริ่มต้นและจำนวนสูงสุดของ vCPU ที่พร้อมใช้งานสำหรับประเภทอินสแตนซ์นี้ คุณสามารถระบุจำนวน vCPU แบบกำหนดเองได้เมื่อเรียกใช้งานประเภทอินสแตนซ์นี้ สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับจำนวน vCPU ที่ใช้ได้และวิธีเริ่มต้นใช้งานคุณสมบัตินี้ โปรดดูที่หน้าเอกสารประกอบ Optimize CPU ที่นี่
*** อินสแตนซ์ที่ระบุว่าแบนด์วิดท์เครือข่าย "สูงสุดถึง" มีแบนด์วิดท์พื้นฐานและสามารถใช้กลไกการให้เครดิต I/O ของเครือข่ายเพื่อขยายแบนด์วิดท์พื้นฐานเท่าที่จะเป็นไปได้ ดูข้อมูลเพิ่มเติม ได้ที่แบนวิดท์เครือข่ายอินสแตนซ์
เพิ่มประสิทธิภาพพื้นที่จัดเก็บ
อินสแตนซ์เพิ่มประสิทธิภาพพื้นที่จัดเก็บออกแบบมาสำหรับปริมาณงานที่ต้องใช้การเข้าถึงชุดข้อมูลขนาดใหญ่บนพื้นที่จัดเก็บในเครื่องด้วยการอ่านและเขียนอย่างต่อเนื่อง มีประสิทธิภาพในการส่งมอบประสิทธิภาพ I/O สุ่มต่อวินาที (IOPS) หลายหมื่นรายการให้กับแอปพลิเคชัน
-
I4g
-
Im4gn
-
Is4gen
-
I4i
-
I3
-
I3en
-
D3
-
D3en
-
D2
-
H1
-
I4g
-
อินสแตนซ์ Amazon EC2 I4g ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton2 และให้ประสิทธิภาพด้านราคาดีที่สุดสำหรับเวิร์กโหลดที่ใช้พื้นที่จัดเก็บสูงใน Amazon EC2 อินสแตนซ์ I4g มอบประสิทธิภาพการประมวลผลที่ดีขึ้นสูงสุด 15% เมื่อเทียบกับอินสแตนซ์ที่เพิ่มประสิทธิภาพพื้นที่จัดเก็บที่คล้ายกัน
คุณสมบัติ:
- ขับเคลื่อนโดยโปรเซสเซอร์ AWS Graviton2
- มีพื้นที่เก็บข้อมูลของอินสแตนซ์แบบ NVMe SSD สูงสุด 15 TB พร้อม AWS Nitro SSD ที่มีเวลาแฝง I/O ต่ำกว่าถึง 60% และความแปรปรวนของเวลาแฝงลดลงสูงสุด 75% เมื่อเทียบกับอินสแตนซ์ I3 และ I3en และคุณสมบัติการเข้ารหัสแบบเปิดตลอดเวลา
- เหมาะสำหรับเวิร์กโหลดที่แมปไปยังหน่วยความจำ 8 GB ต่อ vCPU
- แบนวิดท์เครือข่ายสูงสุดถึง 38 Gbps โดยใช้เครือข่ายที่ปรับปรุงตามอะแดปเตอร์เครือข่ายแบบยืดหยุ่น (ENA)
- รองรับ Elastic Fabric Adapter (EFA) บนอินสแตนซ์ i4g.16xlarge
- แบนวิดท์สูงสุด 20 Gbps สำหรับ Amazon Elastic Block Store (EBS)
- ต่อยอดจากระบบ AWS Nitro System ที่ประกอบไปด้วยฮาร์ดแวร์แบบเฉพาะและไฮเปอร์ไวเซอร์ที่ใช้พื้นที่น้อย
- รองรับการป้องกันการลดประสิทธิภาพการเขียน (TWP) เพื่อเพิ่มประสิทธิภาพมากยิ่งขึ้นและลดเวลาแฝงด้วยเวิร์กโหลดของฐานข้อมูล เช่น MySQL และ MariaDB
ขนาดของอินสแตนซ์ vCPU หน่วยความจำ (GiB) พื้นที่เก็บข้อมูลของอินสแตนซ์ (GB) แบนด์วิดท์เครือข่าย (Gbps) แบนด์วิดท์ EBS (Gbps) i4g.large 2 16 1 x 468 GB = 468 GB สูงสุด 10 สูงสุด 10 i4g.xlarge 4 32 1 x 937 GB = 937 GB สูงสุด 10 สูงสุด 10 i4g.2xlarge 8 64 1 x 1,875 GB = 1,875 GB สูงสุด 12 สูงสุด 10 i4g.4xlarge 16 128 1 x 3,750 GB = 3,750 GB สูงสุด 25 สูงสุด 10 i4g.8xlarge 32 256 2 x 3,750 GB = 7,500 GB 18.75 10 i4g.16xlarge 64 512 4 x 3,750 GB = 15,000 GB 37.5 20 อินสแตนซ์ทั้งหมดมีข้อมูลจำเพาะดังต่อไปนี้
- โปรเซสเซอร์ AWS Graviton2 แบบกำหน