Các phiên bản P5e cho Amazon EC2 hiện được cung cấp thông qua Khối công suất EC2

Ngày đăng: 9 Th09 2024

Hôm nay, AWS thông báo về việc cung cấp rộng rãi các phiên bản Amazon Elastic Compute Cloud (Amazon EC2) P5e sử dụng GPU Tensor Core NVIDIA H200 mới nhất. Các phiên bản này có sẵn thông qua Khối công suất EC2, cung cấp hiệu suất cao nhất trong Amazon EC2 cho hoạt động học sâu và suy luận AI tạo sinh.

Bạn có thể sử dụng các phiên bản P5e cho Amazon EC2 để đào tạo và triển khai các mô hình ngôn ngữ lớn (LLM) ngày càng phức tạp và các mô hình khuếch tán hỗ trợ cho các ứng dụng AI tạo sinh có đòi hỏi khắt khe nhất. Bạn cũng có thể sử dụng phiên bản P5e để triển khai các ứng dụng HPC có nhu cầu cao ở quy mô lớn để tìm hiểu về dược phẩm, phân tích địa chấn, dự báo thời tiết và lập mô hình tài chính.

Phiên bản P5e sử dụng 8 GPU H200 có dung lượng bộ nhớ GPU cao gấp 1,7 lần và băng thông bộ nhớ GPU cao gấp 1,5 lần so với GPU H100 của phiên bản P5. Các phiên bản này đem lại khả năng điều chỉnh quy mô hàng đầu thị trường cho các khối lượng công việc đào tạo phân tán và HPC được liên kết chặt chẽ, với khả năng kết nối mạng lên đến 3.200 Gbps sử dụng công nghệ Trình chuyển cấu trúc linh hoạt (EFA) thế hệ thứ hai. Để đáp ứng nhu cầu của khách hàng về quy mô lớn với độ trễ thấp, các phiên bản P5e được triển khai trong Amazon EC2 UltraClusters.

Các phiên bản P5e hiện đã có ở Khu vực AWS Miền Đông Hoa Kỳ (Ohio) với kích cỡ p5e.48xlarge thông qua Khối công suất EC2 dành cho ML.

Để tìm hiểu thêm về các phiên bản P5e, hãy xem Các phiên bản P5e cho Amazon EC2.