Công bố công thức của Amazon SageMaker HyperPod

Ngày đăng: 4 Th12 2024

Với công thức của Amazon SageMaker HyperPod, bạn có thể bắt đầu đào tạo và tinh chỉnh các mô hình nền tảng (FM) công khai chỉ sau vài phút với hiệu năng tiên tiến. SageMaker HyperPod giúp khách hàng tăng quy mô phát triển mô hình AI tạo sinh trên hàng trăm hoặc hàng nghìn trình tăng tốc AI với khả năng phục hồi và tối ưu hóa hiệu năng được tích hợp sẵn, giúp giảm tới 40% thời gian đào tạo mô hình. Tuy nhiên, khi kích thước FM tiếp tục tăng lên đến hàng trăm tỷ tham số, quá trình tùy chỉnh mô hình này có thể mất nhiều tuần thử nghiệm và gỡ lỗi. Ngoài ra, việc tối ưu hóa đào tạo để cải thiện tỷ lệ hiệu năng/giá thường không khả thi đối với khách hàng vì quá trình này thường yêu cầu kiến thức chuyên môn chuyên sâu về máy học, dẫn đến kéo dài thời gian đưa sản phẩm ra thị trường. 

Với công thức của SageMaker HyperPod, dù có cấp độ kỹ năng như thế nào, khách hàng đều được hưởng lợi từ hiệu năng tối ưu đồng thời có thể nhanh chóng bắt đầu đào tạo và tinh chỉnh các FM có sẵn công khai, bao gồm Llama 3.1 405B, Mixtral 8x22B và Mistral 7B. Công thức của SageMaker HyperPod bao gồm một ngăn xếp đào tạo đã được AWS thử nghiệm, giúp bạn không phải tốn nhiều tuần làm các công việc tẻ nhạt khi thử nghiệm các cấu hình mô hình khác nhau. Ngoài ra, bạn cũng có thể chuyển đổi nhanh chóng giữa phiên bản dựa trên GPU và phiên bản dựa trên AWS Trainium bằng cách thay đổi công thức một dòng, kích hoạt tính năng tạo điểm kiểm tra mô hình tự động để cải thiện khả năng phục hồi quá trình đào tạo. Cuối cùng, bạn có thể chạy các khối lượng công việc trong môi trường sản xuất trên dịch vụ đào tạo AI của SageMaker mà bạn chọn. 

Công thức của SageMaker HyperPod được cung cấp ở tất cả các Khu vực AWS hỗ trợ tác vụ đào tạo của SageMaker HyperPod và SageMaker. Để tìm hiểu thêm và bắt đầu, hãy truy cập trang SageMaker HyperPodblog.