Infrastruktur AWS Machine Learning

Performa tinggi, hemat biaya, dan dioptimalkan untuk machine learning
Makin banyak bisnis dari semua ukuran dan industri mengadopsi machine learning (ML) untuk berbagai kasus penggunaan termasuk mesin rekomendasi, deteksi objek, asisten suara, dan deteksi penipuan. Dengan pertumbuhan ini, muncul peningkatan penggunaan, pengelolaan, dan biaya komputasi, penyimpanan, serta sumber daya jaringan. Pengadaan infrastruktur komputasi dalam jumlah yang tepat untuk memenuhi persyaratan beban kerja machine learning dapat menjadi tantangan, tetapi melatih dan men-deploy model ML tanpa insfrastruktur yang tepat dapat memakan banyak biaya dan waktu. Untuk membantu Anda mempercepat inovasi ML, AWS menawarkan kombinasi ideal instans Amazon EC2 berperforma tinggi dan rendah biaya serta alat yang dibuat khusus dan dioptimalkan untuk machine learning.

Manfaat

Performa Tinggi

Performa Tinggi 

AWS menawarkan insfrastruktur komputasi ML berperforma paling tinggi di cloud. Untuk pelatihan, instans Amazon EC2 P4 menawarkan peningkatan performa 2,5x dibandingkan instans generasi sebelumnya dan jaringan tercepat, hingga 400 Gbps. Untuk inferensi, instans Amazon EC2 Inf1 mengirimkan throughput hingga 2,3x lebih tinggi dibandingkan generasi instans berbasis GPU.

Pelajari selengkapnya >>
ML yang Dioptimalkan

Dioptimalkan untuk Machine Learning

Instans komputasi AWS mendukung kerangka kerja machine learning utama seperti TensorFlow dan PyTorch. Instans ini juga mendukung model dan kit alat seperti Hugging Face untuk berbagai kasus penggunaan machine learning. AMI Deep Learning AWS dan Deep Learning Containers telah diinstal sebelumnya dengan optimalisasi untuk kerangka kerja dan kit alat ML guna mempercepat deep learning di cloud.

Pelajari selengkapnya >>
Mudah Digunakan

Mudah Digunakan

Amazon SageMaker, layanan ML terkelola penuh, adalah cara tercepat dan termudah untuk memulai infrastruktur AWS dan juga menawarkan alat yang dibuat khusus termasuk pelabelan data, persiapan data, rekayasa fitur, deteksi bias statistik, AutoML, pelatihan, penyetelan, hosting, penjelasan, pemantauan, dan alur kerja. SageMaker dibangun dengan memanfaatkan pengalaman Amazon ML selama beberapa dekade.

Pelajari selengkapnya >>
Skala

Skala

Pelanggan AWS memiliki akses ke komputasi, jaringan, dan penyimpanan yang hampir tidak terbatas sehingga mereka dapat menskalakan. Anda dapat menaikkan atau menurunkan skala sesuai kebutuhan dari satu GPU hingga ribuan, dan Anda dapat menaikkan atau menurunkan skala sesuai kebutuhan dari penyimpanan terabyte hingga petabyte. Dengan menggunakan cloud, Anda tidak perlu berinvestasi di semua kemungkinan infrastruktur. Sebagai gantinya, manfaatkan komputasi elastis, penyimpanan, dan jaringan.

Pelajari selengkapnya >>
Hemat Biaya

Hemat Biaya

Dengan pilihan layanan infrastruktur yang luas, Anda dapat memilih infrastruktur yang tepat sesuai anggaran Anda. Pilih dari CPU, GPU, atau instans berbasis akselerator dan cukup bayar untuk apa yang Anda gunakan sehingga Anda tidak perlu membayar kapasitas yang tidak terpakai. Instans Amazon EC2 Inf1 yang didukung oleh AWS Inferentia mengirimkan biaya per inferensi yang lebih rendah hingga 70% dibandingkan instans berbasis GPU generasi saat ini yang sebanding.

Pelajari selengkapnya >>

Penawaran kami

Infrastruktur ML

Pelanggan

Amazon Alexa

Kecerdasan berbasis AI dan ML dari Amazon Alexa tersedia pada lebih dari 100 juta perangkat saat ini. Alexa selalu menjadi lebih cerdas, lebih komunikatif, lebih proaktif, dan bahkan lebih menyenangkan. Alexa menggunakan Amazon EC2 Inf1 untuk menurunkan latensi inferensi dan biaya-per-inferensi pada teks-ke-ucapan Alexa.

Anthem

Autodesk memajukan teknologi kognitif dengan asisten virtual yang didukung AI, Autodesk Virtual Agent (AVA). AVA menjawab lebih dari 100.000 pertanyaan pelanggan per bulan dengan menerapkan teknik natural language understanding (NLU) dan pembelajaran mendalam untuk mengekstrak konteks, tujuan, dan makna di balik pertanyaan. Dengan memulai AWS Inferentia, mereka dapat memperoleh throughput yang lebih tinggi hingga 4,9x dibandingkan instans berbasis GPU.

RadAI

Rad AI menggunakan AI untuk mengotomatiskan alur kerja radiologi dan membantu menyederhanakan pelaporan radiologi. Dengan instans Amazon EC2 P4d yang baru, Rad AI melihat inferensi yang lebih cepat dan kemampuan untuk melatih model 2,4x lebih cepat dan dengan akurasi yang lebih tinggi.

Ambil langkah selanjutnya bersama AWS