Instans P3 Amazon EC2

Percepat aplikasi machine learning dan komputasi kinerja tinggi dengan GPU yang kuat

Instans P3 Amazon EC2 memberikan komputasi berperforma tinggi di cloud dengan hingga 8 GPU NVIDIA® V100 Tensor Core dan throughput jaringan hingga 100 Gbps untuk machine learning dan aplikasi HPC. Instans ini memberikan hingga satu petaflop performa presisi campuran per instans untuk mempercepat machine learning dan aplikasi komputasi berperforma tinggi secara signifikan. Instans P3 Amazon EC2 telah terbukti mengurangi waktu pelatihan machine learning dari hitungan hari ke menit, serta meningkatkan jumlah simulasi yang diselesaikan untuk komputasi berperforma tinggi sebesar 3-4x.

Dengan hingga 4x bandwidth jaringan instans P3.16xlarge, instans P3dn.24xlarge Amazon EC2 adalah tambahan terbaru untuk family P3, yang dioptimalkan untuk machine learning terdistribusi dan aplikasi HPC. Instans ini memberikan throughput jaringan hingga 100 Gbps, 96 vCPU Intel® Xeon® Scalable (Skylake) kustom, 8 GPU NVIDIA® V100 Tensor Core dengan memori masing-masing 32 GB, dan penyimpanan SSD berbasis NVMe lokal 1,8 TB. Instans P3dn.24xlarge juga mendukung Elastic Fabric Adapter (EFA) yang mengakselerasi aplikasi pembelajaran mesin terdistribusi yang menggunakan NVIDIA Collective Communications Library (NCCL). EFA dapat menskalakan hingga ribuan GPU, jauh meningkatkan throughput dan skalabilitas model pelatihan deep learning, yang akan memberikan hasil yang lebih cepat.

SiteMerch-EC2-Instances_accelerated-trial_2up

Coba gratis: Hingga USD 10.000 dalam bentuk kredit AWS untuk EC2 Hardware Accelerated Instances, ideal untuk aplikasi ML, HPC, & Grafik.

Klik di sini untuk mengajukan 
Ikhtisar Instans P3 Amazon EC2 (2:18)

Keuntungan

Kurangi waktu pelatihan pembelajaran mesin dari hitungan hari menjadi hitungan menit

Untuk ilmuwan data, peneliti, dan pengembang yang perlu mempercepat aplikasi ML, instans P3 Amazon EC2 adalah yang tercepat di cloud untuk pelatihan ML. Instans P3 Amazon EC2 dilengkapi dengan hingga delapan GPU NVIDIA V100 Tensor Core generasi terbaru dan memberikan hingga satu petaflop performa presisi campuran untuk mempercepat beban kerja ML secara signifikan. Pelatihan model yang lebih cepat memungkinkan ilmuwan data dan perekayasa pembelajaran mesin mengulangi proses dengan lebih cepat, melatih lebih banyak model, dan meningkatkan akurasi.

Solusi paling hemat biaya di industri untuk pelatihan ML

Salah satu instans GPU yang paling tangguh di cloud yang digabungkan dengan paket harga yang fleksibel menghasilkan solusi yang sangat hemat biaya untuk pelatihan pembelajaran mesin. Seperti instans Amazon EC2 secara umum, instans P3 tersedia sebagai Instans Sesuai Permintaan, Instans Cadangan, atau Instans Spot. Instans Spot memanfaatkan kapasitas instans EC2 yang tidak digunakan dan dapat menurunkan biaya Amazon EC2 secara signifikan dengan diskon hingga 70% dari harga Sesuai Permintaan.

Komputasi yang fleksibel, tangguh, dan berkinerja tinggi

Tidak seperti sistem lokal, menjalankan komputasi berkinerja tinggi di instans P3 Amazon EC2 menawarkan kapasitas yang tidak terbatas secara virtual untuk memperluas skala infrastruktur, dan fleksibilitas untuk mengubah sumber daya dengan mudah dan sesering yang diminta oleh beban kerja Anda. Anda dapat mengonfigurasi sumber daya untuk memenuhi permintaan aplikasi Anda, dan meluncurkan klaster HPC dalam hitungan menit, dengan membayar hanya sesuai yang Anda gunakan.

Segera mulai membangun

Gunakan citra Docker yang sudah dikemas sebelumnya untuk menerapkan lingkungan deep learning dalam hitungan menit. Citra tersebut berisi pustaka kerangka kerja deep learning yang diperlukan (saat ini TensorFlow dan Apache MXNet) serta alat-alat dan telah sepenuhnya diuji. Anda dapat dengan mudah menambahkan pustaka dan alat Anda sendiri pada citra tersebut untuk tingkat kontrol yang lebih tinggi atas pemantauan, kepatuhan, dan pemrosesan data. Selain itu, instans P3 Amazon EC2 bekerja tanpa hambatan dengan Amazon SageMaker untuk memberikan platform machine learning lengkap yang kuat dan intuitif. Amazon SageMaker merupakan platform pembelajaran mesin yang dikelola secara penuh yang memungkinkan Anda membangun, melatih, dan menerapkan model pembelajaran mesin dengan cepat dan mudah. Selain itu, instans P3 Amazon EC2 dapat diintegrasikan dengan Amazon Machine Image (AMI) AWS Deep Learning yang diinstal sebelumnya dengan kerangka kerja deep learning populer. Cara ini akan mempercepat dan mempermudah untuk memulai dengan pelatihan dan inferensi pembelajaran mesin.

Pelatihan pembelajaran mesin multi-node yang dapat diskalakan

Anda dapat menggunakan instans P3 Amazon EC2 dengan throughput jaringan hingga 100 Gbps untuk melatih model pembelajaran mesin dengan cepat. Throughput jaringan yang lebih tinggi memungkinkan pengembang mengatasi kemacetan transfer data dan secara efisien memperluas skala tugas pelatihan model mereka di beberapa instans P3. Pelanggan dapat melatih ResNet-50, model klasifikasi citra umum, sesuai akurasi standar industri hanya dalam 18 menit menggunakan 16 instans P3. Tingkat performa ini sebelumnya tidak dapat tercapai oleh sebagian besar pelanggan ML karena memerlukan investasi CapEx yang besar untuk membangun klaster GPU lokal. Dengan instans P3 dan ketersediaannya melalui model penggunaan Sesuai Permintaan, tingkat performa ini kini dapat diakses oleh semua developer dan teknisi pembelajaran mesin. Selain itu, instans P3dn.24xlarge mendukung Elastic Fabric Adapter (EFA) yang menggunakan NVIDIA Collective Communications Library (NCCL) untuk meningkatkan skala hingga ribuan GPU.

Dukungan untuk semua kerangka kerja pembelajaran mesin utama

Instans P3 Amazon EC2 mendukung semua kerangka kerja pembelajaran mesin utama termasuk TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon, dan Torch. Anda memiliki fleksibilitas untuk memilih kerangka kerja yang berfungsi paling baik untuk aplikasi Anda.

Kisah pelanggan

Airbnb

Airbnb menggunakan pembelajaran mesin untuk mengoptimalkan rekomendasi pencarian dan meningkatkan panduan harga dinamis untuk host, yang keduanya berarti peningkatan konversi pemesanan. Dengan instans P3 Amazon EC2, Airbnb dapat menjalankan beban kerja pelatihan yang lebih cepat, melalui lebih banyak iterasi, membangun model pembelajaran mesin yang lebih baik, dan mengurangi biaya.

Celgene

Celgene adalah sebuah perusahaan bioteknologi global yang sedang mengembangkan terapi bertarget yang sesuai dengan perawatan pasien. Perusahaan ini menjalankan berbagai beban kerja HPC mereka untuk pengurutan genomik dan simulasi kimiawi generasi berikutnya di instans P3 Amazon EC2. Dengan ketangguhan komputasi ini, Celgene dapat melatih model deep learning untuk membedakan sel-sel ganas dan sel-sel jinak. Sebelum menggunakan instans P3, menjalankan tugas komputasional berskala besar yang sebelumnya perlu waktu dua bulan kini hanya perlu waktu empat jam. Teknologi AWS telah memungkinkan Celgene untuk mempercepat pengembangan terapi obat-obatan untuk penyakit kanker dan peradangan.

Hyperconnect memiliki keahlian dalam menerapkan teknologi baru berbasis pembelajaran mesin untuk pada pemrosesan gambar dan video, serta merupakan perusahaan pertama yang mengembangkan webRTC untuk platform seluler.

“Hyperconnect menggunakan klasifikasi gambar berbasis AI pada aplikasi komunikasi videonya untuk mengenali lingkungan tempat pengguna berada saat ini. Kami mengurangi waktu pelatihan model ML dari satu pekan lebih menjadi kurang dari satu hari dengan memigrasi dari tempat kerja lokal ke sejumlah instans P3 Amazon EC2 menggunakan Horovod. Dengan menggunakan PyTorch sebagai kerangka kerja pembelajaran mesin, kami mampu mengembangkan model dengan cepat dan memanfaatkan pustaka yang tersedia di komunitas sumber terbuka.”

Sungjoo Ha, Director of AI Lab - Hyperconnect

Baca studi kasus lengkap »

NerdWallet adalah startup keuangan pribadi yang menyediakan alat dan saran yang memudahkan nasabah dalam membayar utang, memilih produk dan layanan keuangan terbaik, serta mencapai tujuan besar dalam hidup seperti membeli rumah atau menabung untuk masa pensiun. Perusahaan ini sangat mengandalkan ilmu data dan pembelajaran mesin (ML) untuk menghubungkan nasabah dengan produk keuangan yang dipersonalisasi.

Penggunaan Amazon SageMaker dan instans P3 Amazon EC2 dengan GPU Tensor Core NVIDIA V100 juga telah meningkatkan fleksibilitas serta kinerja NerdWallet, dan mengurangi waktu yang dibutuhkan para ilmuwan data dalam melatih model ML. “Sebelumnya kami membutuhkan waktu berbulan-bulan untuk meluncurkan dan mengulang model; kini dapat selesai dalam hitungan hari,”

Ryan Kirkman, Senior Engineering Manager - NerdWallet

Baca studi kasus lengkap »

Pemimpin dalam solusi sistem berkualitas, PathWise milik Aon merupakan suite aplikasi SaaS berbasis cloud yang sesuai untuk pembuatan model manajemen risiko perusahaan yang memberikan kecepatan, keandalan, keamanan, dan layanan sesuai permintaan ke banyak pelanggan.

“PathWise Solutions Group milik Aon menyediakan solusi manajemen risiko yang memungkinkan pelanggan kami memanfaatkan teknologi terbaru untuk mengatasi tantangan utama asuransi saat ini dengan cepat, seperti mengelola dan menguji strategi lindung, regulasi serta prakiraan ekonomi, juga penyusunan anggaran. PathWise telah berjalan di AWS dalam produksi sejak 2011, dan hari ini menggunakan instans Seri P Amazon EC2 untuk mempercepat kebutuhan komputasi guna mengatasi tantangan bagi pelanggan kami di seluruh dunia dalam pasar yang terus maju dan berevolusi.”

Peter Phillips, President & CEO - PathWise Solutions Group

Baca studi kasus »

Pinterest

Pinterest menggunakan pelatihan presisi campuran pada instans P3 di AWS untuk mempercepat pelatihan model deep learning, serta menggunakan instans tersebut untuk inferensi yang lebih cepat dari model tersebut, untuk memberi pengguna pengalaman pencarian yang cepat dan unik. Pinterest menggunakan PinSage, yang dibuat menggunakan PyTorch di AWS. Model AI ini mengelompokkan beberapa gambar berdasarkan tema tertentu. Dengan 3 miliar gambar pada platform, terdapat 18 miliar keterkaitan berbeda yang menghubungkan gambar. Keterkaitan tersebut membantu Pinterest mengontekstualisasikan tema, gaya, dan menghasilkan pengalaman pengguna yang lebih dipersonalisasi

Salesforce

Salesforce menggunakan pembelajaran mesin untuk menjalankan Einstein Vision, yang memungkinkan pengembang memanfaatkan daya pengenalan gambar untuk kasus penggunaan seperti pencarian visual, deteksi merek, dan identifikasi produk. Instans P3 Amazon EC2 memungkinkan pengembang melatih model pembelajaran mendalam jauh lebih cepat sehingga mereka dapat mencapai sasaran pembelajaran mesin dengan cepat.

Schrodinger

Schrodinger menggunakan komputasi kinerja tinggi (HPC) untuk mengembangkan model prediktif untuk memperluas skala pencarian dan optimalisasi serta memberi pelanggan kemampuan untuk memasarkan dengan cepat obat-obatan yang menyelamatkan nyawa. Instans P3 Amazon EC2 memungkinkan Schrodinger menjalankan empat kali lebih banyak simulasi dalam satu hari dengan instans P2.  

Subtle Medical merupakan perusahaan teknologi kesehatan yang bekerja untuk meningkatkan efisiensi pencitraan medis dan pengalaman pasien dengan solusi pembelajaran mendalam yang inovatif. Timnya terdiri dari ilmuwan pencitraan terkemuka, pakar radiologi, dan ahli AI dari Stanford, MIT, MD Anderson, dan banyak lagi.

“Rumah sakit dan pusat pencitraan ingin mengadopsi solusi ini tanpa membebani departemen IT mereka guna memperoleh keahlian GPU dan membangun serta memelihara pusat data atau cloud mini berbiaya tinggi. Mereka ingin berhasil dalam penerapan mereka dengan upaya dan investasi dalam jumlah kecil... AWS membuat semua ini mungkin.”

Enhao Gong, Pendiri dan CEO - Subtle Medical

Baca studi kasus lengkap »

Western Digital

Western Digital menggunakan HPC untuk menjalankan ribuan ribu simulasi untuk ilmu material, aliran panas, magnetika, dan transfer data untuk meningkatkan kinerja dan kualitas drive disk serta solusi penyimpanan. Berdasarkan pengujian awal, instans P3 memungkinkan tim teknik menjalankan simulasi setidaknya tiga kali lebih cepat dari solusi yang diterapkan sebelumnya.  

Instans P3 Amazon EC2 dan Amazon SageMaker

Cara tercepat untuk melatih dan menjalankan model pembelajaran mesin

Amazon SageMaker adalah layanan yang dikelola sepenuhnya untuk membuat, melatih, dan menerapkan model pembelajaran mesin. Pada saat diagunakan dengan instans P3 Amazon EC2, pelanggan dapat menskalakan ke puluhan, ratusan, atau ribuan GPU dengan mudah untuk melatih model dengan cepat pada segala skala tanpa perlu khawatir menyiapkan klaster dan pipeline data. Anda juga dapat mengakses sumber daya Amazon Virtual Private Cloud (Amazon VPC) dengan mudah untuk alur kerja pelatihan dan hosting di Amazon SageMaker. Dengan fitur ini, Anda dapat menggunakan bucket Amazon Simple Storage Service (Amazon S3) yang hanya dapat diakses melalui VPC untuk menyimpan data pelatihan, serta menyimpan dan meng-hosting artefak model yang berasal dari proses pelatihan. Selain S3, model dapat mengakses semua sumber daya AWS lain yang terdapat di VPC. Pelajari selengkapnya.

Bangun

Amazon SageMaker mempermudah untuk membangun model pembelajaran mesin dan menyiapkannya untuk pelatihan. Layanan ini memberikan segala hal yang Anda perlukan untuk tersambung dengan cepat ke data pelatihan Anda, dan untuk memilih serta mengoptimalkan algoritme dan kerangka kerja terbaik untuk aplikasi Anda. Amazon SageMaker meliputi buku catatan Jupyter yang di-host yang memudahkan untuk mengeksplorasi dan memvisualisasikan data pelatihan Anda yang disimpan di Amazon S3.  Anda juga dapat menggunakan instans buku catatan untuk menulis kode pembuatan tugas pelatihan model, menerapkan model ke hosting Amazon SageMaker, dan menguji atau memvalidasi model Anda.

Latih

Anda dapat mulai melatih model Anda dengan sekali klik di konsol atau dengan panggilan API. Amazon SageMaker telah dikonfigurasi sebelumnya dengan versi terbaru TensorFlow dan Apache MXNet, dan dengan dukungan pustaka CUDA9 untuk performa optimal dengan GPU NVIDIA. Selain itu, optimalisasi hiper-parameter dapat menyesuaikan model Anda secara otomatis dengan menyesuaikan kombinasi parameter yang berbeda secara cerdas untuk mencapai prediksi yang paling akurat dengan cepat. Untuk keperluan skala yang lebih besar, Anda dapat menskalakan ke puluhan instans untuk mendukung pembuatan model yang lebih cepat.

Terapkan

Setelah pelatihan, Anda dapat menggunakan fitur sekali klik untuk menerapkan model Anda di instans Amazon EC2 auto-scaling di beberapa Availability Zone. Dalam produksi, Amazon SageMaker membantu Anda mengelola infrastruktur komputasi untuk melakukan pemeriksaan kesehatan, menerapkan patch keamanan, dan melakukan perawatan rutin lain, semuanya dengan pemantauan dan pencatatan log Amazon CloudWatch bawaan.

 

Instans P3 Amazon EC2 dan AMI AWS Deep Learning

Lingkungan pengembangan yang sudah dikonfigurasi sebelumnya untuk mulai membangun aplikasi deep learning dengan cepat

Selain Amazon SageMaker bagi pengembang yang memiliki persyaratan yang lebih terkustomisasi, AMI AWS Deep Learning menyediakan praktisi dan peneliti machine learning dengan infrastruktur dan peralatan guna mempercepat proses deep learning dalam cloud, pada segala skala. Anda dapat dengan cepat meluncurkan instans P3 Amazon EC2 yang telah diinstal sebelumnya dengan kerangka kerja deep learning populer seperti TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon, dan Keras untuk melatih model AI kustom yang canggih, bereksperimen dengan algoritme baru, atau mempelajari keahlian dan teknik baru. Pelajari selengkapnya >>

Instans P3 Amazon EC2 dan komputasi berkinerja tinggi

Atasi masalah komputasi besar dan dapatkan wawasan baru menggunakan keunggulan HPC di AWS

Instans P3 Amazon EC2 merupakan platform yang ideal untuk menjalankan simulasi teknik, keuangan komputasional, analisis seismik, pemodelan molekul, genomik, rendering, dan beban kerja komputasi GPU lainnya. Komputasi performa tinggi (HPC) memungkinkan ilmuwan dan teknisi memecahkan masalah komputasi yang intensif dan kompleks ini. Aplikasi HPC sering kali memerlukan performa jaringan yang tinggi, penyimpanan cepat, memori dalam jumlah besar, kemampuan komputasi tinggi, atau semua yang disebutkan di atas. AWS memungkinkan Anda meningkatkan kecepatan penelitian dan mengurangi waktu-ke-hasil dengan menjalankan HPC di cloud dan penskalaan ke sejumlah besar tugas paralel yang praktis di sebagian besar lingkungan lokal. Misalnya, instans P3dn.24xlarge mendukung Elastic Fabric Adapter (EFA) yang memungkinkan aplikasi HPC menggunakan Message Passing Interface (MPI) untuk meningkatkan skala hingga ribuan GPU. AWS membantu mengurangi biaya dengan menyediakan solusi yang dioptimalkan untuk aplikasi tertentu, dan tanpa perlu investasi modal besar. Pelajari selengkapnya >>

Dukungan untuk Stasiun Kerja Virtual NVIDIA Quadro

AMI Stasiun Kerja Virtual NVIDIA Quadro memberikan kinerja grafis tinggi menggunakan instans P3 dengan GPU NVIDIA Volta V100 yang berjalan di AWS cloud. AMI ini memiliki perangkat lunak grafis GPU NVIDIA yang diinstal sebelumnya bersama dengan driver Quadro dan sertifikasi Quadro ISV terbaru yang mendukung resolusi desktop hingga empat 4K. Instans P3 dengan GPU NVIDIA V100 yang dikombinasikan dengan vWS Quadro memberikan stasiun kerja berkinerja tinggi di cloud dengan memori GPU hingga 32 GB, penelusuran sorotan cepat, dan perenderan yang didukung AI.

AMI baru tersedia di AWS Marketplace serta mendukung Windows Server 2016 dan Windows Server 2019.

Instans P3dn.24xlarge Amazon EC2

Ukuran instans yang lebih cepat, lebih tangguh, dan lebih besar yang dioptimalkan untuk pembelajaran mesin terdistribusi dan komputasi berkinerja tinggi

Instans P3dn.24xlarge Amazon EC2 adalah ukuran instans P3 tercepat, tertangguh, dan terbesar yang tersedia serta memberikan throughput jaringan hingga 100 Gbps, 8 GPU NVIDIA® V100 Tensor Core dengan 32 GB memori masing-masing, 96 vCPU Intel® Xeon® yang Dapat Diskalakan (Skylake) kustom, dan penyimpanan SSD lokal berbasis NVMe 1,8 TB. Jaringan yang lebih cepat, prosesor baru, penggandaan memori GPU, dan vCPU tambahan memungkinkan pengembang secara signifikan mengurangi waktu untuk melatih model ML mereka atau menjalankan lebih banyak simulasi HPC dengan menskalakan pekerjaan mereka di beberapa instans (misalnya, 16, 32 atau 64 instans). Model pembelajaran mesin memerlukan begitu banyak data untuk pelatihan dan, selain untuk meningkatkan throughput data yang lewat di antara instans, throughput jaringan tambahan instans P3dn.24xlarge juga dapat digunakan untuk mempercepat akses ke begitu banyak data pelatihan dengan menghubungkan ke Amazon S3 atau solusi sistem file bersama seperti Amazon EFS.

Mengatasi kemacetan dan mengurangi waktu pelatihan pembelajaran mesin

Dengan throughput jaringan 100 Gbps, pengembang dapat secara efisien menggunakan instans P3dn.24xlarge dalam jumlah besar (mis., 16, 32, atau 64 instans) untuk pelatihan terdistribusi dan secara signifikan mengurangi waktu untuk melatih model mereka. 96vCPUs prosesor Skylake Intel kustom AWS dengan instruksi AVX-512 yang beroperasi pada 2,5GHz membantu mengoptimalkan pra-pemrosesan data. Selain itu, instans P3dn.24xlarge menggunakan AWS Nitro System, kombinasi perangkat keras khusus dan hypervisor ringan, yang menyalurkan hampir seluruh sumber daya komputasi dan memori perangkat keras host ke instans Anda. Instans P3dn.24xlarge juga mendukung Elastic Fabric Adapter yang memungkinkan aplikasi ML menggunakan NVIDIA Collective Communications Library (NCCL) untuk meningkatkan skala hingga ribuan GPU.

TCO yang lebih rendah dengan mengoptimalkan utilisasi GPU

Peningkatan jaringan menggunakan versi terbaru Elastic Network Adapter dengan bandwidth jaringan gabungan hingga 100 Gbps tidak hanya dapat digunakan untuk berbagi data di beberapa instans P3dn.24xlarge, tetapi juga untuk akses data throughput tinggi melalui Amazon S3 atau solusi sistem file bersama seperti Amazon EFS. Akses data throughput tinggi sangat penting untuk mengoptimalkan utilisasi GPU dan memberikan performa maksimum instans komputasi.

Mendukung model yang lebih besar dan lebih kompleks

Instans P3dn.24xlarge menawarkan GPU NVIDIA V100 Tensor Core dengan memori 32GB yang memberikan fleksibiltas untuk melatih model pembelajaran mesin yang lebih canggih dan lebih besar serta memproses batch data yang lebih besar seperti gambar 4k untuk sistem klasifikasi gambar dan deteksi objek.

Detail Produk Instans P3 Amazon EC2

Ukuran Instans GPU – Tesla V100 Peer to Peer GPU Memori GPU (GB) vCPU Memori (GB) Bandwidth Jaringan Bandwidth EBS Harga Pesanan/jam* Instans Cadangan 1 Tahun Efektif Per Jam* Instans Cadangan 3 Tahun Efektif Per Jam*
p3.2xlarge 1 N/A 16 8 61 Hingga 10 Gbps 1,5 Gbps 3,06 USD 1,99 USD 1,05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12,24 USD 7,96 USD 4,19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24,48 USD 15,91 USD 8,39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 19 Gbps 31,218 USD 18,30 USD 9,64 USD

* - Harga yang ditampilkan adalah untuk Linux/Unix di Wilayah AWS AS Timur (Virginia Utara) dan dibulatkan ke sen terdekat. Untuk detail harga lengkap, lihat halaman harga Amazon EC2.

Pelanggan dapat membeli instans P3 sebagai Instans Sesuai Permintaan, Instans Terpesan, Instans Spot, dan Host Khusus.

Penagihan menurut detik

Salah satu kelebihan komputasi cloud adalah sifat penyediaan dan pembatalan penyediaan sumber daya yang elastis sesuai kebutuhan Anda. Dengan menagih penggunaan menurut detik penggunaan, kami memungkinkan pelanggan menyesuaikan elastisitas mereka, menghemat biaya, dan memungkinkan mereka mengoptimalkan alokasi sumber daya untuk mencapai sasaran pembelajaran mesin.

Harga Instans Terpesan

Instans Terpesan memberi Anda diskon yang signifikan (hingga 75%) dibandingkan dengan harga Instans Sesuai Permintaan. Selain itu, ketika Instans Terpesan ditetapkan pada Availability Zone tertentu, Instans tersebut menyediakan pencadangan kapasitas, sehingga Anda semakin yakin pada kemampuan Anda untuk meluncurkan instans saat Anda memerlukannya.

Harga Spot

Dengan Instans Spot, Anda membayar harga Spot yang berlaku untuk periode waktu berjalannya instans Anda. Harga Instans Spot diatur oleh Amazon EC2 dan disesuaikan secara bertahap berdasarkan tren jangka panjang dalam persediaan dan permintaan untuk kapasitas Instans Spot. Instans Spot tersedia dengan diskon hingga 90% jika dibandingkan dengan harga Sesuai Permintaan.

Ketersediaan global terluas

Ketersediaan global instans P3

Instans P3.2xlarge, P3.8xlarge, dan P3.16xlarge Amazon EC2 tersedia di 14 Wilayah AWS sehingga pelanggan memiliki fleksibilitas untuk melatih dan menerapkan model pembelajaran mesin di mana pun data mereka disimpan. Wilayah yang tersedia untuk P3 adalah Wilayah AWS AS Timur (Virginia U.), AS Timur (Ohio), AS Barat (Oregon), Kanada (Pusat), Eropa (Irlandia), Eropa (Frankfurt), Eropa (London), Asia Pasifik (Tokyo), Asia Pasifik (Seoul), Asia Pasifik (Sydney), Asia Pasifik (Singapura), Tiongkok (Beijing), Tiongkok (Ningxia), dan GovCloud (AS Barat).

Instans P3dn.24xlarge tersedia di wilayah AWS Asia Pasifik (Tokyo), Eropa (Irlandia), AS Timur (Virginia U.), AS Barat (Oregon), GovCloud (AS Barat), dan GovCloud (AS Timur).

Mulai menggunakan instans P3 Amazon EC2 untuk pembelajaran mesin

Untuk memulai dalam hitungan menit, pelajari selengkapnya tentang Amazon SageMaker atau gunakan AMI AWS Deep Learning, yang telah diinstal sebelumnya dengan kerangka kerja pembelajaran mendalam seperti Caffe2 dan MXNet. Atau, Anda juga dapat menggunakan AMI NVIDIA dengan driver GPU dan toolkit CUDA yang telah diinstal sebelumnya.

Blog, Artikel, dan Webinar

Webinar-thumb1

Tanggal Siaran: 19 Desember 2018

Tingkat: 200

Visi komputer berkaitan dengan bagaimana komputer dapat dilatih guna memperoleh pemahaman tingkat tinggi dari gambar atau video digital. Sejarah visi komputer berasal dari tahun 1960-an, tetapi kemajuan terbaru dalam teknologi pemrosesan telah memungkinkan aplikasi seperti navigasi kendaraan otonom. Bincang-bincang teknologi ini akan meninjau berbagai langkah yang diperlukan untuk membangun, melatih, dan menerapkan model pembelajaran mesin untuk visi komputer. Kami akan membandingkan dan membedakan pelatihan model visi komputer menggunakan berbagai instans Amazon EC2 dan menyoroti bagaimana penghematan waktu dapat dicapai dengan menggunakan instans P3 Amazon EC2.

Webinar-thumb2

Tanggal Siaran: 31 Juli 2018

Tingkat 200

Organisasi menangani pertanyaan kompleks secara eksponensial di bidang ilmiah, energi, teknologi tinggi, dan medis lanjutan. Machine learning (ML) memungkinkan untuk mengeksplorasi banyak skenario dengan cepat dan menghasilkan jawaban terbaik, mulai dari gambar, video, dan pengenalan suara hingga sistem kendaraan otonom serta prediksi cuaca. Untuk ilmuwan data, peneliti, dan pengembang yang perlu mempercepat pengembangan aplikasi ML, instans P3 Amazon EC2 adalah instans komputasi GPU yang paling kuat, hemat biaya, dan serbaguna yang tersedia di cloud.

Tentang Amazon SageMaker

Klik di sini untuk mempelajari selengkapnya

Tentang Deep Learning di AWS

Klik di sini untuk mempelajari selengkapnya

Tentang Komputasi Berperforma Tinggi (HPC)

Klik di sini untuk mempelajari selengkapnya
Siap untuk memulai?
Daftar
Punya pertanyaan lainnya?
Hubungi kami