Kisah Pelanggan/Perangkat Lunak dan Internet/Amerika Serikat

2024
Logo Perplexity

Perplexity Mempercepat Pelatihan Model Fondasi Sebesar 40% dengan Amazon SageMaker HyperPod

Pelajari cara Perplexity, perusahaan rintisan AI generatif, melakukan pelatihan model dengan lebih cepat dan lebih efisien menggunakan Amazon SageMaker HyperPod.

Mengurangi hingga 40%

waktu pelatihan

Mendukung 100.000+ kueri

per jam

Mempertahankan

latensi rendah 

Mengoptimalkan

pengalaman pengguna

Gambaran Umum

Sebagai kekuatan transformatif, kecerdasan buatan (AI) generatif mencakup algoritma machine learning (ML) yang mampu menghasilkan konten baru, dari gambar hingga teks, dengan belajar dari data dengan jumlah yang sangat besar. Perplexity, sebuah perusahaan yang saat ini sedang membangun salah satu mesin jawaban percakapan pertama di dunia, menggunakan kekuatan AI generatif untuk membantu pengguna menemukan pengetahuan yang relevan.

Namun, Perplexity menghadapi tantangan untuk mengoptimalkan keakuratan dan ketepatan modelnya sehingga membutuhkan solusi kuat yang mampu menangani persyaratan komputasinya. Dengan visi untuk meningkatkan pengalaman pengguna, Perplexity telah beralih ke Amazon Web Services (AWS). Menggunakan infrastruktur ML, pustaka pelatihan, dan alat inferensi yang canggih dari AWS, Perplexity memperoleh fleksibilitas, performa, dan efisiensi yang diperlukan untuk melayani basis pengguna global dalam skala besar.

Peluang | Menggunakan Layanan AWS untuk Mengoptimalkan Pengalaman Pengguna

Tidak seperti mesin pencari tradisional yang sering meningkatkan iklan dan kata kunci tertentu daripada hasil yang relevan, solusi Perplexity dioptimalkan untuk menghubungkan pengguna dengan pengetahuan yang mereka cari. Sekitar 10 juta pengguna aktif bulanan mengandalkan Perplexity untuk mempelajari konsep baru, memecahkan tantangan, dan menemukan jawaban.

“Menggunakan model bahasa besar, kami dapat menggabungkan pemahaman bahasa manusia dan kemampuan penalaran menjadi satu model. Langkah ini, dikombinasikan dengan fakta di internet, telah membantu kami membangun mesin jawaban kami,” kata Aravind Srinivas, CEO dan salah satu pendiri Perplexity. “Pada dasarnya, kami menggabungkan indeks pencarian tradisional (mesin fakta) dan mesin penalaran (model bahasa besar) menjadi satu untuk membangun mesin jawaban percakapan pertama di dunia.”

Sejak diluncurkan pada tahun 2022, Perplexity telah menggunakan layanan AWS inti, seperti Amazon Elastic Compute Cloud (Amazon EC2) yang menyediakan kapasitas komputasi yang aman dan dapat diubah ukurannya untuk hampir semua beban kerja, guna mendukung komponen backend, front end, dan pencarian pada produknya. Seiring dengan makin matangnya Perplexity dan bertambahnya jumlah model ML-nya, perusahaan tersebut membutuhkan kekuatan komputasi yang sangat besar untuk melayani pengguna.

Perplexity berkonsultasi dengan pakar AWS dan mendapatkan informasi bahwa Amazon SageMaker HyperPod, infrastruktur yang dibangun khusus untuk pelatihan terdistribusi dalam skala besar, dapat memenuhi kebutuhannya terkait pelatihan model skala besar. Amazon SageMaker HyperPod telah dikonfigurasi sebelumnya dengan pustaka pelatihan terdistribusi Amazon SageMaker yang dioptimalkan untuk menjalankan data kustom paralel yang sangat mudah diskalakan dan hemat biaya serta memodelkan pekerjaan pelatihan deep learning paralel dengan kecepatan interkoneksi yang melebihi 1.600 Gbps. Amazon SageMaker HyperPod juga mencegah gangguan pada pelatihan model fondasi dengan menyimpan pos pemeriksaan secara berkala. Jika kegagalan perangkat keras terjadi selama pelatihan, layanan AWS akan secara otomatis mendeteksi kegagalan, memperbaiki atau mengganti instans yang rusak, dan melanjutkan pelatihan dari pos pemeriksaan terakhir yang disimpan. Langkah ini mendukung pelatihan model tanpa gangguan selama berminggu-minggu atau berbulan-bulan dalam lingkungan terdistribusi.

kr_quotemark

Di AWS, kekuatan ada di tangan pelanggan. Tidak ada ketentuan mengenai layanan yang perlu Anda gunakan.”

Aravind Srinivas
CEO dan Salah Satu Pendiri, Perplexity

Solusi | Mengurangi Waktu Pelatihan Model hingga 40% dengan Amazon SageMaker HyperPod

AWS menawarkan uji coba satu bulan kepada Perplexity untuk menunjukkan kemampuan pelatihan terdistribusi, dan selama uji coba tersebut Perplexity menemukan berbagai keunggulan penggunaan AWS. Misalnya, Perplexity memperoleh fleksibilitas yang lebih besar dalam hal alokasi sumber daya menggunakan berbagai jenis instans Amazon EC2 dan GPU yang disesuaikan untuk tugas tertentu.

Untuk melatih model ML, Perplexity membutuhkan memori dalam jumlah besar sehingga dapat menjalankan data dalam jumlah yang sangat besar dan menyimpan gradien yang berbeda. Perplexity memilih Instans P4de Amazon EC2, yang memberikan performa tertinggi untuk pelatihan ML dan aplikasi komputasi performa tinggi, untuk menjalankan tugas pelatihan agar dapat memenuhi persyaratan memori dan bandwidth. Menggunakan Amazon SageMaker HyperPod, Perplexity mentransfer data di antara GPU yang berbeda dengan jauh lebih cepat sehingga mengurangi waktu pelatihan model ML hingga 40 persen.

“Data bawaan dan pustaka paralel model dari Amazon SageMaker HyperPod membantu kami mengoptimalkan waktu pelatihan pada GPU serta menggandakan throughput pelatihan,” ungkap Srinivas. “Hasilnya, eksperimen pelatihan kami sekarang dapat berjalan dua kali lebih cepat, yang berarti developer kami dapat melakukan iterasi lebih cepat sehingga pengembangan pengalaman AI generatif baru untuk pelanggan kami juga makin cepat. Karena Amazon SageMaker HyperPod memantau kondisi klaster dan memperbaiki kegagalan GPU secara otomatis, developer kami dapat berfokus pada pembuatan model, alih-alih menghabiskan waktu untuk mengelola serta mengoptimalkan infrastruktur dasar.”

Perplexity bertujuan memberikan tanggapan cepat dan akurat terhadap kueri pengguna yang membutuhkan kemampuan inferensi mendekati waktu nyata. Menggunakan Instans P5 Amazon EC2 yang memberikan instans berbasis GPU dengan performa tertinggi untuk aplikasi deep learning, Perplexity dapat menghasilkan jawaban dengan throughput yang jauh lebih tinggi dibandingkan dengan sebelumnya. Bahkan, perusahaan dapat menangani periode lonjakan dengan 10.000 pengguna bersamaan dan lebih dari 100.000 kueri per jam tanpa mengorbankan latensi atau memengaruhi pengalaman pengguna. Perplexity juga melakukan hosting model Llama 2 yang tersedia untuk umum di Instans P5 Amazon EC2 dan menggunakan Amazon SageMaker HyperPod untuk menyempurnakan model sumber terbuka menggunakan datanya sendiri. Model penyempurnaan membantu meningkatkan akurasi dan relevansi respons sehingga dapat menyesuaikan model dengan kebutuhan mesin jawaban Perplexity.

Hasil | Meningkatkan AI Generatif Menggunakan Infrastruktur AWS dan Layanan AI/ML

Dengan keberhasilannya, Perplexity siap mengembangkan inovasi baru di bidang AI generatif. Sebagai bagian dari strategi yang berorientasi ke masa depan, Perplexity akan bereksperimen dengan AWS Trainium, akselerator pelatihan ML performa tinggi, untuk lebih meningkatkan throughput pelatihan. Perplexity juga meluncurkan API yang memungkinkan pengguna mengakses model bahasa besar yang dijalankan sepenuhnya di AWS dan telah dioptimalkan dengan Amazon SageMaker HyperPod.

Untuk memperluas basis pengetahuannya dan memberikan jawaban yang lebih akurat kepada penggunanya, Perplexity juga telah menggunakan Amazon Bedrock, layanan terkelola penuh yang menawarkan pilihan model fondasi performa tinggi dari berbagai perusahaan AI terkemuka dengan satu API. Misalnya, Perplexity telah mulai menggunakan Claude 2 melalui Amazon Bedrock guna mengintegrasikan berbagai kemampuan canggih untuk pengodean, matematika, dan penalaran ke dalam layanannya.

“Di AWS, kekuatan ada di tangan pelanggan,” kata Srinivas. “Tidak ada ketentuan mengenai layanan yang perlu Anda gunakan. Tim AWS selalu memberi tahu kami, ‘Lakukan yang terbaik untuk pelanggan Anda. Lakukan yang terbaik untuk bisnis Anda.’ Keselarasan pelanggan itulah yang sangat kami sukai dari AWS.”

Tentang Perplexity

Perplexity membangun mesin jawaban fungsional dan percakapan yang dioptimalkan untuk membantu pengguna menemukan pengetahuan, bukan sekadar meningkatkan iklan dan kata kunci.

Layanan AWS yang Digunakan

Amazon SageMaker HyperPod

AmazonSageMaker HyperPod menghilangkan pekerjaan berat yang tidak terdiferensiasi dalam membangun dan mengoptimalkan infrastruktur machine learning (ML) untuk melatih model fondasi (FM) sehinggga mengurangi waktu pelatihan hingga 40%.

Pelajari selengkapnya »

Instans P5 Amazon EC2

Instans P5 Amazon Elastic Compute Cloud (Amazon EC2) menggunakan GPU NVIDIA H100 Tensor Core terbaru, dan memberikan performa tertinggi di Amazon EC2 untuk aplikasi deep learning (DL) dan komputasi performa tinggi (HPC).

Pelajari selengkapnya »

Instans P4de Amazon EC2

Instans P4de didukung oleh 8 GPU NVIDIA A100 dengan memori GPU HBM2e performa tinggi 80 GB, 2X lebih tinggi daripada GPU di instans P4d kami saat ini.

Pelajari selengkapnya »

Amazon Bedrock

Amazon Bedrock adalah layanan terkelola penuh yang menawarkan pilihan model fondasi (FM) performa tinggi dari perusahaan AI terkemuka, seperti AI21 Labs, Anthropic, Cohere, Meta, Stability AI, dan Amazon melalui API tunggal, bersama dengan berbagai kemampuan yang Anda butuhkan untuk membangun aplikasi AI generatif yang dibekali dengan keamanan, privasi, dan AI yang bertanggung jawab.

Pelajari selengkapnya »

Kisah Pelanggan Perangkat Lunak dan Internet Lainnya

tidak ada item yang ditemukan 

1

Memulai Amazon SageMaker di Tingkat Free

Anda dapat memulai Amazon SageMaker secara gratis sebagai bagian dari AWS Tingkat Free. Uji coba gratis dua bulan Anda dimulai dari bulan pertama saat Anda membuat sumber daya SageMaker pertama Anda.