KISAH PELANGGAN

Cara Hugging Face membantu perusahaan mengadopsi model terbuka

oleh Tim Editorial AWS | 21 Februari 2025 | Kepemimpinan Pemikiran

Ikhtisar

Model fondasi (FM) sumber terbuka telah berkembang dengan kecepatan sangat tinggi selama satu setengah tahun terakhir, dengan cepat mengejar ketertinggalan dari model tertutup mereka. Rekayasawan kini memiliki lebih dari satu juta model yang tersedia secara bebas di tangan mereka, yang banyak di antaranya mempunyai performa setara dengan model tertutup terbaik yang tersedia. Yang awalnya hanya domain individu, penggunaan model terbuka meluas ke korporasi—termasuk perusahaan seperti Fortune 500.

Pustaka model publik ini dihargai oleh komunitas, dengan menawarkan kemampuan untuk mengontrol biaya, menggunakan set data transparan, dan mengakses model spesialis. Namun, sementara siapa pun dapat dengan bebas menggunakan model sumber terbuka, tantangan menuju ke produksi telah menghambat potensi. Untuk rekayasawan machine learning (ML) berpengalaman, prosesnya membutuhkan setidaknya satu minggu kerja keras yang melibatkan banyak keputusan kompleks seputar unit pemrosesan grafis (GPU), backend, dan deployment.

Dalam misi untuk menyediakan AI untuk semua orang, platform sumber terbuka terkemuka, Hugging Face, menyingkirkan hambatan ini. Seperti yang dikatakan Jeff Boudier, Head of Product di Hugging Face, "Tujuan kami adalah mendukung setiap perusahaan di dunia untuk membangun AI mereka sendiri". Dengan meluncurkan Layanan AI Generatif Hugging Face (juga dikenal sebagai HUGS) baru-baru ini, perusahaan ini menangani tugas yang memakan waktu dan rumit dalam men-deploy model terbuka produksi penuh.

Ilustrasi Hugging Face

Model terbuka yang dapat dipakai langsung

Visi besar Hugging Face ketika pertama kali dimulai adalah "memungkinkan siapa pun untuk melakukan percakapan yang menyenangkan dengan model machine learning," seperti kata Boudier. Meskipun ini mungkin merupakan ambisi besar pada tahun 2016, bisnis mewujudkan visi tersebut saat ini dengan membuka akses deployment teknologi mutakhir untuk individu dan perusahaan.

Sebelumnya, bisnis telah membangun bukti konsep (POC) dengan menggunakan model tertutup bukan karena itu adalah pilihan utama mereka—tetapi karena itu adalah rute tercepat dan termudah. Mengembangkan aplikasi AI dengan menggunakan model terbuka biasanya melibatkan banyak percobaan dan kesalahan karena para rekayasawan mencari tahu segalanya mulai dari konfigurasi hingga kompilasi. Untuk mengatasi persyaratan performa dan kepatuhan, mereka harus menyesuaikan pustaka, versi, serta parameter.

Dengan HUGS, organisasi dapat melewati kesulitan dalam mengembangkan aplikasi AI dengan model terbuka. Solusi yang siap digunakan adalah terobosan bagi mereka yang ingin memanfaatkan keunggulan AI generatif. Tidak diperlukan konfigurasi, artinya mereka dapat dengan mudah mengambil model terbuka dan menjalankannya. Hal-hal yang dulunya memakan waktu berminggu-minggu sekarang hanya membutuhkan waktu beberapa menit karena model secara otomatis dioptimalkan untuk GPU atau akselerator AI.

Performa tinggi tanpa pemangkasan anggaran

Sepanjang perjalanan Hugging Face menuju demokratisasi AI, kolaborasi dengan AWS telah membantu mereka berkembang dari perusahaan rintisan tahap awal menjadi yang terdepan dengan model AI yang digunakan oleh jutaan pengguna setiap bulan. Karena model ini terus membuat kemajuan dan bisnis makin mengejar keuntungan, HUGS menawarkan akses ke kumpulan model bahasa besar (LLM) terbaru dan dengan performa tertinggi yang dipilih serta diukur secara manual.

Kolaborasi terbaru Hugging Face dengan Amazon Web Services (AWS) berarti bahwa bisnis tidak perlu lagi memilih mana yang perlu dikorbankan antara biaya, performa, dan kecepatan deployment. Karena kini solusi tersebut tersedia di chip AI AWS Inferentia2, developer dapat lebih mengoptimalkan performa model untuk latensi yang lebih rendah dan throughput yang lebih tinggi, sambil menghemat biaya inferensi hingga 40 persen. Hal tersebut bukanlah satu-satunya cara agar aplikasi AI generatif lebih mudah diakses oleh perusahaan dari semua ukuran. Dengan bekerja sama di pustaka Optimum Neuron sumber terbuka, bisnis mendapatkan keuntungan dari HUGS sambil menjaga biaya overhead tetap minimal.

Mendukung dampak komersial

Mulai dari membangun asisten virtual hingga membuat konten yang menarik dalam hitungan detik—model Hugging Face mencakup banyak kasus penggunaan. Walaupun model-model ini mempunyai performa baik berdasarkan tolok ukur akademis, Boudier mengatakan bahwa kustomisasi dapat memberikan nilai yang lebih besar, "Hal yang penting untuk kasus penggunaan Anda berbeda. Dengan pembelajaran penyempurnaan dan penguatan, Anda dapat meningkatkan model terbuka dan membuatnya jauh lebih baik daripada model tertutup."

Dengan menggunakan AWS Inferentia2 di Amazon SageMaker, model Hugging Face dapat dikustomisasi guna meningkatkan kualitas model untuk tugas tertentu dan mendukung beban kerja produksi dalam skala besar. Solusi tersebut juga memudahkan developer untuk membuat dampak langsung saat meningkatkan model dengan menggunakan berbagai teknik, termasuk rekayasa prompt, retrieval augmented generation (RAG), dan banyak lagi.

Korporasi besar seperti Thomson Reuters sudah menskalakan model terbuka secara aman dan efektif di AWS. Kini dengan HUGS dan AWS Inferentia2, korporasi tersebut memiliki perangkat keras yang dioptimalkan untuk membangun aplikasi AI generatif dengan yakin dan cepat—pada gilirannya meraih nilai lebih cepat. Tersedia di AWS Marketplace dan dengan integrasi infrastruktur AWS yang lancar, developer dapat dengan mudah menemukan, berlangganan, serta men-deploy model terbuka sesuai ketentuan mereka.

Ketika Hugging Face membuat langkah maju untuk membuat model terbuka yang layak untuk semua orang, mereka memperluas LLM yang tersedia melalui HUGS agar aplikasi pelanggan tetap terdepan. Dengan menawarkan lebih banyak opsi sumber terbuka dan menyederhanakan penggunaan, perusahaan kini memiliki kebebasan untuk memilih antara model terbuka serta tertutup.