Kisah Pelanggan / Perangkat Lunak & Internet

2022
Print

Finch Computing Mengurangi Biaya Inferensi Sebesar 80% Menggunakan AWS Inferentia untuk Penerjemahan Bahasa

Penurunan 80%

dalam biaya komputasi

Penambahan 3 bahasa

yang didukung berkat penghematan biaya

Waktu masuk pasar yang lebih cepat

untuk produk baru

Mengoptimalkan

throughput dan waktu respons untuk pelanggan

Pelanggan tambahan

tertarik menggunakan layanan ini

Gambaran Umum

Finch Computing mengembangkan teknologi pemrosesan bahasa alami (NLP) agar pelanggan dapat mengungkap wawasan dari volume besar data teks, dan berusaha memenuhi permintaan pelanggan akan dukungan bahasa tambahan. Finch telah membuat model terjemahan neural versinya sendiri menggunakan algoritma deep learning dengan persyaratan komputasi berat yang mengandalkan GPU. Perusahaan sedang mencari solusi yang mudah diskalakan yang mampu melakukan penskalaan untuk mendukung umpan data global dan memberinya kemampuan untuk mengiterasi model bahasa baru dengan cepat tanpa mengeluarkan biaya yang mahal.

Sejak awal, Finch telah menggunakan solusi dari Amazon Web Services (AWS). Perusahaan mulai mempertimbangkan AWS Inferentia, akselerator inferensi machine learning dengan performa tinggi, yang dibuat khusus oleh AWS, untuk mempercepat beban kerja deep learning. Dengan membuat infrastruktur komputasi yang berpusat pada penggunaan AWS Inferentia, Finch mampu mengurangi biayanya hingga lebih dari 80 persen dibandingkan saat menggunakan GPU sembari mempertahankan throughput dan waktu respons untuk pelanggannya. Dengan infrastruktur komputasi yang kuat, Finch telah mempercepat waktu masuk pasar, memperluas NLP untuk mendukung tiga bahasa tambahan, dan menarik pelanggan baru.

dasbor produk

Peluang | Mencari Skalabilitas dan Optimalisasi Biaya untuk Model ML

Finch—kombinasi kata “find (temukan)” dan “search (cari)”—melayani perusahaan media dan agregator data, organisasi intelijen dan pemerintah AS, serta perusahaan layanan keuangan melalui beberapa kantornya yang berlokasi di Reston, Virginia, dan Dayton, Ohio. Produknya berpusat di seputar NLP, yang merupakan subset dari kecerdasan buatan yang melatih model untuk memahami nuansa bahasa manusia, seperti mengartikan nada dan maksud. Produknya, Finch for Text, menggunakan komputasi paralel machine learning (ML) padat yang mengandalkan komputasi performa tinggi dan dipercepat sehingga dapat memberikan wawasan aset informasi mereka yang hampir mendekati waktu nyata kepada pelanggan. Misalnya, fitur disambiguasi entitasnya memungkinkan pelanggan untuk menginterpretasikan arti yang benar dari sebuah kata yang memiliki banyak arti atau ejaan.

Finch memperluas kemampuannya untuk mendukung bahasa Belanda, yang memicu gagasan bahwa Finch perlu menskalakan lebih jauh agar dapat juga menyertakan bahasa Prancis, Jerman, Spanyol, dan bahasa lainnya. Keputusan ini sangatlah penting bukan hanya karena klien Finch memiliki banyak konten dalam bahasa tersebut, tetapi juga karena model yang dapat mendukung bahasa tambahan mampu menarik pelanggan baru. Finch harus mencari cara untuk memproses data tambahan dalam jumlah besar tanpa memengaruhi throughput atau waktu respons, faktor penting bagi kliennya, atau meningkatkan biaya deployment.

Di AWS Re:Invent 2021, konferensi tahunan yang diselenggarakan oleh AWS untuk komunitas komputasi cloud global, perwakilan Finch mempelajari instans berbasis AWS Inferentia di Amazon Elastic Compute Cloud (Amazon EC2), yang menawarkan kapasitas komputasi yang aman dan dapat diubah ukurannya untuk hampir semua beban kerja. AWS memperkenalkan Finch kepada Partner AWS, yaitu Slalom, sebuah perusahaan konsultan yang berfokus pada strategi, teknologi, dan transformasi bisnis. Selama 2 bulan setelah konferensi tahunan AWS re:Invent, anggota tim Slalom dan Finch bekerja untuk membangun solusi hemat biaya. “Selain mendapatkan panduan dari tim AWS, kami terhubung dengan Slalom yang membantu kami mengoptimalkan beban kerja kami dan mempercepat proyek ini,” kata Scott Lightner, pendiri sekaligus kepala staf teknologi Finch.

kr_quotemark

Mengingat mahalnya biaya GPU, kami tidak dapat menawarkan bahasa tambahan kepada pelanggan kami sekaligus menjaga produk kami tetap menghasilkan laba. Instans Inf1 Amazon EC2 membantu kami meraih kedua hal tersebut secara bersamaan.”

Scott Lightner
CTO dan Pendiri, Finch Computing

Solusi | Membangun Solusi Menggunakan AWS Inferentia

Finch dan Slalom bersama-sama membangun solusi yang mengoptimalkan penggunaan Instans Inf1 Amazon EC2 berbasis AWS Inferentia yang memberikan inferensi ML performa tinggi dengan biaya rendah di cloud. “Mengingat mahalnya biaya GPU, kami tidak dapat menawarkan bahasa tambahan kepada pelanggan kami sekaligus menjaga produk kami tetap menghasilkan laba,” kata Lightner. “Instans Inf1 Amazon EC2 membantu kami meraih kedua hal tersebut secara bersamaan.”

Model terjemahan deep learning milik perusahaan berjalan di PyTorch di AWS, sebuah kerangka kerja deep learning open-source yang mempermudah pengembangan model ML dan deployment model ML ke produksi. Finch menggunakan Docker untuk melakukan kontainerisasi dan deployment model PyTorch-nya. Finch memigrasikan model berat komputasi ini dari instans berbasis GPU ke Instans Inf1 Amazon EC2 yang didukung oleh AWS Inferentia. Instans Inf1 Amazon EC2 dibangun untuk mempercepat serangkaian model yang beragam, mulai dari visi komputer hingga NLP. Tim dapat membangun solusi yang menggabungkan ukuran model dan mempertahankan throughput yang sama seperti saat menggunakan GPU, tetapi dengan biaya yang jauh lebih rendah. “Dengan menggunakan AWS Inferentia, kami dapat memperoleh throughput dan performa yang dibutuhkan di titik harga yang dapat dijangkau oleh daya beli pelanggan kami,” kata Lightner.

Strategi ini melibatkan deployment kontainer Docker ke Amazon Elastic Container Service (Amazon ECS), sebuah layanan orkestrasi kontainer terkelola penuh yang memudahkan organisasi untuk melakukan deployment, mengelola, dan menskalakan aplikasi dalam kontainer. Solusi ini menggabungkan AWS Deep Learning AMI (DLAMI), lingkungan yang telah dikonfigurasi sebelumnya untuk membangun aplikasi deep learning dengan cepat. Finch menyambungkan AMI AWS Inferentia ke pipeline DevOps dan memperbarui templat infrastruktur sebagai kode agar dapat menggunakan AWS Inferentia untuk menjalankan kontainer khusus menggunakan Amazon ECS. “Setelah pipeline DevOps kami berjalan di Instans Inf1 Amazon EC2 dan Amazon ECS, kami dapat dengan cepat melakukan deployment lebih banyak model deep learning,” kata Franz Weckesser, kepala bagian arsitek di Finch. Bahkan, Finch membangun model untuk mendukung bahasa Ukraina hanya dalam 2 hari. Dalam beberapa bulan, Finch telah melakukan deployment tiga model ML—mendukung NLP dalam bahasa Jerman, Prancis, dan Spanyol—dan meningkatkan performa model bahasa Belanda yang sudah ada.

Dengan menggunakan Instans Inf1 Amazon EC2, perusahaan meningkatkan kecepatan pengembangan produk baru ini sekaligus mengurangi biaya inferensi lebih dari 80 persen. Penambahan model baru menarik minat pelanggan yang tertarik untuk mendapatkan wawasan dari bahasa tambahan serta menerima umpan balik positif dari pelanggan lama. “Selalu ada tantangan dalam membuat perubahan menyeluruh pada infrastruktur,” kata Lightner. “Namun, kami dapat dengan cepat mengatasinya berkat ketekunan tim kami dan juga bantuan dari Slalom dan AWS. Hasil akhirnya sangatlah memuaskan.”

Hasil | Memigrasikan Aplikasi Tambahan ke AWS Inferentia

Finch ingin terus memigrasikan lebih banyak model ke AWS Inferentia. Model ini termasuk Sentiment Assignment yang mengidentifikasi sebuah konten sebagai positif, negatif, atau netral, serta fitur baru yang disebut Relationship Extraction, sebuah aplikasi intensif komputasi yang menemukan hubungan antara entitas yang disebutkan dalam teks. Finch juga terus menambahkan bahasa baru, dan rencana berikutnya adalah menambahkan bahasa Arab, Mandarin, dan Rusia. “Pengalaman kami bekerja di AWS Inferentia sangatlah bagus,” kata Lightner. “Sungguh luar biasa memiliki penyedia cloud yang bekerja bersama kami dan membantu kami menskalakan seiring pertumbuhan bisnis kami.”

Tentang Finch Computing

Finch Computing adalah perusahaan pemrosesan bahasa alami yang menggunakan machine learning untuk membantu pelanggan mendapatkan wawasan yang hampir mendekati waktu nyata dari teks. Klien Finch meliputi perusahaan media dan agregator data, pemerintah dan intelijen AS, serta layanan keuangan.

Layanan AWS yang Digunakan

Amazon Inferentia

AWS Inferentia merupakan silikon khusus pertama Amazon yang dirancang untuk mempercepat beban kerja deep learning dan merupakan bagian dari strategi jangka panjang untuk mewujudkan visi ini.

Pelajari selengkapnya »

Amazon Elastic Container Service (Amazon ECS)

Amazon ECS adalah layanan orkestrasi kontainer terkelola penuh yang membantu Anda men-deploy, mengelola, dan menskalakan aplikasi dalam kontainer dengan mudah.

Pelajari selengkapnya »

Amazon Elastic Compute Cloud (Amazon EC2)

Amazon EC2 menawarkan platform komputasi terluas dan terdalam dengan lebih dari 500 instans dan pilihan prosesor, penyimpanan, jaringan, sistem operasi, dan model pembelian terbaru untuk membantu Anda menyesuaikan kebutuhan beban kerja Anda secara maksimal.

Pelajari selengkapnya »

AWS Deep Learning AMI (DLAMI)

AMI Deep Learning AWS menyediakan praktisi dan peneliti machine learning dengan infrastruktur dan peralatan guna mempercepat proses deep learning dalam cloud, pada segala skala.

Pelajari selengkapnya »

Mulai

Organisasi dalam berbagai ukuran di semua industri mentransformasi bisnis mereka dan mewujudkan misi mereka setiap hari menggunakan AWS. Hubungi ahli kami dan mulai perjalanan AWS Anda sendiri sekarang juga.