Amazon SageMaker for MLOps
Mengirimkan model ML produksi beperfoma tinggi dengan cepat dan dalam skala besar
Membuat alur kerja pelatihan berulang untuk mempercepat pengembangan model
Membuat katalog artefak ML terpusat untuk reproduksi dan tata kelola model
Integrasikan alur kerja ML dengan pipeline CI/CD untuk produksi dengan waktu lebih cepat
Terus memantau data dan model yang sedang diproduksi untuk menjaga kualitas
Amazon SageMaker menyediakan alat yang dibuat khusus untuk operasi machine learning (MLOps) sehingga Anda dapat mengotomatiskan dan menstandarkan proses di seluruh siklus hidup ML. Anda dapat menggunakan alat MLOps SageMaker untuk melatih, menguji, menyelesaikan masalah, melakukan deployment, dan mengatur model ML dalam skala besar agar dapat meningkatkan produktivitas ilmuwan data dan teknisi ML sekaligus mempertahankan performa model yang sedang diproduksi.
Cara kerja: MLOps Amazon SageMaker

Mempercepat pengembangan model
Menyediakan lingkungan ilmu data terstandar

Dengan menstandarkan lingkungan pengembangan ML, produktivitas ilmuwan data dan kecepatan inovasi dapat ditingkatkan sehingga dapat dengan mudah meluncurkan proyek baru, merotasikan ilmuwan data di seluruh proyek, dan mengimplementasikan praktik terbaik ML. Proyek Amazon SageMaker menawarkan templat yang dapat dengan cepat menyediakan alat dan pustaka, repositori kontrol sumber, kode boilerplate, serta pipeline CI/CD yang teruji dan terbaru di lingkungan ilmuwan data terstandar.
Berkolaborasi dengan seluruh tim ilmu data dalam eksperimen
Model ML dibuat dengan proses iteratif yang melibatkan pelatihan ratusan model berbeda untuk mencari algoritme, arsitektur model, dan parameter terbaik sehingga tingkat akurasi prediksi yang diperlukan dapat tercapai. Anda dapat melacak input dan output di seluruh iterasi pelatihan ini untuk meningkatkan pengulangan uji coba dan kolaborasi di antara ilmuwan data menggunakan Amazon SageMaker Experiments, sebuah fitur manajemen eksperimen ML terkelola penuh.
SageMaker Experiments melacak parameter, metrik, set data, dan artefak lain yang berkaitan dengan tugas pelatihan model Anda. SageMaker Experiments menawarkan antarmuka tunggal yang dapat menampilkan tugas pelatihan Anda yang sedang berlangsung, membagikan eksperimen dengan rekan kerja, dan melakukan deployment secara langsung dari suatu eksperimen.
Mengotomatiskan alur kerja pelatihan ML
Mengotomatiskan alur kerja pelatihan membantu Anda membuat proses berulang untuk mengorkestrasi langkah-langkah pengembangan model untuk eksperimen cepat dan pelatihan ulang model. Anda dapat mengotomatiskan seluruh alur kerja pembuatan model, termasuk persiapan data, rekayasa fitur, pelatihan model, penyetelan model, dan validasi model menggunakan Amazon SageMaker Pipelines. Anda dapat mengonfigurasi SageMaker Pipelines untuk berjalan secara otomatis secara berkala atau saat peristiwa tertentu dipicu, atau menjalankannya secara manual sesuai kebutuhan.
Melakukan deployment dan mengelola model yang sedang diproduksi dengan mudah
Memperbanyak model dengan cepat untuk penyelesaian masalah
Biasanya, Anda perlu memperbanyak model yang sedang diproduksi untuk menyelesaikan masalah perilaku model dan menentukan akar masalahnya. Untuk membantu hal ini, Amazon SageMaker mencatat setiap langkah dari alur kerja Anda, membuat jejak audit dari artefak model, seperti data pelatihan, pengaturan konfigurasi, parameter model, dan gradien pembelajaran. Anda dapat membuat ulang model untuk men-debug potensi masalah menggunakan pelacakan lini.
Melacak dan mengelola versi model secara terpusat
Pembuatan aplikasi ML melibatkan pengembangan model, pipeline data, pipeline pelatihan, dan uji validasi. Anda dapat menggunakan Registri Model Amazon SageMaker untuk melacak versi model dan metadata model, seperti pengelompokan kasus penggunaan, serta dasar metrik performa model di repositori pusat yang dapat dengan mudah memilih model yang tepat untuk deployment sesuai kebutuhan bisnis. Selain itu, Registri Model SageMaker secara otomatis mencatat alur kerja persetujuan untuk kepentingan audit dan kepatuhan.
Menentukan infrastruktur ML melalui kode
Mengorkestrasi infrastruktur melalui file konfigurasi deklaratif, yang biasa disebut “infrastruktur sebagai kode”, adalah suatu pendekatan populer dalam penyediaan infrastruktur ML dan implementasi arsitektur solusi yang sama persis dengan yang ditentukan oleh pipeline CI/CD atau alat deployment. Anda dapat menggunakan Proyek Amazon SageMaker untuk menulis infrastruktur sebagai kode menggunakan file templat yang sudah dibuat sebelumnya.
Mengotomatiskan alur kerja integrasi dan deployment (CI/CD)
Alur kerja pengembangan ML harus berintegrasi dengan alur kerja integrasi dan deployment sehingga model baru untuk aplikasi produksi dapat dikirimkan dengan cepat. Proyek Amazon SageMaker menghadirkan praktik CI/CD ke ML, seperti menjaga keseimbangan antara lingkungan pengembangan dan produksi, kontrol sumber dan versi, pengujian A/B, dan otomatisasi menyeluruh. Akibatnya, Anda dapat menempatkan model di produksi segera setelah disetujui dan juga meningkatkan ketangkasan.
Selain itu, Amazon SageMaker menawarkan perlindungan bawaan untuk membantu menjaga ketersediaan titik akhir dan meminimalkan risiko deployment. SageMaker menangani penyiapan dan mengorkestrasi praktik terbaik deployment, seperti deployment Biru/Hijau untuk memaksimalkan ketersediaan dan mengintegrasikannya dengan mekanisme pembaruan titik akhir, misalnya mekanisme rollback otomatis untuk membantu Anda secara otomatis mengidentifikasi masalah lebih awal dan mengambil tindakan perbaikan sebelum masalah tersebut memengaruhi produksi secara signifikan.
Terus melatih ulang model untuk mempertahankan kualitas prediksi
Setelah model diproduksi, Anda perlu memantau performanya dengan mengonfigurasi peringatan sehingga ilmuwan data yang siap dipanggil dapat menyelesaikan masalah dan merancang pelatihan ulang. Amazon SageMaker Model Monitor membantu Anda mempertahankan kualitas model dengan mendeteksi penyimpangan model dan konsep secara langsung, serta mengirim peringatan kepada Anda agar dapat segera mengambil tindakan. SageMaker Model Monitor terus memantau karakteristik performa model, seperti akurasi dalam menghitung jumlah prediksi yang benar dibandingkan dengan jumlah total prediksi sehingga Anda dapat mengatasi anomali. SageMaker Model Monitor terintegrasi dengan SageMaker Clarify untuk meningkatkan visibilitas ke dalam potensi bias.
Mengoptimalkan deployment model untuk performa dan biaya yang lebih baik
Amazon SageMaker mempermudah deployment model ML untuk menghasilkan inferensi beperforma tinggi dan berbiaya rendah bagi setiap kasus penggunaan. Amazon SageMaker menyediakan banyak pilihan infrstruktur ML dan opsi deployment model untuk memenuhi kebutuhan inferensi ML Anda.
Keberhasilan pelanggan

NatWest Group, sebuah lembaga jasa keuangan besar, menstandarkan pengembangan model ML dan proses deployment-nya di seluruh organisasi sehingga mengurangi siklus penyelesaian dalam pembuatan lingkungan ML yang baru dari 40 hari menjadi 2 hari, serta mempercepat waktu untuk menilai kasus penggunaan ML dari 40 minggu menjadi 16 minggu.

“Daripada harus membuat banyak proses manual, kami dapat mengotomatiskan sebagian besar proses pengembangan machine learning hanya dengan Amazon SageMaker Studio.”
Cherry Cabading, Arsitek Korporasi Senior Global (Global Senior Enterprise Architect) – AstraZeneca

Janssen menggunakan layanan AWS, termasuk Amazon SageMaker, dengan mengimplementasikan proses MLOps otomatis yang dapat meningkatkan akurasi prediksi model hingga 21 persen dan meningkatkan kecepatan rekayasa fitur hingga sekitar 700 persen, yang membantunya untuk mengurangi biaya sekaligus meningkatkan efisiensi.

“Amazon SageMaker meningkatkan efisiensi tim MLOps kami dengan menyediakan alat yang diperlukan untuk menguji dan melakukan deployment model machine learning dalam skala besar.”
Samir Joshi, Rekayasawan ML (ML Engineer) – Qualtrics
Sumber daya

Tonton demo ini untuk mempelajari cara mengotomatiskan MLOps dengan Proyek SageMaker.

Ikuti tutorial langkah demi langkah ini untuk mengotomatiskan alur kerja ML.