Amazon SageMaker AI mengumumkan kemampuan MLFlow nirserver untuk pengembangan AI yang lebih cepat
Amazon SageMaker AI sekarang menawarkan kemampuan MLFlow nirserver yang dinilai secara dinamis untuk mendukung tugas pengembangan model AI. Dengan MLFlow, pengembang AI dapat mulai melacak, membandingkan, dan mengevaluasi eksperimen tanpa menunggu pengaturan infrastruktur.
Saat pelanggan di seluruh industri mempercepat pengembangan AI, mereka memerlukan kemampuan untuk melacak eksperimen, mengamati perilaku, dan mengevaluasi performa model, aplikasi, dan agen AI. Namun, mengelola infrastruktur MLFlow mengharuskan administrator untuk terus memelihara dan menskalakan server pelacakan, membuat keputusan perencanaan kapasitas yang kompleks, dan men-deploy instans terpisah untuk isolasi data. Beban infrastruktur ini mengalihkan sumber daya dari pengembangan AI inti dan menciptakan hambatan yang berdampak pada produktivitas tim dan efektivitas biaya.
Dengan pembaruan ini, MLFlow sekarang menskalakan secara dinamis untuk memberikan performa yang cepat untuk tugas pengembangan model yang menuntut dan tidak dapat diprediksi, kemudian mengurangi skala selama waktu idle. Administrator juga dapat meningkatkan produktivitas dengan mengatur akses lintas akun melalui Resource Access Manager (RAM) untuk menyederhanakan kolaborasi lintas batas organisasi.
Kemampuan MLFlow nirserver di Amazon SageMaker AI ditawarkan tanpa biaya tambahan dan bekerja secara native dengan kemampuan pengembangan model AI Amazon SageMaker yang sudah dikenal seperti SageMaker AI JumpStart, Registri Model SageMaker, dan Pipeline SageMaker. Pelanggan dapat mengakses versi terbaru MLFlow di Amazon SageMaker AI dengan pembaruan versi otomatis.
Amazon SageMaker AI dengan MLFlow sekarang tersedia di AWS Region tertentu. Untuk mempelajari selengkapnya, lihat panduan pengguna Amazon SageMaker AI dan Blog Berita AWS.