Veröffentlicht am: Nov 29, 2023

Wir freuen uns, neue Tools und Verbesserungen ankündigen zu können, mit denen Kunden die Zeit für die Bereitstellung von Machine Learning (ML)-Modellen einschließlich Basismodellen (FMs) auf Amazon SageMaker for Inference in großem Maßstab von Tagen auf Stunden reduzieren können. Dazu gehört eine neue Python-SDK-Bibliothek, die den Prozess der Paketierung und Bereitstellung eines ML-Modells auf SageMaker von sieben Schritten auf einen vereinfacht – mit der Option zur lokalen Inferenz. Darüber hinaus bietet Amazon SageMaker neue interaktive Benutzeroberflächen in Amazon SageMaker Studio, mit denen Kunden ihr trainiertes ML-Modell oder ihre FMs mithilfe leistungsstarker und kostenoptimierter Konfigurationen mit nur drei Klicks schnell bereitstellen können.

Mit der neuen Python-SDK-Bibliothek von Amazon SageMaker können Kunden beliebige Framework-Modellartefakte oder öffentliche FMs verwenden und diese mit nur einem einzigen Funktionsaufruf einfach in ein bereitstellbares ML-Modell konvertieren. Darüber hinaus können Kunden ML-Modelle innerhalb weniger Minuten von ihren lokalen IDEs oder Notebooks aus lokal validieren, optimieren und in Amazon SageMaker bereitstellen. Mit den neuen interaktiven Erlebnissen in SageMaker Studio können Kunden auf einfache Weise ein einsetzbares ML-Modell erstellen, indem sie eine Framework-Version ihrer Wahl auswählen und vorab trainierte Modellartefakte hochladen. Darüber hinaus können sie eines oder mehrere ihrer einsetzbaren ML-Modelle oder FMs auswählen und sie mit nur wenigen Klicks bereitstellen. 

Weitere Informationen zu den AWS-Regionen, in denen Amazon SageMaker Inference verfügbar ist, finden Sie in der Tabelle von AWS-Regionen.

Weitere Informationen finden Sie in der Dokumentation zur ModelBuilder-Python-Schnittstelle von Amazon SageMaker und in den geführten Bereitstellungs-Workflows in Studio.