Amazon SageMaker AI kündigt serverlose MLFlow-Funktion für schnellere KI-Entwicklung an
Amazon SageMaker AI bietet jetzt eine serverlose MLFlow-Funktion, die dynamisch skaliert wird, um KI-Modellentwicklungsaufgaben zu unterstützen. Mit MLflow können KI-Entwickler damit beginnen, Experimente zu verfolgen, zu vergleichen und auszuwerten, ohne auf die Einrichtung der Infrastruktur warten zu müssen.
Da Kunden aus allen Branchen die KI-Entwicklung beschleunigen, benötigen sie Funktionen, um Experimente zu verfolgen, Verhalten zu beobachten und die Leistung von KI-Modellen, Anwendungen und Agenten zu bewerten. Die Verwaltung der MLflow-Infrastruktur erfordert jedoch, dass Administratoren die Tracking-Server kontinuierlich warten und skalieren, komplexe Entscheidungen zur Kapazitätsplanung treffen und separate Instanzen für die Datenisolierung bereitstellen. Diese Infrastrukturbelastung lenkt Ressourcen von der Kernentwicklung der KI ab und führt zu Engpässen, die sich auf die Produktivität und Wirtschaftlichkeit des Teams auswirken.
Mit diesem Update skaliert MLflow jetzt dynamisch, um eine schnelle Leistung für anspruchsvolle und unvorhersehbare Modellentwicklungsaufgaben zu erzielen, und skaliert dann während inaktiver Zeiten herunter. Administratoren können auch die Produktivität steigern, indem sie den kontoübergreifenden Zugriff über Resource Access Manager (RAM) einrichten, um die Zusammenarbeit über Unternehmensgrenzen hinweg zu vereinfachen.
Die serverlose MLFlow-Funktion von Amazon SageMaker AI wird ohne zusätzliche Kosten angeboten und funktioniert nativ mit vertrauten Amazon SageMaker-KI-Modellentwicklungsfunktionen wie SageMaker AI JumpStart, SageMaker Model Registry und SageMaker Pipelines. Kunden können auf Amazon SageMaker AI mit automatischen Versionsupdates auf die neueste Version von MLflow zugreifen.
Amazon SageMaker AI mit MLFlow ist jetzt in ausgewählten AWS-Regionen verfügbar. Weitere Informationen finden Sie im Amazon SageMaker AI-Benutzerhandbuch und im AWS-News-Blog.