Veröffentlicht am: Sep 26, 2019
Ab sofort steht Amazon SageMaker Neo in 12 weiteren Regionen zur Verfügung: Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Seoul), Asien-Pazifik (Mumbai), Asien-Pazifik (Hongkong), Kanada (Zentral), EU (Frankfurt), EU (London), EU (Paris), EU (Stockholm), Südamerika (São Paulo), USA West (Nordkalifornien). Amazon SageMaker Neo ermöglicht Entwicklern, Machine-Learning-Modelle einmal zu trainieren und sie dann überall in der Cloud und an der Edge auszuführen. Amazon SageMaker Neo steigert die Leistung der Modelle auf das Doppelte mit weniger als einem Zehntel Speicherbedarf und keinerlei Genauigkeitsverlust.
Entwickler wenden viel Zeit und Energie für die Entwicklung genauer Machine-Learning-Modelle auf, die Prognosen schnell und mit niedriger Latenz in Echtzeit erstellen können. Das ist besonders für Edgegeräte bedeutend, bei denen Speicher und Rechenleistung sehr beschränkt sind, die Latenz aber sehr wichtig ist. Amazon SageMaker Neo optimiert Machine-Learning-Modelle automatisch. Sie beginnen mit einem Machine-Learning-Modell, das mithilfe von MXNet, TensorFlow, PyTorch oder XGBoost erstellt und mithilfe von Amazon SageMaker trainiert wurde. Dann wählen Sie Ihre Zielhardwareplattform von Intel, Nvidia oder ARM. Mit nur einem Klick kompiliert SageMaker Neo das trainierte Modell dann zu einer ausführbaren Datei. Der Compiler verwendet Machine-Learning, um alle spezifischen Leistungsoptimierungen festzustellen und anzuwenden, durch die Ihr Modell am effizientesten auf der Zielhardwareplattform ausgeführt wird. Das Modell kann dann dazu eingesetzt werden, Prognosen in der Cloud oder an der Edge durchzuführen.
Um alle verfügbaren Amazon SageMaker-Regionen anzuzeigen, besuchen Sie die Seite mit den AWS-Regionen. Sehen Sie sich die Konsole und die Dokumentation an, um sich mit Amazon SageMaker vertraut zu machen.