Veröffentlicht am: Jul 15, 2022

Amazon SageMaker erweitert den Zugriff auf neue ML-Instances, damit Kunden Modelle auf der besten Instance für ihre Workloads bereitstellen können. Jetzt können Kunden die Instances ml.g5, ml.p4d und ml.c6i für asynchrone und Echtzeit-Modellbereitstellungsoptionen verwenden.

Die Vision von AWS besteht darin, ML allen Entwicklern zugänglich zu machen und den Zugriff auf modernste Infrastruktur allgemein und zu geringen, verbrauchsbasierten Kosten anzubieten. Im Rahmen dieser Vision entwickeln wir im schnellen Tempo Innovationen, um ständig leistungsstärkere und günstigere Infrastruktur für ML-Workloads anbieten zu können.

  • ml.g5-Instances liefern bis zu 3-fach höhere Performance und bis zu 40 % bessere Performance-pro-Einheit-Kosten bei der Machine-Learning-Inferenz gegenüber G4dn-Instances. Sie sind eine leistungsfähige und kosteneffiziente Lösung für Kunden, die NVIDIA-Bibliotheken wie TensorRT, CUDA und cuDNN zur Ausführung ihrer ML-Anwendungen verwenden möchten. Diese Instances sind ideal für Anwendungsfälle wie Empfehlungen, Chatbots, intelligente Assistenten und Bilderkennung. ml.g5-Instances sind in den Regionen USA Ost (Nord-Virginia), USA-West (Oregon) und Europa (Irland) verfügbar.
  •  ml.p4d-Instances bieten durchschnittlich bis zu 2,5-fach höhere Performance bei Deep-Learning-Modellen gegenüber den P3-Instances der Vorgängergeneration. 40 GB an Speicher pro GPU und die Unterstützung von bis zu 8 TB an lokalem NVMe-SSD-Speicher ermöglichen die lokale Speicherung großer Modelle und Datensätze für leistungsstarke Machine-Learning-Inferenz, zum Beispiel bei großen Sprach- oder Computer-Vision-Modellen. ml.p4d-Instances sind in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar.
  • ml.c6i-Instances werden von Intel Xeon Scalable Prozessoren der 3. Generation angetrieben und liefern bei verschiedensten Workloads bis zu 15 % bessere Performance-pro-Einheit-Kosten gegenüber C5-Instances. C6i-Instances werden nun ebenfalls in neuen Größen angeboten, mit bis zu 128 vCPUs und 256 GB an Speicher. So können Kunden Workloads auf weniger Instances konsolidieren. C6i-Instances unterstützen den neuen Befehlssatz von Intel, Advanced Vector Extensions (AVX 512), Intel Turbo Boost sowie Intel Deep Learning Boost, die weitere Leistungsverbesserungen speziell für Machine-Learning-Workloads ermöglichen. ml.c6i-Instances sind in allen kommerziellen Regionen verfügbar.

Preisinformationen zu diesen Instances finden Sie auf unserer Preisseite.