Veröffentlicht am: Sep 17, 2019
Amazon ECS unterstützt das Anfügen von Amazon Elastic Inference-Accelerators an Ihre Container, um die Ausführung von Deep Learning Inference-Workloads kostengünstiger zu gestalten. Die Amazon Elastic Inference ermöglicht Ihnen, jeder beliebigen Amazon EC2- oder Amazon SageMaker-Instanz oder ECS-Aufgabe genau die richtige GPU-Beschleunigung zuweisen, um die Kosten für das In Deep Learning Inference-Verfahren um bis zu 75 % zu reduzieren.
Mit der Unterstützung für Amazon Elastic Inference in ECS können Sie die Aufgaben-CPU und Speicherkonfiguration auswählen, der am besten zu den Anforderungen Ihrer Anwendung passt. Im Anschluss können Sie ohne Code-Änderung die Höhe der benötigten Inferenzbeschleunigung separat konfigurieren, die Sie brauchen. Dies ermöglicht Ihnen, die Ressourcen effizient einzusetzen und die Kosten der laufenden Inferenz zu reduzieren. Diese Funktion wird bei der Verwendung von Linux-Containern und bei Aufgaben unterstützt, die den EC2-Start-Typ verwenden. Amazon Elastic Inference unterstützt TensorFlow-, Apache MXNet- und ONNX-Modelle, und weitere Frameworks werden in Kürze zur Verfügung stehen.
Die Unterstützung für Amazon Elastic Inference in ECS ist in allen Regionen verfügbar, in den ECS und Elastic Inference verfügbar sind. Informationen zu den ersten Schritten finden Sie in unserer Dokumentation.