Veröffentlicht am: Nov 28, 2018
Die Amazon Elastic Inference ermöglicht Ihnen jeder beliebigen Amazon EC2- und Amazon SageMaker-Instanz genau die richtige GPU-Beschleunigung zuweisen, um die Kosten für das In Deep Learning Inference-Verfahren um bis zu 75 % zu reduzieren. Die Amazon Elastic Inference unterstützt TensorFlow-, Apache MXNet- und ONNX-Modelle, und weitere Frameworks werden in Kürze zur Verfügung stehen.
Mit Amazon Elastic Inference können Sie nun den Instance-Typ auswählen, der am besten zu den allgemeinen CPU- und Speicheranforderungen Ihrer Anwendung passt. Im Anschluss können Sie ohne Code-Änderung die Höhe der benötigten Inferenzbeschleunigung separat konfigurieren, die Sie brauchen. Dies ermöglicht Ihnen die Ressourcen effizient einzusetzen und die Kosten der laufenden Inferenz zu reduzieren. Weitere Informationen zu Amazon Elastic Inference finden Sie auf der Service-Detailseite.