Veröffentlicht am: Dec 3, 2019

Heute kündigen wir die allgemeine Verfügbarkeit von Amazon EC2 Inf1-Instances an, die von Grund auf neu entwickelt wurden, um Inferenzanwendungen für Machine Learning zu unterstützen. Inf1-Instanzen verfügen über bis zu 16 AWS Inferentia-Chips, leistungsstarke Machine Learning Inferenz-Chips, die von AWS entwickelt und gebaut wurden. Darüber hinaus haben wir die Inferentia-Chips mit den neuesten kundenspezifischen 2nd Gen Intel® Xeon® Scalable-Prozessoren der zweiten Generation und bis zu 100 Gbit/s Networking verbunden, um eine Inferenz mit hohem Durchsatz zu ermöglichen. Diese leistungsstarke Konfiguration ermöglicht es Inf1-Instances, bis zu 3x höheren Durchsatz und bis zu 40 % niedrigere Kosten pro Inferenz zu liefern als Amazon EC2 G4-Instances, die bereits die kostengünstigste Instance für Machine Learning-Inferenzen in der Cloud waren.

Amazon EC2 Inf1-Instances bieten hohe Leistung und die niedrigsten Kosten für Machine Learning in der Cloud. Mit Inf1-Instances können Kunden groß angelegte Machine Learning-Inferenzanwendungen wie Bilderkennung, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung zu den niedrigsten Kosten in der Cloud ausführen.  

AWS macht es Ihnen leicht, Machine Learning auf Amazon EC2 Inf1 Instances einzusetzen. Sobald Ihr Modell trainiert ist, können Sie AWS Neuron verwenden, ein SDK zum Ausführen von Inferenz mit AWS Inferentia-Chips, die aus Compiler, Laufzeit- und Profilwerkzeugen bestehen. Neuron ist in gängige Machine Learning-Rahmenbedingungen wie TensorFlow, Pytorch und MXNet bereits integriert, um eine optimale Leistung der EC2 Inf1-Instances zu gewährleisten. Inf1-Instances können mit AWS Deep Learning AMIs bereitgestellt werden und sind über Managed Services wie Amazon SageMaker, EKS und ECS verfügbar.

Amazon EC2 Inf1 Instances gibt es in 4 Größen und sind in den AWS-Regionen USA Osten (Nord-Virginia) und USA West (Oregon) als On-Demand, Reserved und Spot-Instances oder als Teil eines Savings Plans erhältlich. Weitere Informationen zu Inf1-Instances finden Sie auf der Inf1 Seite.