Veröffentlicht am: Mar 23, 2021
AWS hat die Verfügbarkeit von Amazon-EC2-Inf1-Instances auf die Regionen EU (Mailand), EU (Stockholm) und AWS GovCloud (USA) erweitert. Inf1-Instances werden unterstützt von AWS-Inferentia-Chips, die AWS maßgeschneidert hat, um hohe Leistung und niedrigste Kosten für Machine-Learning-Inferenz in der Cloud bereitzustellen.
Diese Instances liefern bis zu 30 % höheren Durchsatz und bis zu 45 % niedrigere Kosten pro Inferenz als Amazon EC2-G4dn-Instances, die bereits die kostengünstigste Instance in der Cloud für Machine-Learning-Inferenz waren. Inf1-Instances sind ideal für Anwendungen, wie Bilderkennung, Verarbeitung natürlicher Sprache, Personalisierung und Anomalieerkennung. Entwickler können ihre eigenen Entwicklungsplattformen für Machine-Learning-Anwendungen verwalten, indem Sie entweder mit Inf1-Instances mit AWS-Deep-Learning-AMIs starten, die das Neuron SDK enthalten, oder Inf1-Instances über Amazon Elastic Kubernetes Service (EKS) oder Amazon Elastic Container Service (ECS) für containerisierte ML-Anwendungen verwenden. EKS-, ECS- und SageMaker-Support für Inf1-Instances in diesen neuen Regionen wird bald verfügbar sein.
Amazon-EC2-Inf1-Instances sind in 4 Größen verfügbar und bieten bis zu 16 Inferentia-Chips, 96 vCPUs, 192 GB Speicher, 100 Gbps Netzwerkbandbreite und 19 Gbps Elastic Block Store (EBS)-Bandbreite. Diese Instances können On-Demand, als Reserved Instances, als Spot-Instances oder als Teil von Savings Plans erworben werden und sind jetzt in 21 Regionen weltweit verfügbar, darunter USA Ost (Nord-Virginia, Ohio), USA West (Oregon, Nord-Kalifornien), AWS GovCloud (USA-Ost, USA-West), Kanada (Zentral), EU (Frankfurt, Irland, London, Mailand, Paris, Stockholm), Asien-Pazifik (Hongkong, Mumbai, Seoul, Singapur, Sydney, Tokio), Naher Osten (Bahrain) und Südamerika (São Paulo).
Um zu beginnen, lesen Sie das Handbuch „Erste Schritte“. Weitere Informationen finden Sie auf der Seite Amazon-EC2-Inf1-Instance.