Veröffentlicht am: Nov 19, 2020
AWS hat die Verfügbarkeit von Amazon EC2 Inf1-Instances in USA West (Nordkalifornien), Kanada (Zentral), Europa (London), Asien-Pazifik (Hongkong, Seoul) und Naher Osten (Bahrain) erweitert. Inf1-Instances werden unterstützt von AWS Inferentia-Chips, die AWS maßgeschneidert hat, um hohe Leistung und niedrigste Kosten für Machine Learning Inference in der Cloud bereitzustellen.
Diese Instances liefern bis zu 30 % höheren Durchsatz und bis zu 45 % niedrigere Kosten pro Inferenz als Amazon EC2-G4-Instances, die bereits die kostengünstigste Instance in der Cloud für Machine Learning-Inferenz waren. Inf1-Instances sind ideal für Anwendungen, wie Bilderkennung, natürliche Sprachverarbeitung, Personalisierung und Anomalieerkennung.
Entwickler können ihre eigenen Entwicklungsplattformen für Machine Learning-Anwendungen verwalten, indem Sie entweder mit Inf1-Instances mit AWS Deep Learning-AMIs starten, die das Neuron SDK enthalten, oder Inf1-Instances über Amazon Elastic Kubernetes Service (EKS) oder Amazon Elastic Container Service (ECS) für containerisierte ML-Anwendungen verwenden. SageMaker Support für Inf1-Instances in diesen neuen Regionen wird bald verfügbar sein.
Amazon EC2 Inf1-Instances sind in 4 Größen verfügbar und bieten bis zu 16 Inferentia-Chips, 96 vCPUs, 192 GB Speicher, 100 Gbps Netzwerkbandbreite und 19 Gbps Elastic Block Store (EBS)-Bandbreite. Dieses Instances sind On-Demand als Reserved Instances, als Spot-Instances oder als Teil der Savings Plans käuflich erwerbbar. Sie sind in 17 Regionen weltweit verfügbar, einschließlich USA Ost (Nord-Virginia, Ohio), USA West (Oregon, Nordkalifornien), Kanada (Zentral), Europa (Frankfurt, Irland, London, Paris), Asien-Pazifik (Hongkong, Mumbai, Seoul, Singapur, Sydney, Tokio), Naher Osten (Bahrain) und Südamerika (São Paulo).
Um zu beginnen, besuchen Sie das Handbuch „Erste Schritte“. Für weitere Informationen, besuchen Sie die Amazon EC2 Inf1-Instance-Seite.