Amazon-EC2-G6e-Instances jetzt in weiteren Regionen verfügbar
Ab heute sind Amazon-EC2-G6e-Instances mit NVIDIA L40S Tensor Core-GPUs jetzt in der Region Asien-Pazifik (Tokio) und in der Region Europa (Frankfurt, Spanien) verfügbar. G6e-Instances eignen sich für eine Vielzahl von Anwendungsfällen im Bereich Machine Learning und Spatial Computing. G6e-Instances bieten eine bis zu 2,5-mal bessere Leistung als G5-Instances und bis zu 20 % niedrigere Inferenzkosten als P4d-Instances.
Kunden können G6e-Instances verwenden, um große Sprachmodelle (LLM) mit bis zu 13 Mrd. Parametern und Diffusionsmodellen für die Generierung von Bildern, Video und Audio bereitzustellen. Darüber hinaus bieten die G6e-Instances den Kunden die Möglichkeit, größere, immersive 3D-Simulationen und digitale Zwillinge für Spatial-Computing-Workloads zu erstellen. G6e-Instances verfügen über bis zu 8 NVIDIA-L40S-Tensor-Core-GPUs mit insgesamt 384 GB GPU-Arbeitsspeicher (48 GB pro GPU) und AMD-EPYC-Prozessoren der dritten Generation. Sie unterstützen außerdem bis zu 192 vCPUs, bis zu 400 Gbit/s Netzwerkbandbreite und bis zu 1,536 TB Systemarbeitsspeicher und bis zu 7,6 TB lokalen NVMe-SSD-Speicher. Entwickler können KI-Inferenz-Workloads auf G6e-Instances mithilfe von AWS-Deep-Learning-AMIs, AWS-Deep-Learning-Containern oder verwalteten Services wie Amazon Elastic Kubernetes Service (Amazon EKS) und AWS Batch ausführen. Unterstützung für Amazon SageMaker wird in Kürze verfügbar sein.
Amazon-EC2-G6e-Instances sind ab heute in den AWS-Regionen USA Ost (Nord-Virginia, Ohio), USA West (Oregon), Asien-Pazifik (Tokio) und Europa (Frankfurt, Spanien) verfügbar. Kunden können G6e-Instances als On-Demand-Instances, Reserved Instances, Spot Instances oder als Teil von Savings Plans erwerben.
Nutzen Sie für den Einstieg die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI) und die AWS-SDKs. Für weitere Informationen besuchen Sie die G6e-Instance-Seite.