Ankündigung der allgemeinen Verfügbarkeit von Amazon-EC2-G6e-Instances
Wir geben heute die allgemeine Verfügbarkeit von Amazon-EC2-G6e-Instances mit NVIDIA-L40S-Tensor-Core-GPUs bekannt. G6e-Instances eignen sich für eine Vielzahl von Anwendungsfällen im Bereich Machine Learning und Spatial Computing. G6e-Instances bieten eine bis zu 2,5-mal bessere Leistung als G5-Instances und bis zu 20 % niedrigere Inferenzkosten als P4d-Instances.
Kunden können G6e-Instances verwenden, um große Sprachmodelle (LLM) mit bis zu 13 Mrd. Parametern und Diffusionsmodellen für die Generierung von Bildern, Video und Audio bereitzustellen. Darüber hinaus bieten die G6e-Instances den Kunden die Möglichkeit, größere, immersive 3D-Simulationen und digitale Zwillinge für Spatial-Computing-Workloads zu erstellen. G6e-Instances verfügen über bis zu 8 NVIDIA-L40S-Tensor-Core-GPUs mit insgesamt 384 GB GPU-Arbeitsspeicher (48 GB pro GPU) und AMD-EPYC-Prozessoren der dritten Generation. Sie unterstützen außerdem bis zu 192 vCPUs, bis zu 400 Gbit/s Netzwerkbandbreite und bis zu 1,536 TB Systemarbeitsspeicher und bis zu 7,6 TB lokalen NVMe-SSD-Speicher. Entwickler können KI-Inferenz-Workloads auf G6e-Instances mithilfe von AWS Deep Learning-AMIs, AWS Deep Learning Containern oder verwalteten Diensten wie Amazon Elastic Kubernetes Service (Amazon EKS) und AWS Batch ausführen. Unterstützung für Amazon SageMaker wird in Kürze verfügbar sein.
Amazon-EC2-G6e-Instances sind in den AWS-Regionen USA Ost (Nord-Virginia und Ohio) und USA West (Oregon) verfügbar. Kunden können G6e-Instances als On-Demand-Instances, Reserved Instances, Spot Instances oder als Teil von Savings Plans erwerben.
Nutzen Sie für den Einstieg die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI) und die AWS-SDKs. Für weitere Informationen besuchen Sie die G6e-Instance-Seite.