G6e-instances von Amazon EC2 sind jetzt in der Region Stockholm verfügbar
Seit heute sind die Amazon-EC2-G6e-Instances mit NVIDIA L40S Tensor Core-GPUs in der Region Europa (Stockholm) verfügbar. G6e-Instances eignen sich für eine Vielzahl von Anwendungsfällen im Bereich Machine Learning und Spatial Computing.
Kunden können G6e-Instances verwenden, um große Sprachmodelle (LLM) mit bis zu 13 Mrd. Parametern und Diffusionsmodellen für die Generierung von Bildern, Video und Audio bereitzustellen. Darüber hinaus bieten die G6e-Instances den Kunden die Möglichkeit, größere, immersive 3D-Simulationen und digitale Zwillinge für Spatial-Computing-Workloads zu erstellen. G6e-Instances verfügen über bis zu 8 NVIDIA-L40S-Tensor-Core-GPUs mit 48 GB Arbeitsspeicher pro GPU und AMD-EPYC-Prozessoren der dritten Generation. Sie unterstützen außerdem bis zu 192 vCPUs, bis zu 400 Gbit/s Netzwerkbandbreite und bis zu 1,536 TB Systemarbeitsspeicher und bis zu 7,6 TB lokalen NVMe-SSD-Speicher. Entwickler können KI-Inferenz-Workloads auf G6e-Instances mithilfe von AWS-Deep-Learning-AMIs, AWS-Deep-Learning-Containern oder verwalteten Services wie Amazon Elastic Kubernetes Service (Amazon EKS), AWS Batch und Amazon SageMaker ausführen.
Amazon-EC2-G6e-Instances sind ab heute in den AWS-Regionen USA Ost (Nord-Virginia, Ohio), USA West (Oregon), Asien-Pazifik (Tokio) und Europa (Frankfurt, Spanien,Stockholm) verfügbar. Kunden können G6e-Instances als On-Demand-Instances, Reserved Instances, Spot Instances oder als Teil von Savings Plans erwerben.
Nutzen Sie für den Einstieg die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI) und die AWS-SDKs. Für weitere Informationen besuchen Sie die G6e-Instance-Seite.