Veröffentlicht am: Nov 11, 2022

Trainingsaufträge von Amazon SageMaker unterstützen jetzt ml.trn1-Instances, die von AWS-Trainium-Chips betrieben werden, die speziell für leistungsstarke ML-Trainingsanwendungen in der Cloud konzipiert sind. Sie können ml.trn1-Instances in SageMaker verwenden, um natürliche Sprachverarbeitung (NLP), Computer Vision und Recommender-Modelle in zahlreichen Anwendungen zu trainieren, darunter Spracherkennung, Empfehlungen, Betrugserkennung, Bild- und Videoklassifizierung und Prognosen.

ml.trn1-Instances verfügen über bis zu 16 AWS-Trainium-Chips, dem ML-Chip der zweiten Generation, den AWS nach AWS Inferentia entwickelt hat. Trn1-Instances sind die ersten EC2-Instances mit bis zu 800 Gbit/s Elastic-Fabric-Adapter (EFA)-Netzwerkbandbreite. Um eine effiziente Daten- und Modellparallelität gewährleisten zu können, hat jede trn1.32xl-Instance 512 GB Speicher mit hoher Bandbreite, liefert bis zu 3,4 Petaflops an FP16/BF16-Rechenleistung und verfügt über NeuronLink, einer nicht blockierenden Verbindung innerhalb der Instance mit hoher Bandbreite.

ml.trn1-Instances sind in zwei Größen verfügbar: ml.trn1.2xlarge, zum Experimentieren mit einem einzigen Accelerator und kostengünstigen Trainieren kleiner Modelle, und ml.trn1.32xlarge zum Trainieren umfangreicher Modelle. SageMaker Model Training unterstützt ab heute ml.trn1-Instances in den AWS-Regionen USA Ost (Nord-Virginia) und USA West (Oregon).

Um mehr über ml.trn1-Instances zu erfahren, besuchen Sie den AWS-News-Blog oder die Trn1-Instance-Seite. Melden Sie sich zum Einstieg in die Nutzung von ml.trn1-Instances bei der Amazon-SageMaker-Konsole an. Weitere Informationen zu Amazon SageMaker Model Training finden Sie auf unserer Webseite.