Überspringen zum Hauptinhalt

AWS-KI-Chips

Speziell entwickelte KI-Chips für das beste Preis-Leistungs-Verhältnis

Trainieren Sie große Modelle mit Trainium und stellen Sie sie in großem Maßstab mit Inferentia bereit – schneller, günstiger und vollständig in AWS integriert.

Warum Trainium und Inferentia

Niedrigere Kosten, höherer Durchsatz und enge Integration mit AWS-Services. Unterstützt von PyTorch, Hugging Face und vLLM.

Sind Sie bereit, mit den speziell entwickelten KI-Chips von AWS zu bauen und zu skalieren?

Folgen Sie diesem Lernpfad, der von Erkundung → Einrichtung → Schulung → Bereitstellung → Optimierung übergeht. Jeder Schritt beinhaltet praktische Übungen, in denen Sie praktisch lernen können.

Erkunden

Trainium zum Training. Inferentia für Inferenz. Skalieren Sie mit SageMaker HyperPod oder EKS von einer einzelnen Instance auf Cluster.

Einführung in das Ökosystem, die Hardwarearchitektur und Beispiele aus der Praxis (Anthropic, Project Rainer). Beinhaltet eine Live-Demo in Trainium.

Einrichtung

Beginnen Sie mit EC2, SageMaker oder Containern. Vorgefertigte DLAMIs und das Neuron SDK machen die Einrichtung einfach und schnell. 

Lernen Sie den Neuron-SDK-Stack kennen, starten Sie DLAMIs, konfigurieren Sie EC2 und beginnen Sie mit der Arbeit in Jupyter.

Lernen

Trainieren, implementieren und optimieren Sie Ihre Modelle.

Haben Sie die gewünschten Informationen gefunden?

Ihr Beitrag hilft uns, die Qualität der Inhalte auf unseren Seiten zu verbessern.