- Machine Learning›
- AWS Trainium›
- Erste Schritte
Speziell entwickelte KI-Chips für das beste Preis-Leistungs-Verhältnis
Trainieren Sie große Modelle mit Trainium und stellen Sie sie in großem Maßstab mit Inferentia bereit – schneller, günstiger und vollständig in AWS integriert.
Warum Trainium und Inferentia
Niedrigere Kosten, höherer Durchsatz und enge Integration mit AWS-Services. Unterstützt von PyTorch, Hugging Face und vLLM.
Sind Sie bereit, mit den speziell entwickelten KI-Chips von AWS zu bauen und zu skalieren?
Folgen Sie diesem Lernpfad, der von Erkundung → Einrichtung → Schulung → Bereitstellung → Optimierung übergeht. Jeder Schritt beinhaltet praktische Übungen, in denen Sie praktisch lernen können.
Erkunden
Trainium zum Training. Inferentia für Inferenz. Skalieren Sie mit SageMaker HyperPod oder EKS von einer einzelnen Instance auf Cluster.
Einführung in das Ökosystem, die Hardwarearchitektur und Beispiele aus der Praxis (Anthropic, Project Rainer). Beinhaltet eine Live-Demo in Trainium.
Einrichtung
Beginnen Sie mit EC2, SageMaker oder Containern. Vorgefertigte DLAMIs und das Neuron SDK machen die Einrichtung einfach und schnell.
Lernen Sie den Neuron-SDK-Stack kennen, starten Sie DLAMIs, konfigurieren Sie EC2 und beginnen Sie mit der Arbeit in Jupyter.
Lernen
Trainieren, implementieren und optimieren Sie Ihre Modelle.
Üben
Wenden Sie Ihre Fähigkeiten mit praktischen Demos und Beispielprojekten an:
Llama 3 optimieren in Trainium.
Echtzeit-Inferenz mit vLLM + NxDI bereitstellen.
Verwenden Sie Neuron Profiler, um die Leistung zu optimieren.
Haben Sie die gewünschten Informationen gefunden?
Ihr Beitrag hilft uns, die Qualität der Inhalte auf unseren Seiten zu verbessern.