Generative KI-Modelle Llama 3.2 sind jetzt in Amazon SageMaker JumpStart verfügbar
Das bislang effizienteste, schnellste und leistungsfähigste Llama-Modell, Llama 3.2, ist jetzt in Amazon SageMaker JumpStart verfügbar, einem Machine-Learning-Hub, der vortrainierte Modelle und integrierte Algorithmen bietet, die Ihnen den Einstieg in Machine Learning (ML) erleichtern. Sie können die Llama 3.2-Modelle – 90B, 11B, 3B, 1B und Llama Guard 3 11B Vision – mit wenigen Klicks in SageMaker Studio oder programmgesteuert über das SageMaker Python SDK bereitstellen und verwenden. Mit SageMaker JumpStart können Sie auch ganz einfach die Llama 3.2 1B- und 3B-Modelle optimieren.
Die Llama 3.2-Modelle werden in verschiedenen Größen angeboten, von kleinen und mittleren multimodalen Modellen über 11B- und 90B-Parametermodelle, die anspruchsvolle Schlussfolgerungsaufgaben verarbeiten können, einschließlich multimodaler Unterstützung für hochauflösende Bilder, bis hin zu einfachen, nur Text enthaltenden 1B- und 3B-Parametermodellen, die für Edge-Geräte geeignet sind, und bis zum Llama Guard 3 11B Vision-Modell, das für verantwortungsvolle Innovation und Sicherheit auf Systemebene ausgelegt ist. Llama 3.2 ist das erste Llama-Modell, das Vision-Aufgaben unterstützt. Es verfügt über eine neue Modellarchitektur, die Bild-Encoder-Darstellungen in das Sprachmodell integriert. Sie können die für On-Edge-Anwendungen geeigneten Llama 3.2-Modelle nutzen, um generative KI-Modelle zu erstellen und bereitzustellen und neue Innovationen wie Image Reasoning zu unterstützen. Die neuen Modelle sind für KI-Workloads zudem effizienter, haben eine geringere Latenz sowie eine bessere Leistung und eignen sich daher für eine Vielfalt von Anwendungen.
Llama 3.2-Modelle sind in SageMaker JumpStart zunächst in der AWS-Region USA Ost (Ohio) verfügbar. Informationen zum Einstieg finden Sie in der Dokumentation und im Blog.