Veröffentlicht am: Apr 18, 2024
Ab heute ist die nächste Generation der Llama-Modelle von Meta, Llama 3, über Amazon SageMaker JumpStart verfügbar, einem Hub für Machine Learning (ML), der vortrainierte Modelle, integrierte Algorithmen und vorgefertigte Lösungen bietet, mit denen Sie im Handumdrehen mit ML beginnen können. Sie können Llama-3-Basismodelle mit wenigen Klicks in SageMaker Studio oder programmgesteuert über das SageMaker-Python-SDK bereitstellen und verwenden.
Llama 3 ist in einer Reihe von Parametergrößen erhältlich – 8 Mrd. und 70 Mrd. – und kann für eine Vielzahl von Anwendungsfällen verwendet werden, mit Verbesserungen in den Bereichen Argumentation, Codegenerierung und Befehlsbefolgung. Llama 3 verwendet eine reine Decoder-Transformatorarchitektur und einen neuen Tokenizer, der eine verbesserte Modellleistung bietet. Die von Meta verbesserten Verfahren nach dem Training sorgen außerdem für weniger falsche Ablehnungen, eine verbesserte Ausrichtung und eine erhöhte Diversität in den Modellantworten. Sie können jetzt die kombinierten Vorteile der Llama-3-Leistung und der MLOps-Steuerelemente mit Amazon-SageMaker-Features wie SageMaker Pipelines, SageMaker Debugger oder Container-Protokollen nutzen. Das Modell wird in einer sicheren AWS-Umgebung unter Ihrer VPC-Kontrolle bereitgestellt, um für Datensicherheit zu sorgen.
Llama-3-Basismodelle sind heute in SageMaker JumpStart zunächst in den AWS-Regionen USA Ost (Ohio), USA West (Oregon), USA Ost (Nord-Virginia), Asien-Pazifik (Tokio) und Europa (Irland) verfügbar. Informationen zu den ersten Schritten mit Llama-3-Basismodellen über SageMaker JumpStart finden Sie in der Dokumentation und im Blog.