Die Modelle Llama 3.1 8B und 70B von Meta sind jetzt zum Feintuning in Amazon Bedrock verfügbar
Amazon Bedrock unterstützt jetzt das Feintuning für die Modelle Llama 3.1 70B und 8B von Meta, sodass Unternehmen diese generativen KI-Modelle mit ihren eigenen Daten trainieren können. Die Llama 3.1-Modelle bieten deutliche Verbesserungen gegenüber früheren Versionen, darunter eine Kontextlänge von 128.000 – 16-mal mehr als Llama 3 –, sodass Sie auf größere Informationsmengen aus langen Textpassagen zugreifen und diese verarbeiten können. Mithilfe des Feintunings können Sie die Llama 3.1-Modelle an domainspezifische Aufgaben anpassen und so die Modellleistung für spezielle Anwendungsfälle verbessern.
Laut Meta unterstützen die Llama 3.1-Modelle mehrsprachige Dialoge in acht Sprachen und verbessertes Reasoning. Llama 3.1 70B ist ideal für die Erstellung von Inhalten, dialogorientierte KI, Sprachverstehen, Forschung und Entwicklung und Unternehmensanwendungen. Es eignet sich hervorragend für Aufgaben wie Textzusammenfassung, Textklassifizierung, Stimmungsanalyse, nuancierte Schlussfolgerung, Sprachmodellierung, Dialogsysteme, Codegenerierung und das Befolgen von Anweisungen. Das Llama 3.1 8B-Modell eignet sich am besten für Szenarien mit begrenzter Rechenleistung und Ressourcen. Es bietet hohe Leistung bei Textzusammenfassung, Klassifizierung, Stimmungsanalyse und Sprachübersetzung und gewährleistet gleichzeitig eine niedrige Latenzzeit beim Inferencing. Durch das Feintuning der Llama 3.1-Modelle in Amazon Bedrock können Unternehmen die Genauigkeit und Relevanz bei speziellen Anwendungen verbessern, ohne Modelle von Grund auf neu erstellen zu müssen.
Sie können die Llama 3.1-Modelle in Amazon Bedrock in der AWS-Region USA West (Oregon) feintunen. Die Preise finden Sie auf der Preisseite von Amazon Bedrock. Einführende Informationen finden Sie im Benutzerhandbuch zu Bedrock.