Llama 3.3 70B ist jetzt auf AWS über Amazon SageMaker JumpStart verfügbar
AWS-Kunden können jetzt über Amazon SageMaker JumpStart auf das Modell Llama 3.3 70B von Meta zugreifen. Das Modell Llama 3.3 70B vereint hohe Leistung mit Recheneffizienz. Das Modell liefert eine Ausgabequalität, die mit größeren Lama-Versionen vergleichbar ist. Gleichzeitig benötigt es deutlich weniger Ressourcen, was es zu einer ausgezeichneten Wahl für kostengünstige KI-Bereitstellungen macht.
Llama 3.3 70B verfügt über einen verbesserten Aufmerksamkeitsmechanismus, der die Inferenzkosten erheblich reduziert. Das Modell wurde mit rund 15 Billionen Tokens trainiert, darunter Inhalte aus dem Internet und synthetischen Beispielen. Es wurde einem umfassenden überwachten Feintuning und dem Reinforcement Learning from Human Feedback (RLHF) unterzogen. Bei diesem Ansatz werden die Ergebnisse stärker an den menschlichen Präferenzen ausgerichtet und gleichzeitig hohe Leistungsstandards eingehalten. Laut Meta führt dieser Effizienzgewinn zu fast fünfmal kosteneffektiveren Inferenzoperationen, was ihn zu einer attraktiven Option für Produktionsbereitstellungen macht.
Kunden können Llama 3.3 70B über die SageMaker JumpStart-Benutzeroberfläche oder programmgesteuert mithilfe des SageMaker Python SDK bereitstellen. Die fortschrittlichen Inferenzfunktionen von SageMaker AI helfen dabei, sowohl die Leistung als auch die Kosteneffizienz Ihrer Bereitstellungen zu optimieren, sodass Sie die inhärente Effizienz von Llama 3.3 70B voll ausschöpfen und gleichzeitig von einem optimierten Bereitstellungsprozess profitieren können.
Das Modell Llama 3.3 70B ist in allen AWS-Regionen verfügbar, in denen Amazon SageMaker AI verfügbar ist. Weitere Informationen zur Bereitstellung von Llama 3.3 70B auf Amazon SageMaker JumpStart finden Sie in der Dokumentation oder im Blog.