Überspringen zum Hauptinhalt

Llama von Meta in Amazon Bedrock

Die Zukunft der KI mit Llama gestalten

Jetzt neu: Llama 3.3

Llama 3.3 ist ein auf Befehle abgestimmtes 70B-Modell, das im Vergleich zu Llama 3.1 70B eine verbesserte Leistung bietet – und zu Llama 3.2 90B, wenn es für reine Textanwendungen verwendet wird. Llama 3.3 70B bietet eine ähnliche Leistung wie Llama 3.1 405B, benötigt aber nur einen Bruchteil der Rechenressourcen.

Das umfassende Training von Llama 3.3 70B führt zu einem soliden Verständnis und zu Generierungsfähigkeiten für verschiedene Aufgaben. Dieses Modell unterstützt leistungsstarke Konversations-KI, die für die Erstellung von Inhalten, Unternehmensanwendungen und Recherchen entwickelt wurde, und bietet erweiterte Sprachverständnisfunktionen, einschließlich Textzusammenfassung, Klassifizierung, Stimmungskanone und Codegenerierung.

Llama 3.2 90B ist das fortschrittlichste Modell von Meta und eignet sich ideal für Anwendungen auf Unternehmensebene. Llama 3.2 ist das erste Llama-Modell, das Bildverarbeitungsaufgaben unterstützt. Es verfügt über eine neue Modellarchitektur, die Bild-Encoder-Darstellungen in das Sprachmodell integriert. Dieses Modell zeigt hervorragende Leistungen beim Allgemeinwissen, bei der Generierung von langen Texten, beim mehrsprachigen Übersetzen, beim Programmieren, in der Mathematik und beim Advanced Reasoning. Außerdem werden damit Image-Reasoning-Funktionen eingeführt, die ein anspruchsvolles Bildverständnis und visuelles Denken ermöglichen. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: die Beschriftung von Bildern, das Auffinden von Bildern zu textlichen Beschreibungen, Visual Grounding, die Beantwortung von Fragen zu Bildern und visuelles Denken sowie die Beantwortung von Fragen zu Bildern in Dokumenten.

Llama 3.2 11B eignet sich gut für die Erstellung von Inhalten, die dialogorientierte KI, das Sprachverständnis und für Unternehmensanwendungen, die visuelles Denken erfordern. Das Modell zeigt eine starke Leistung bei der Textzusammenfassung, Stimmungsanalyse, Codegenerierung und der Befolgung von Anweisungen. Zusätzlich bietet es die Möglichkeit, über Bilder nachzudenken. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: die Beschriftung von Bildern, das Auffinden von Bildern zu textlichen Beschreibungen, Visual Grounding, die Beantwortung von Fragen zu Bildern und visuelles Denken sowie die Beantwortung von Fragen zu Bildern in Dokumenten.

Llama 3.2 3B bietet ein persönlicheres KI-Erlebnis mit einer gerätegebundenen Verarbeitung. Llama 3.2 3B ist für Anwendungen ausgelegt, die Inferenzen mit niedriger Latenz und begrenzte Rechenressourcen erfordern. Es eignet sich hervorragend für die Zusammenfassung und Klassifizierung von Texten sowie für Sprachübersetzungen. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: mobile, KI-gestützte Schreibassistenten und Kundendienstanwendungen.

Llama 3.2 1B ist das ressourcenschonendste Modell der Modellsammlung Llama 3.2 und eignet sich perfekt zum Abrufen und Zusammenfassen für Edge-Geräte und mobile Anwendungen. Es ermöglicht gerätegebundene KI-Funktionen, während zugleich der Datenschutz gewahrt und die Latenz minimiert wird. Dieses Modell eignet sich ideal für die folgenden Anwendungsfälle: Verwaltung personenbezogener Informationen und mehrsprachiger Abruf von Wissen.

Vorteile

LOREM IPSUM

Llama 3.2 bietet ein personalisierteres KI-Erlebnis mit einer gerätegebundenen Verarbeitung. Die Llama-3.2-Modelle sind effizienter, haben eine geringere Latenz sowie eine bessere Leistung und eignen sich daher für eine Vielfalt von Anwendungen.

Dank einer Kontextlänge von 128 000 kann Llama noch differenziertere Beziehungen in Daten erfassen.

Llama-Modelle werden mit über 15 Billionen Tokens aus öffentlichen Online-Datenquellen trainiert, um sprachliche Feinheiten besser zu verstehen.

Llama 3.2 ist mehrsprachig und unterstützt acht Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Die verwaltete API von Amazon Bedrock macht die Verwendung von Lama-Modellen einfacher als je zuvor. Unternehmen aller Größen können auf die Leistungsfähigkeit von Llama zugreifen, ohne sich Gedanken über die zugrunde liegende Infrastruktur machen zu müssen. Da Amazon Bedrock Serverless ist, müssen Sie keine Infrastruktur verwalten. Sie können generative KI-Funktionen von Llama sicher in Ihre Anwendungen integrieren und bereitstellen, indem Sie die AWS-Services nutzen, mit denen Sie bereits vertraut sind. Das bedeutet, dass Sie sich auf das konzentrieren können, was Sie am besten können – die Entwicklung Ihrer KI-Anwendungen.

Llama kennenlernen

In den letzten 10 Jahren hat sich Meta darauf konzentriert, Entwicklern Tools zur Verfügung zu stellen und die Zusammenarbeit und Weiterentwicklung zwischen Entwicklern, Forschern und Organisationen zu fördern. Llama-Modelle sind in einer Reihe von Parametergrößen erhältlich, sodass Entwickler das Modell auswählen können, das ihren Anforderungen und ihrem Inferenzbudget am besten entspricht. Llama-Modelle in Amazon Bedrock eröffnen eine Welt voller Möglichkeiten, da sich Entwickler keine Gedanken über Skalierbarkeit oder Verwaltung der Infrastruktur machen müssen. Amazon Bedrock ist eine sehr einfache, sofort einsatzbereite Möglichkeit für Entwickler, mit Llama zu beginnen.

Anwendungsfälle

Llama-Modelle überzeugen durch gutes Bildverständnis und visuelles Denken, sprachliche Nuancen und gutes kontextuelles Verständnis. Sie können sehr gut komplexe Aufgaben wie die Analyse visueller Daten, die Beschriftung von Bildern, Generierung von Dialogen sowie Übersetzungen ausführen und mühelos mehrstufige Aufgaben bewältigen. Zu den weiteren Anwendungsfällen, für die sich Llama-Modelle hervorragend eignen, gehören anspruchsvolles visuelles Denken und Verständnis, das Auffinden von passenden Bildern zu textlichen Beschreibungen, Visual Grounding und die Beantwortung von Fragen zu Bildern in Dokumenten. Weitere Stärken sind die Zusammenfassung von Texten und die Textgenauigkeit, die Klassifizierung von Texten, die Stimmungsanalyse und nuancierte Argumentation, die Sprachmodellierung, Dialogsysteme, die Codegenerierung und die Befolgung von Anweisungen.

Modellversionen

Llama 3.3 70B

Ein rein textbasiertes auf Befehle abgestimmtes 70B-Modell, das im Vergleich zu Llama 3.1 70B eine verbesserte Leistung bietet – und zu Llama 3.2 90B, wenn es für reine Textanwendungen verwendet wird. Llama 3.3 70B bietet eine ähnliche Leistung wie Llama 3.1 405B, benötigt aber nur einen Bruchteil der Rechenressourcen.

Maximale Token-Anzahl: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Spanisch und Thailändisch

Feinabstimmung unterstützt: Nein

Unterstützte Anwendungsfälle: Dieses Modell unterstützt leistungsstarke Konversations-KI (CAI), die für die Erstellung von Inhalten, Unternehmensanwendungen und Recherchen entwickelt wurde, und bietet erweiterte Sprachverständnisfunktionen, einschließlich Textzusammenfassung, Klassifizierung, Stimmungsanalyse und Codegenerierung. Das Modell unterstützt auch die Fähigkeit, Modellergebnisse zu nutzen, um andere Modelle wie die Generierung synthetischer Daten und die Destillation zu verbessern

Llama 3.2 90B

Multimodales Modell, das sowohl Text- als auch Bildeingaben und -ausgaben verwendet. Ideal für Anwendungen, die ausgefeilte visuelle Intelligenz erfordern, wie Bildanalyse, Dokumentenverarbeitung, multimodale Chatbots und autonome Systeme.

Maximale Token-Anzahl: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Bildverständnis, visuelles Denken und multimodale Interaktion, die fortgeschrittene Anwendungen wie Bilduntertitelung, Bild-Text-Abruf, Visual Grounding, visuelle Fragebeantwortung und dokumentative visuelle Beantwortung von Fragen ermöglichen, mit einer einzigartigen Fähigkeit, aus visuellen und textuellen Eingaben Schlussfolgerungen zu ziehen.

Llama 3.2 11B

Multimodales Modell, das sowohl Text- als auch Bildeingaben und -ausgaben verwendet. Ideal für Anwendungen, die ausgefeilte visuelle Intelligenz erfordern, wie Bildanalyse, Dokumentenverarbeitung und multimodale Chatbots.

Maximale Token-Anzahl: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Bildverständnis, visuelles Denken und multimodale Interaktion, wodurch fortgeschrittene Anwendungen wie Bildbeschriftung, Bild-Text-Abruf, Visual Grounding, visuelle Beantwortung von Fragen und visuelle Beantwortung von Fragen zu Dokumenten ermöglicht werden.

Llama 3.2 3B

Leichtes Modell, das nur Text enthält, um hochgenaue und relevante Ergebnisse zu liefern. Entwickelt für Anwendungen, die Inferenz mit geringer Latenz und begrenzte Rechenressourcen erfordern. Ideal für das Umschreiben von Abfragen und Prompts, mobile KI-gestützte Schreibassistenten und Kundenservice-Anwendungen. Insbesondere auf Edge-Geräten, wo seine Effizienz und geringe Latenz eine nahtlose Integration in verschiedene Anwendungen ermöglichen, einschließlich mobiler KI-gestützter Schreibassistenten und Kundenservice-Chatbots.

Maximale Token-Anzahl: 128 000

Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch

Feinabstimmung unterstützt: Ja

Unterstützte Anwendungsfälle: Fortgeschrittene Textgenerierung, Zusammenfassung, Stimmungsanalyse, emotionale Intelligenz, kontextuelles Verständnis und vernünftiges Denken

Nomura verwendet Llama-Modelle von Meta in Amazon Bedrock, um generative KI zu demokratisieren

Aniruddh Singh, Executive Director und Enterprise Architect von Nomura, skizziert den Weg des Finanzinstituts zur unternehmensweiten Demokratisierung generativer KI mithilfe der Amazon Bedrock- und Lama-Modelle von Meta. Amazon Bedrock bietet wichtigen Zugriff auf führende Basismodelle wie Llama und ermöglicht so eine nahtlose Integration. Llama bietet Nomura wichtige Vorteile, darunter schnellere Innovation, Transparenz, Vorurteile und eine robuste Leistung bei der Textzusammenfassung, Codegenerierung, Protokollanalyse und Dokumentenverarbeitung. 

TaskUs revolutioniert das Kundenerlebnis mit Lama-Modellen von Meta in Amazon Bedrock

TaskUs, ein führender Anbieter von ausgelagerten digitalen Diensten und Kundenerlebnissen der nächsten Generation für die innovativsten Unternehmen der Welt, hilft seinen Kunden, ihre Marken zu vertreten, zu schützen und zu erweitern. Die innovative TaskGPT-Plattform, die auf den Modellen Amazon Bedrock und Llama von Meta basiert, ermöglicht es Teamkollegen, außergewöhnlichen Service zu bieten. TaskUs baut Tools auf TaskGPT auf, die Amazon Bedrock und Llama für kosteneffektives Paraphrasieren, Generieren, Verstehen und Bearbeiten komplexer Aufgaben nutzen.