AWS Germany – Amazon Web Services in Deutschland

Innovation entfesseln: AWS und Anthropic erweitern gemeinsam die Grenzen der generativen KI

von Swami Sivasubramanian, übersetzt von Tobias Nitzsche.

Amazon Bedrock ist der ideale Ort, um generative KI-Anwendungen mit großen Sprachmodellen (Large Language Models, LLM) und anderen Grundlagenmodellen (Foundation Models, FM) zu entwickeln und zu skalieren. Kunden können hier auf eine Vielzahl leistungsstarker FMs wie die Claude-Modell-Familie von Anthropic zugreifen, um maßgeschneiderte generative KI-Anwendungen zu erstellen. Als Anthropic 2021 begann, auf AWS aufzubauen, konnte niemand voraussehen, wie transformativ die Claude-Modell-Familie sein würde. Mit Amazon Bedrock haben wir modernste generative KI-Modelle für Unternehmen jeder Größe zugänglich und nutzbar gemacht. In den wenigen Monaten seit der allgemeinen Verfügbarkeit von Amazon Bedrock am 28. September 2023 nutzen bereits über 10.000 Kunden den Service, viele von ihnen mit Claude. Kunden wie zum Beispiel ADP, Broadridge, Cloudera, Dana-Farber Cancer Institute, Genesys, Genomics England, GoDaddy, Intuit, M1 Finance, Perplexity AI, Proto Hologram, Rocket Companies setzen auf Amazon Bedrock und die Claude-Modelle von Anthropic, um Innovationen in der generativen KI voranzutreiben und transformative Kundenerlebnisse zu schaffen. Am 04. März 2024 kündigten wir einen spannenden Meilenstein an: Die nächste Generation von Claude kommt zu Amazon Bedrock – Claude 3 Opus, Claude 3 Sonnet und Claude 3 Haiku.

Einführung der Claude 3 Modelle von Anthropic

Anthropic hat die nächste Generation von Claude vorgestellt: drei fortschrittliche Modelle, die für unterschiedliche Anwendungsfälle optimiert sind. Haiku ist das schnellste und kostengünstigste Modell auf dem Markt. Es ist ein kompaktes Modell für blitzschnelle Reaktionszeiten. Für die meisten Workloads ist Sonnet doppelt so schnell wie Claude 2 und Claude 2.1 bei höherer Intelligenz. Es überzeugt bei intelligenten Aufgaben, die schnelle Antworten erfordern, wie Wissensabruf oder Vertriebsautomatisierung. Und es bietet die ideale Balance zwischen Intelligenz und Geschwindigkeit – Qualitäten, die besonders für Unternehmensanwendungsfälle entscheidend sind. Opus ist das fortschrittlichste, leistungsfähigste, hochmoderne FM mit tiefgreifender Logik, fortschrittlichen Mathematik- und Programmier-Fähigkeiten sowie Spitzenleistungen bei hochkomplexen Aufgaben. Es kann Prompts ohne festes Ende sowie neuartige Szenarien mit bemerkenswerter Flüssigkeit bearbeiten, einschließlich Aufgabenautomatisierung, Hypothesengenerierung und Analyse von Diagrammen, Grafiken und Prognosen. Sonnet war ab dem 04. April 2024 als Erstes der Modellfamilie auf Amazon Bedrock verfügbar. Aktuelle Bewertungen von Anthropic deuten darauf hin, dass die Claude 3 Modell-Familie bei Mathematik-Textaufgaben (MATH) und multilingualen Mathematikaufgaben (MGSM) besser abschneidet als vergleichbare Modelle.

  1. Multimodalität – Die Claude 3 Modelle wurden darauf trainiert, strukturierte und unstrukturierte Daten in verschiedenen Formaten zu verstehen, nicht nur Text, sondern auch Bilder, Diagramme, Grafiken und mehr. So können Unternehmen generative KI-Anwendungen entwickeln, die unterschiedliche multimediale Quellen integrieren und wirklich domänenübergreifende Probleme lösen. Pharmazieunternehmen können beispielsweise Forschungsarbeiten zu Medikamenten zusammen mit Proteinstrukturdiagrammen abfragen, um Entdeckungen zu beschleunigen. Medienunternehmen können Bildbeschreibungen oder Videoskripte automatisch generieren.
  1. Branchenführende Benchmarks – Claude 3 übertraf zum Zeitpunk seiner Einführung die damals bestehenden Modelle bei standardisierten Evaluierungen wie Mathematikaufgaben, Programmiertests und wissenschaftlicher Logik. Kunden können domänenspezifische experimentelle Verfahren in der Fertigung optimieren oder Finanzberichte anhand von Kontextdaten automatisiert und mit hoher Genauigkeit mittels KI-gestützter Antworten auditieren.

    Quelle: https://www.anthropic.com/news/claude-3-familyInsbesondere übertrifft Opus seine Konkurrenten bei den gängigen Evaluierungsbenchmarks für KI-Systeme, darunter uA. Expertenwissen auf Universitätsniveau (MMLU), fortgeschrittene Logik auf Graduiertenniveau (GPQA), Grundrechenaufgaben (GSM8K). Es zeigt ein hohes Maß an Verständnis und Kompetenz bei komplexen Aufgaben und war somit führend im Bereich der allgemeinen Intelligenz.
  1. Reduzierte Halluzination – Unternehmen benötigen von KI-Systemen, die automatisierte Prozesse oder Kundeninteraktionen steuern, vorhersagbare und kontrollierbare Ausgaben. Die Claude 3 Modelle verringern Halluzinationen durch Constitutional-AI-Techniken, die Transparenz in die Modelllogik bringen und die Genauigkeit verbessern. Claude 3 Opus zeigt bei schwierigen offenen Fragen eine geschätzte doppelt so hohe Genauigkeit wie Claude 2.1, wodurch die Wahrscheinlichkeit fehlerhafter Antworten sinkt. Da Unternehmenskunden in Branchen wie Gesundheitswesen, Finanzen und Rechtsrecherche auf Claude setzen, ist die Reduzierung von Halluzinationen für Sicherheit und Leistung unerlässlich. Die Claude 3 Familie setzt neue Maßstäbe für zuverlässige generative KI-Ausgaben.

Vorteile der Anthropic Claude 3 FMs auf Amazon Bedrock

Über Amazon Bedrock erhalten Kunden einfachen Zugriff auf die neuesten Modelle von Anthropic. Dies umfasst nicht nur Sprachmodelle, sondern auch deren erweiterte Palette an multimodalen KI-Modellen für fortgeschrittene Logik über Text, Bilder, Diagramme und mehr. Unsere Zusammenarbeit hat Kunden bereits dabei unterstützt, generative KI schneller einzuführen und einen Geschäftsmehrwert zu erzielen. Hier einige Beispiele, wie Kunden die Claude-Modelle von Anthropic auf Amazon Bedrock nutzen:

„Wir entwickeln auf AWS eine generative KI-Lösung, um Kunden bei der Planung epischer Reisen zu unterstützen und lebensverändernde Erlebnisse mit personalisierten Reiseplanern zu schaffen. Durch den Einsatz von Claude auf Amazon Bedrock konnten wir die Kosten für die Erstellung von Reiseplänen um fast 80 Prozent senken, indem wir schnell eine skalierbare und sichere KI-Plattform aufbauten, die unsere Buchungsinhalte in Minuten organisieren und kohärente, hochgenaue Reiseempfehlungen liefern kann. Nun können wir unsere Inhalte auf verschiedene Weise auf unseren digitalen Plattformen neu verpacken und personalisieren – basierend auf Kundenpräferenzen und unter Einbeziehung vertrauenswürdiger lokaler Stimmen, wie es Lonely Planet seit 50 Jahren tut.“
– Chris Whyde, Senior VP of Engineering and Data Science, Lonely Planet (sinngemäß)

„Wir arbeiten mit AWS und Anthropic zusammen, um unser eigenes, fein abgestimmtes Anthropic Claude Modell auf Amazon Bedrock zu hosten. So unterstützen wir unsere Strategie, generative KI-Lösungen schnell und skalierbar bereitzustellen – mit modernster Verschlüsselung, Datenschutz und sicherer KI-Technologie in allen Bereichen. Unsere neue Lexis+ AI-Plattform bietet konversationelle Suche, aufschlussreiche Zusammenfassungen und intelligente Funktionen für die Rechtserstellung. Sie ermöglicht Anwälten mehr Effizienz, Effektivität und Produktivität.“
– Jeff Reihl, Executive VP and CTO, LexisNexis Legal & Professional (sinngemäß)

„Bei Broadridge arbeiten wir daran, die Verständlichkeit von Meldepflichten für Finanzberichte zu automatisieren, um für unsere Kunden in nationalen und globalen Finanzmärkten mehr Transparenz und Effizienz zu schaffen. Mit dem Einsatz von Claude auf Amazon Bedrock erzielen wir in unseren Versuchen zur Verarbeitung und Zusammenfassung eine noch höhere Genauigkeit. Amazon Bedrock bietet uns Wahlmöglichkeiten bei LLMs und überzeugt durch Leistung und Integrationsfähigkeiten.“
– Saumin Patel, VP Engineering generative AI, Broadridge (sinngemäß)

Die Claude 3 Modell-Familie deckt unterschiedliche Anforderungen ab und ermöglicht Kunden, das für ihren spezifischen Anwendungsfall am besten geeignete Modell auszuwählen. Das ist der Schlüssel für die Entwicklung erfolgreicher Prototypen und später Produktionssysteme mit echter Wirkung – sei es für ein neues Produkt, eine Funktion oder einen Prozess zur Steigerung der Profitabilität. Mit Blick auf die Kundenbedürfnisse liefern Anthropic und AWS genau dort, wo es für Unternehmen jeder Größe am wichtigsten ist:

  1. Verbesserte Leistung – Dank Optimierungen in Hard- und Software sind die Claude 3 Modelle deutlich schneller für Echtzeit-Interaktionen.
  2. Erhöhte Genauigkeit und Zuverlässigkeit – Durch massive Skalierung sowie neue Self-Supervision-Techniken wird bei komplexen Fragen über lange Kontexte eine doppelt so hohe Genauigkeit erwartet. Somit ist die KI noch hilfreicher, sicherer und ehrlicher.
  3. Einfachere und sicherere Anpassung – Anpassungsfunktionen wieSo erhalten Kunden eine auf ihre Bedürfnisse zugeschnittene KI. Außerdem werden proprietäre Daten niemals dem öffentlichen Internet ausgesetzt, verlassen nie das AWS-Netzwerk, werden sicher in VPCs übertragen und sind während der Übertragung und Speicherung verschlüsselt.

Und AWS und Anthropic bekräftigen kontinuierlich unser Engagement für verantwortungsvolle generative KI. Durch ständige Verbesserung der Modell-Fähigkeiten und die Verpflichtung zu Rahmenwerken wie Constitutional AI [EN, extern] oder den freiwilligen Zusagen des Weißen Hauses für KI können wir die sichere, ethische Entwicklung und den Einsatz dieser transformativen Technologie beschleunigen.

Die Zukunft der generativen KI

In Zukunft werden Kunden mit der neuesten Modellgeneration völlig neue Kategorien von generativen KI-Anwendungen und -Erlebnissen schaffen. Wir haben erst begonnen, das Potenzial der generativen KI zur Automatisierung komplexer Prozesse, Erweiterung menschlicher Expertise und Neugestaltung digitaler Erlebnisse zu nutzen. Wir erwarten beispiellose Innovationen, wenn Kunden die Modelle von Anthropic mit multimodalen Fähigkeiten kombiniert mit allen Werkzeugen wählen, die sie zum Aufbau und Skalieren generativer KI-Anwendungen mit Amazon Bedrock benötigen. Stellen Sie sich leistungsfähige Conversational Assistants vor, die schnelle und hochkontextuelle Antworten geben, oder personalisierte Recommender-Engines, die nahtlos relevante Bilder, Diagramme und zugehöriges Wissen integrieren, um Entscheidungen intuitiv zu leiten. Denken Sie an eine durch generative KI beschleunigte wissenschaftliche Forschung, die Experimente lesen, Hypothesen synthetisieren und sogar neue Bereiche für Forschungsthesen vorschlagen kann. Es gibt so viele Möglichkeiten, die sich durch die vollständige Nutzung des Potenzials der generativen KI über Amazon Bedrock realisieren lassen. Unsere Zusammenarbeit stellt sicher, dass Unternehmen und Innovatoren weltweit über die Werkzeuge verfügen, um verantwortungsvoll die nächste Stufe der innovativen Nutzung generativer KI zu erreichen – zum Nutzen Aller.

Fazit

Für die generative KI sind wir noch in einer frühen Phase, aber durch starke Zusammenarbeit und einen Fokus auf Innovation bricht eine neue Ära der generativen KI auf AWS an. Wir können es kaum erwarten zu sehen, was Kunden als Nächstes entwickeln werden.

Ressourcen

Informieren Sie sich mit den folgenden Ressourcen über diese Ankündigung:

Über den Autor

Swami Sivasubramanian
Swami Sivasubramanian ist Vizepräsident für Daten und maschinelles Lernen bei AWS. In dieser Rolle überwacht Swami alle AWS-Datenbank-, Analyse- und KI- und maschinellen Lerndienste. Die Mission seines Teams besteht darin, Unternehmen dabei zu helfen, ihre Daten mit einer vollständigen End-to-End-Datenlösung zum Speichern, Zugreifen, Analysieren, Visualisieren und Vorhersagen nutzbar zu machen.