AWS Germany – Amazon Web Services in Deutschland

Beginn einer neuen Ära des Cloud-Buildings mit generativer KI auf AWS

Von Swami Sivasubramanian, übersetzt von Tobias Nitzsche.

Generative KI hat das Potenzial, Kundenerlebnisse grundlegend zu verändern. Zahlreiche Unternehmen nutzen AWS, um ihre generativen KI-Anwendungen zu entwickeln. Dazu gehören bekannte Firmen wie adidas, Booking.com, Bridgewater Associates, Clariant, Cox Automotive, GoDaddy und LexisNexis. Innovative Start-ups wie Perplexity AI setzen ausschließlich auf AWS für ihre KI-Projekte. Führende KI-Unternehmen wie Anthropic haben AWS als Hauptanbieter für wichtige Projekte gewählt und planen, zukünftige Modelle dort zu entwickeln. Zudem profitieren große Dienstleister wie Accenture von maßgeschneiderten generativen KI-Anwendungen, die ihre Entwicklerteams mit Tools wie Amazon CodeWhisperer unterstützen.

Kunden vertrauen auf AWS, weil wir seit jeher komplexe und kostspielige Technologien, die Kundenerlebnisse und Geschäftsmodelle revolutionieren können, für alle zugänglich machen – unabhängig von Größe oder technischen Kenntnissen. Um dies zu erreichen, treiben wir schnelle Innovationen voran und investieren in ein breites Spektrum an Services auf allen drei Ebenen des generativen KI-Stacks.

Die Basis bildet die Infrastruktur, die erforderlich ist, um große Sprachmodelle (engl. Large Language Models, LLMs) und andere Grundlagenmodelle (engl. Foundation Models, FMs) zu trainieren und Vorhersagen (Inference) zu treffen. Auf der mittleren Ebene ermöglichen wir Kunden den einfachen Zugriff auf Modelle und Werkzeuge, um selbst generative KI-Anwendungen zu entwickeln oder zu erweitern – mit der gewohnten Sicherheit und Zugriffskontrolle von AWS. Auf der obersten Ebene investieren wir in innovative Anwendungen in Schlüsselbereichen wie der generativen KI-basierten Programmierung. Unsere Kunden schätzen nicht nur die Auswahlmöglichkeiten und die umfassende Palette an Fähigkeiten, sondern auch unseren datenorientierten Ansatz. Sie vertrauen darauf, dass wir all dies mit dem vertraut hohen Maß an Sicherheit und Datenschutz entwickelt haben.

In dieser Woche haben wir bedeutende Fortschritte erzielt und eine Vielzahl neuer Dienste auf allen drei Ebenen unserer Technologieplattform vorgestellt. Unser Ziel ist es, den umfassenden Einsatz von generativer KI im Geschäftsalltag für all unsere Kunden so einfach und praktikabel wie möglich zu gestalten.

Unterste Ebene des Stacks: AWS Trainium2 ist die neueste Ergänzung zur fortschrittlichsten Cloud-Infrastruktur für generative KI

Die Grundlage des Technologie-Stacks bildet die Infrastruktur – Rechenleistung, Netzwerke, Frameworks und Dienste – die erforderlich ist, um LLMs und andere FMs zu trainieren und zu betreiben. AWS ist bestrebt, die fortschrittlichste Infrastruktur für maschinelles Lernen (ML) bereitzustellen. Dank unserer langjährigen Partnerschaft mit NVIDIA konnte AWS bereits vor über 12 Jahren als erster Cloud-Anbieter Grafikprozessoren (GPUs) in der Cloud anbieten. Kürzlich haben wir als erste große Cloud-Plattform die NVIDIA H100 GPUs in unseren P5-Instanzen eingeführt. Wir setzen unsere Investitionen fort und bringen einzigartige Neuerungen hervor, die AWS zur bevorzugten Cloud für den Einsatz von GPUs machen:

  • Der Preis-Leistungsvorteil unseres hochmodernen Virtualisierungssystems AWS Nitro
  • Leistungsfähige Netzwerke in Petabit-Größe mit Elastic Fabric Adapter (EFA)
  • Die Möglichkeit zum Hyper-Scale-Clustering mit Amazon EC2 UltraClusters, die tausende beschleunigte Instanzen in einer Verfügbarkeitszone verbinden und ein Netzwerk ohne Blockaden mit bis zu 3.200 Gbps für ML-Training im großen Maßstab zu bieten.

Darüber hinaus erleichtern wir den Zugang zu begehrten GPU-Rechenkapazitäten für generative KI durch Amazon EC2 Capacity Blocks für ML – das erste und bislang einzige Verbrauchsmodell der Branche, welches es Kunden ermöglicht, GPUs für ihre zukünftigen Einsätze zu reservieren – bis zu 500 Stück, die in EC2 UltraClusters für kurzfristige ML-Projekte genutzt werden können.

Bereits vor einigen Jahren haben wir erkannt, dass wir bis auf Chipebene vordringen müssen, um das Preis-Leistungs-Verhältnis für unsere Kunden weiter zu verbessern. Daher haben wir begonnen, in die Entwicklung eigener Chips zu investieren. Speziell für Machine Learning (ML) haben wir mit AWS Inferentia, unserem maßgeschneiderten Inferenz-Chip, begonnen. Heute sind wir bei der zweiten Generation von AWS Inferentia mit unseren Amazon EC2 Inf2-Instanzen angekommen. Diese sind speziell für großangelegte generative KI-Anwendungen optimiert, die riesige ML-Modelle mit Hunderten von Milliarden Parametern enthalten. Inf2-Instanzen bieten die niedrigsten Kosten für Inferenz in der Cloud und liefern gleichzeitig bis zu viermal höheren Durchsatz und bis zu zehnmal geringere Latenz im Vergleich zu Inf1-Instanzen. Unterstützt von bis zu 12 Inferentia2-Chips sind Inf2 die einzigen auf Inferenz optimierten EC2-Instanzen, die eine Hochgeschwindigkeitsverbindung zwischen den einzelnen Beschleunigern aufweisen. Dies ermöglicht schnellere und effizientere Inferenzen, ohne Leistung oder Latenz zu opfern, indem die sehr großen ML-Modelle über mehrere Beschleuniger verteilt werden. Kunden wie Adobe, die Deutsche Telekom und Leonardo.ai haben großartige erste Ergebnisse erzielt und sind sehr zuversichtlich, ihre ML-Modelle im großen Maßstab auf Inf2 zu betreiben.

Auf der Trainingsseite sind Trn1-Instanzen, die von AWS‘ speziell entwickeltem ML-Trainingschip AWS Trainium betrieben werden, darauf optimiert, das Training über mehrere mit EFA-Netzwerken verbundene Server zu verteilen. So konnten Kunden wie Ricoh ein japanisches Large Language Model (LLM) mit Milliarden von Parametern in nur wenigen Tagen trainieren. Und Databricks erzielt mit auf Trainium basierenden Instanzen eine bis zu 40 % bessere Preis-Leistung beim Training großangelegter Deep-Learning-Modelle. Da aber fast wöchentlich neue, leistungsfähigere Modelle herauskommen, verschieben wir die Grenzen von Leistung und Skalierbarkeit weiterhin nach oben. Daher freuen wir uns, AWS Trainium2 ankündigen zu können, das darauf ausgelegt ist, eine noch bessere Preis-Leistung für das Training von Modellen mit Hunderten von Milliarden bis Billionen von Parametern zu liefern. Trainium2 soll bis zu viermal schnellere Trainingsleistung als die erste Trainium-Generation bieten und in EC2 UltraClusters bis zu 65 Exaflops an aggregierter Rechenleistung liefern. Das bedeutet, dass alle Kunden ein 300-Milliarden-Parameter-LLM in wenigen Wochen statt Monaten trainieren können. Leistung, Skalierung und Energieeffizienz von Trainium2 sind einige Gründe, warum Anthropic sich entschieden hat, ihre Modelle auf AWS zu trainieren und Trainium2 für künftige Modelle zu nutzen. Wir arbeiten mit Anthropic an kontinuierlicher Innovation sowohl mit AWS Trainium als auch Inferentia. Wir erwarten, dass unsere ersten Trainium2-Instanzen 2024 für Kunden verfügbar sein werden.

Wir haben auch unsere Bemühungen im Bereich der Software-Toolkette für unsere ML-Chips verstärkt, insbesondere durch die Weiterentwicklung von AWS Neuron. Neuron ist ein Software Development Kit (SDK), das Kunden hilft, die maximale Leistung aus Trainium und Inferentia zu ziehen. Seit der Einführung von Neuron im Jahr 2019 haben wir erheblich in Compiler- und Framework-Technologien investiert. Heute unterstützt Neuron viele der beliebtesten öffentlich verfügbaren Modelle, einschließlich Llama 2 von Meta, MPT von Databricks und Stable Diffusion von Stability AI, sowie 93 der Top 100 Modelle im beliebten Modellrepository Hugging Face. Neuron integriert sich nahtlos in gängige ML-Frameworks wie PyTorch und TensorFlow, und die Unterstützung von JAX ist für das nächste Jahr geplant. Kunden berichten uns, dass Neuron es ihnen heute leicht macht, ihre bestehenden Modelltrainings- und Inferenzpipelines mit nur wenigen Codezeilen auf Trainium und Inferentia umzustellen.

Niemand sonst bietet diese Kombination aus der Wahl der besten ML-Chips, superschnellem Netzwerk, Virtualisierung und Hyperscale-Clustern. Daher ist es nicht verwunderlich, dass einige der bekanntesten Startups im Bereich der generativen KI, wie AI21 Labs, Anthropic, Hugging Face, Perplexity AI, Runway und Stability AI, auf AWS setzen. Allerdings benötigt man die richtigen Werkzeuge, um diese Rechenleistung effektiv zu nutzen und LLMs sowie andere FMs effizient und kosteneffektiv entwickeln, trainieren und betreiben zu können. Für viele dieser Startups ist Amazon SageMaker die Lösung. Egal, ob es darum geht, ein neues proprietäres Modell von Grund auf zu entwickeln und trainieren oder mit einem der vielen beliebten öffentlich verfügbaren Modelle zu beginnen, ML-Training ist komplex und teuer. Auch das kosteneffiziente Betreiben dieser Modelle ist nicht trivial. Kunden müssen große Datenmengen akquirieren, bereinigen, anreichern, transformieren und von Duplikaten befreien. Anschließend müssen große GPU- oder Beschleuniger-Cluster erstellt und Code geschrieben werden, um das Training effizient über die Cluster zu verteilen. Regelmäßige Checkpoints, Pausieren, Inspizieren, Optimieren und manuelles Eingreifen bei Hardwareproblemen sind erforderlich. Viele dieser Herausforderungen sind nicht neu – aus diesen Gründen haben wir vor sechs Jahren Amazon SageMaker eingeführt, um Barrieren beim Modelltraining und -deployment abzubauen und Entwicklern einen einfacheren Weg zu bieten. Zehntausende Kunden nutzen SageMaker heute. Eine zunehmende Zahl wie LG AI Research, Perplexity AI, AI21, Hugging Face und Stability AI trainieren LLMs und andere FMs auf SageMaker. Kürzlich trainierte das Technology Innovation Institute das derzeit größte öffentlich verfügbare Falcon 180B-Modell auf SageMaker. Mit wachsenden Modellgrößen und -komplexitäten hat auch der Umfang von SageMaker zugenommen.

Im Laufe der Jahre haben wir mehr als 380 großartige Funktionen zu Amazon SageMaker hinzugefügt. Dazu gehören unter anderem automatisches Modelltuning, verteiltes Training, flexible Optionen für das Modelldeployment, Werkzeuge für ML Ops, Werkzeuge für die Datenvorbereitung, Feature-Stores, Notebooks, nahtlose Integration mit Human-in-the-Loop-Bewertungen im gesamten ML-Lebenszyklus und integrierte Funktionen für verantwortungsvolle KI. Wir innovieren weiterhin schnell, um sicherzustellen, dass SageMaker-Kunden auch zukünftig alle Modelle einschließlich LLMs und anderer FMs bauen, trainieren und Inferenz durchführen können. Mit zwei neuen Funktionen machen wir es Kunden nun noch einfacher und kosteneffizienter, große Modelle zu trainieren und zu deployen:

  • Erstens führen wir Amazon SageMaker HyperPod [EN] Diese vereinfachen das Training, indem sie mehr Prozesse für fehlertolerantes, verteiltes Training im großen Maßstab automatisieren (z.B. Konfiguration verteilter Trainingsbibliotheken, Skalierung von Trainingsworkloads über Tausende von Beschleunigern, Erkennung und Reparatur fehlerhafter Instanzen). Dadurch kann das Training um bis zu 40% beschleunigt werden. Kunden wie Perplexity AI, Hugging Face, Stability, Hippocratic, Alkaid und weitere nutzen SageMaker HyperPod bereits, um ihre Modelle zu entwickeln, zu trainieren oder weiterzuentwickeln.
  • Zweitens führen wir neue Funktionen ein um die Inferenz kosteneffizienter zu gestalten und die Latenzzeit zu reduzieren. Amazon SageMaker ermöglicht es Kunden nun, mehrere Modelle auf derselben Instanz zu deployen und Rechenressourcen zu teilen. Dies kann die Inferenzkosten durchschnittlich um 50% senken. SageMaker überwacht aktiv Instanzen, die Inferenzanfragen verarbeiten, und leitet Anfragen basierend auf der Verfügbarkeit intelligent weiter. Dies führt durchschnittlich zu einer 20% niedrigeren Inferenzlatenz. Kunden wie Conjecture, Salesforce und Slack nutzen SageMaker bereits für Modell-Inferenz aufgrund dieser Optimierungen.

Die mittlere Ebene des Stacks: Amazon Bedrock führt neue Modelle und eine Reihe neuer Funktionen ein, die Kunden das sichere Erstellen und Skalieren generativer KI-Anwendungen noch einfacher machen

Die mittlere Ebene des Stacks ist Amazon Bedrock. Es ermöglicht Kunden, aus branchenführenden Modellen von Anthropic, Stability AI, Meta, Cohere, AI21 und Amazon zu wählen, ohne selbst die erforderlichen Ressourcen und Zeit für die Modellerstellung investieren zu müssen. Diese Modelle können mit eigenen Daten angepasst werden und unterstützen alle bewährten Sicherheitsstandards, Zugriffskontrollen und Funktionen von AWS – alles über einen verwalteten Dienst. Unsere Lösung hierzu, Amazon Bedrock wurde Ende September allgemein verfügbar und das Kundenfeedback war überwältigend positiv. Kunden aus aller Welt und nahezu jeder Branche sind von Bedrock begeistert:

  • Adidas ermöglicht Entwicklern schnelle Antworten von grundlegenden bis hin zu technischen Fragen.
  • com plant maßgeschneiderte Reiseempfehlungen mit generativer KI.
  • Bridgewater Associates entwickelt einen Investment Analyst Assistant zur Diagrammerstellung, Finanzanalyse und Ergebniszusammenfassung.
  • Carrier macht präzisere Energieanalysen zugänglich, um Energieverbrauch und CO2-Emissionen zu reduzieren.
  • Clariant befähigt Mitarbeiter mit einem internen KI-Chatbot zur Beschleunigung von F&E, Vertriebsunterstützung und Kundenservice-Automatisierung.
  • GoDaddy hilft Kunden beim Erstellen von Websites, Finden von Lieferanten und Kundenkommunikation.
  • LexisNexis transformiert die Anwaltsarbeit mit KI-Recherche, -Zusammenfassung und Dokumentenmanagement.
  • Nasdaq automatisiert Untersuchungsabläufe bei Finanzkriminalität und Transaktionsüberwachung.

All diese und viele weitere vielfältige generative KI-Anwendungen laufen auf AWS.

Wir sind begeistert vom Momentum von Amazon Bedrock, aber das ist erst der Anfang. Was wir bei der Arbeit mit Kunden festgestellt haben ist, dass zwar alle schnell Fortschritte machen, die Entwicklung generativer KI mit neuen Optionen und Innovationen allerdings noch rasanter voranschreitet. Kunden stellen fest, dass es unterschiedliche Modelle gibt, die für verschiedene Anwendungsfälle oder auf unterschiedlichen Datensätzen besser geeignet sind. Einige Modelle eignen sich hervorragend für Zusammenfassungen, andere für Argumentation und Integration, wieder andere bieten exzellente Sprachunterstützung. Dann gibt es noch Bildgenerierung, Suchanwendungen und mehr – sowohl von proprietären als auch öffentlich verfügbaren Modellen. In Zeiten, in denen vieles unbekannt ist, ist die Fähigkeit zur Anpassung möglicherweise das wertvollste Werkzeug überhaupt. Es wird kein Modell geben, das alles kann. Und sicher nicht nur ein Technologieunternehmen, das alle Modelle bereitstellt. Kunden müssen verschiedene Modelle ausprobieren, zwischen ihnen wechseln oder sie innerhalb derselben Anwendung kombinieren können. Das bedeutet, sie benötigen eine große Auswahl an Modellanbietern – wie die Ereignisse der letzten 10 Tage deutlich gezeigt haben. Genau aus diesen Gründen haben wir Bedrock eingeführt. Deshalb kommt es bei Kunden so gut an. Wir entwickeln und iterieren auch weiterhin schnell, um Ihnen das einfache Bauen mit und Wechseln zwischen einer breiten Palette von Modellen mittels eines API-Aufrufs zu ermöglichen. Unser Ziel ist, die neuesten Modellanpassungstechniken in die Hände aller Entwickler zu legen, während Kunden und Daten sicher und privat bleiben. Wir freuen uns nun, mehrere neue Funktionen vorzustellen, die es Ihnen noch einfacher machen werden, generative KI-Anwendungen zu erstellen und zu skalieren:

  • Erweiterung der Modellauswahl mit Anthropic Claude 2.1, Claude 3 Sonnet und Haiku (Opus folgt demnächst), Meta Llama 2 70B und Ergänzungen zur Amazon Titan-Familie.
    In diesen frühen Tagen experimentieren unsere Kunden noch und lernen, welche Modelle sie für verschiedene Zwecke einsetzen möchten. Sie wollen die neuesten Modelle einfach ausprobieren und testen können, welche Fähigkeiten und Funktionen ihnen die besten Ergebnisse und Kostenstrukturen für ihre Anwendungsfälle liefern. Mit Amazon Bedrock sind sie nur einen API-Aufruf von einem neuen Modell entfernt. Einige der beeindruckendsten Ergebnisse, die Kunden in den letzten Monaten erzielt haben, stammen von LLMs wie Anthropics Claude-Modell. Dieses überzeugt durch eine Vielzahl von Aufgaben von anspruchsvoller Dialogführung und Inhaltserstellung bis hin zu komplexem Reasoning bei gleichzeitig hoher Zuverlässigkeit und Vorhersagbarkeit. Kunden berichten, dass Claude mit geringerer Wahrscheinlichkeit schädliche Ausgaben produziert, einfacher zu bedienen ist und leichter steuerbar als andere LLMs, sodass Entwickler mit weniger Aufwand ihre gewünschte Ausgabe erhalten.
    Anthropics hochmodernes Modell Claude 2 schneidet bei den GRE-Prüfungen für Lesen, Schreiben und quantitatives Denken über der 90. Perzentile ab. Und jetzt ist auch das neu veröffentlichte Claude 2.1-Modell in Amazon Bedrock verfügbar. Claude 2.1 bietet entscheidende Funktionen für Unternehmen wie ein branchenführendes 200.000 Token-Kontextfenster (doppelt so viel Kontext wie Claude 2.0), reduzierte Halluzinationsraten und deutlich verbesserte Genauigkeit, selbst bei sehr langen Kontextlängen. Claude 2.1 enthält zudem optimierte System-Prompts – Modellanweisungen für eine bessere Benutzererfahrung – und senkt gleichzeitig die Kosten für Prompts und Completions um 25 %. Inzwischen sind zudem auch die beiden Anthropic Claude 3 Modelle „Haiku“ und „Sonnet“ („Opus“ folgt demnächst) [EN] über Amazon Bedrock verfügbar.
    Für die wachsende Zahl von Kunden, die eine verwaltete Version von Metas öffentlich verfügbarem Llama 2-Modell nutzen möchten, bietet Amazon Bedrock Llama 2 13B an und fügt Llama 2 70B hinzu. Llama 2 70B eignet sich für große Aufgaben wie Sprachmodellierung, Textgenerierung und Dialogsysteme. Die öffentlichen Llama-Modelle wurden über 30 Millionen Mal heruntergeladen, und Kunden schätzen, dass Amazon Bedrock sie als verwalteten Service anbietet, ohne dass sie sich um Infrastruktur oder tiefgreifende ML-Expertise in ihren Teams kümmern müssen. Darüber hinaus bietet Stability AI für die Bilderzeugung eine Reihe beliebter Text-zu-Bild-Modelle an. Stable Diffusion XL 1.0 (SDXL 1.0) ist das fortschrittlichste dieser Modelle und steht jetzt allgemein in Amazon Bedrock zur Verfügung. Die neueste Ausgabe dieses beliebten Bildmodells verfügt über eine höhere Genauigkeit, einen besseren Fotorealismus und eine höhere Auflösung.Darüber hinaus nutzen Kunden auch unsere von AWS entwickelten und vortrainierten Amazon Titan-Modelle. Diese bieten leistungsstarke Fähigkeiten bei großartiger Wirtschaftlichkeit für viele Anwendungsfälle. Amazon hat in 25 Jahren ML und KI einiges gelernt über den Aufbau und Einsatz von Modellen. Wir haben sorgfältig ausgewählt, wie wir unsere Modelle trainieren und welche Daten wir verwenden. Wir stellen unseren Kunden eine Freistellung zur Verfügung, dass unsere Modelle oder deren Ausgaben kein Urheberrecht verletzen. Im April haben wir die ersten Titan-Modelle vorgestellt: Titan Text Lite – jetzt allgemein verfügbar – was ein kompaktes, kosteneffizientes Modell für Anwendungen wie Chatbots, Textzusammenfassung oder Copywriting ist und sich hervorragend zum Feintuning eignet. Titan Text Express – ebenfalls allgemein verfügbar – ist umfassender für eine breitere Palette textbasierter Aufgaben wie offene Textgenerierung und konversationellen Chat. Diese Textmodell-Optionen ermöglichen es Kunden, je nach Anwendungsfall und Anforderungen an Genauigkeit, Leistung und Kosten zu optimieren. Kunden wie Nexxiot, PGA Tour und Ryanair nutzen beide Titan-Textmodelle bereits.
    Wir bieten auch ein Einbettungsmodell, Titan Text Embeddings, für Suchanwendungen und Personalisierung an. Kunden wie Nasdaq erzielen großartige Ergebnisse damit, um die Fähigkeiten für Nasdaq IR Insight zu verbessern und Einblicke aus Dokumenten von über 9.000 globalen Unternehmen zu generieren. Wir werden mit der Zeit weitere Modelle zur Titan-Familie hinzufügen: Ein neues Einbettungsmodell Titan Multimodal Embeddings für multimodale Such- und Empfehlungserlebnisse mit Bild- und Texteingaben. Und ein neues Text-zu-Bild-Modell, den Amazon Titan Image Generator. Damit können Kunden aus Branchen wie Werbung, E-Commerce sowie Medien und Unterhaltung mithilfe von Texteingaben realistisch aussehende Bilder in Studioqualität und großen Mengen kostengünstig generieren. Wir freuen uns über das positive Feedback unserer Kunden auf die Titan-Modelle und werden auch hier weiterhin innovativ sein.
  • Neue Funktionen zur sicheren Anpassung Ihrer generativen KI-Anwendung mit Ihren proprietären Daten.
    Einer der wichtigsten Vorteile von Amazon Bedrock ist, wie einfach es ist, ein Modell anzupassen. Dies wird besonders spannend für Kunden, da hier die generative KI auf ihren Kern-Differenzierungsfaktor trifft – ihre Daten. Es ist jedoch äußerst wichtig, dass ihre Daten sicher bleiben, dass sie die Kontrolle darüber behalten und dass Modellverbesserungen privat für sie sind. Es gibt einige Möglichkeiten, dies zu erreichen, und Amazon Bedrock bietet die breiteste Auswahl an Anpassungsoptionen für mehrere Modelle.
    Die erste Möglichkeit ist das Fine-Tuning. Das Fine-Tuning eines Modells in Amazon Bedrock ist einfach. Sie wählen das Modell aus und Amazon Bedrock erstellt eine Kopie davon. Anschließend verweisen Sie auf einige beschriftete Beispiele (z.B. eine Reihe guter Frage-Antwort-Paare), die Sie in Amazon Simple Storage Service (Amazon S3) speichern. Amazon Bedrock „trainiert inkrementell“ (erweitert das kopierte Modell mit den neuen Informationen) anhand dieser Beispiele. Das Ergebnis ist ein privates, präziseres Fine-Tuning-Modell, das relevanterere und individuellere Antworten liefert. Wir freuen uns, bekannt zu geben, dass Fine-Tuning allgemein verfügbar ist für Cohere Command, Meta Llama 2, Amazon Titan Text (Lite und Express), Amazon Titan Multimodal Embeddings und in der Vorschau für Amazon Titan Image Generator. Darüber hinaus werden wir AWS-Kunden durch unsere Zusammenarbeit mit Anthropic bald Vorabzugang zu einzigartigen Funktionen für die Modellanpassung und das Fine-Tuning des hochmodernen Modells Claude gewähren.
    Eine zweite Technik zur Anpassung von LLMs und anderen FMs für Ihr Unternehmen ist die abrufgestützte Generierung (RAG). Damit können Sie die Antworten des Modells anpassen, indem Sie Ihre Prompts mit Daten aus mehreren Quellen, einschließlich Dokumentenrepositorys, Datenbanken und APIs, erweitern. Im September haben wir eine RAG-Funktion, Wissensdatenbanken für Amazon Bedrock, eingeführt, die Modelle sicher mit Ihren proprietären Datenquellen verbindet, um Ihre Prompts mit zusätzlichen Informationen zu ergänzen. So liefern Ihre Anwendungen relevanterere, kontextbezogenere und präzisere Antworten. Wissensdatenbanken sind jetzt allgemein via eine API verfügbar, die den gesamten RAG-Workflow abdeckt: vom Abrufen benötigter Texte zur Erweiterung eines Prompts über das Senden des Prompts an das Modell bis hin zur Rückgabe der Antwort. Wissensdatenbanken werden von Datenbanken mit Vektorfähigkeiten unterstützt, die numerische Darstellungen Ihrer Daten (Embeddings) speichern, auf die Modelle für RAG zugreifen können, einschließlich Amazon OpenSearch Service sowie anderer beliebter Datenbanken wie Pinecone und Redis Enterprise Cloud (Unterstützung für Amazon Aurora und MongoDB Vector kommt bald).
    Die dritte Möglichkeit, Modelle in Amazon Bedrock anzupassen, ist das Continued Pre-training. Bei dieser Methode baut das Modell auf seinem ursprünglichen Pre-Training für das allgemeine Sprachverständnis auf, um domänenspezifische Sprache und Terminologie zu erlernen. Dieser Ansatz richtet sich an Kunden, die über große Mengen nicht-beschrifteter, domänenspezifischer Informationen verfügen und ihre LLMs dafür schulen möchten, die für ihre Branche (und ihr Unternehmen) einzigartige Sprache, Redewendungen, Abkürzungen, Konzepte, Definitionen und Fachbegriffe zu verstehen. Im Gegensatz zum Fine-Tuning, das nur eine relativ geringe Datenmenge benötigt, wird das Pre-Training auf Basis großen Datensätzen (z.B. Tausenden von Textdokumenten) durchgeführt. Nun sind in Amazon Bedrock Funktionen für das Pre-Training für Titan Text Lite und Titan Text Express verfügbar.
  • Allgemeine Verfügbarkeit der Agenten für Amazon Bedrock zur Unterstützung bei der Ausführung von Mehrschrittaufgaben unter Verwendung von Systemen, Datenquellen und Unternehmenskenntnissen.
    LLMs sind hervorragend darin, Konversationen zu führen und Inhalte zu generieren. Jedoch wünschen sich Kunden, dass ihre Anwendungen noch mehr können. Sie sollen in der Lage sein, Aktionen auszuführen, Probleme zu lösen und mit verschiedenen Systemen zu interagieren, um Mehrschrittaufgaben wie Reisebuchungen, Schadensmeldungen oder Ersatzteilbestellungen abzuschließen. Amazon Bedrock kann dabei helfen. Mit Agenten wählen Entwickler ein Modell aus, schreiben einige grundlegende Anweisungen wie „Sie sind ein fröhlicher Kundendienstmitarbeiter“ und „Überprüfen Sie die Produktverfügbarkeit im Lagerbestandssystem“, verknüpfen das ausgewählte Modell mit den richtigen Datenquellen und Unternehmenssystemen (z.B. CRM- oder ERP-Anwendungen) und schreiben einige AWS Lambda-Funktionen, um die APIs auszuführen (z.B. Überprüfung der Verfügbarkeit eines Artikels im ERP-Lagerbestand). Amazon Bedrock analysiert die Anfrage automatisch und unterteilt sie in eine logische Sequenz unter Verwendung der Reasoning-Fähigkeiten des ausgewählten Modells, um zu bestimmen, welche Informationen benötigt werden, welche APIs aufgerufen werden müssen und wann sie aufgerufen werden müssen, um einen Schritt auszuführen oder eine Aufgabe zu lösen.
    Die jetzt allgemein verfügbaren Agenten können die meisten Geschäftsaufgaben planen und ausführen – von der Beantwortung von Kundenfragen zur Produktverfügbarkeit bis hin zur Aufnahme ihrer Bestellungen. Dabei müssen die Entwickler keine Kenntnisse über maschinelles Lernen haben, keine Prompts entwickeln, Modelle trainieren oder Systeme manuell verbinden. Amazon Bedrock macht all dies sicher und privat. Kunden wie Druva und Athene nutzen sie bereits, um die Genauigkeit und Geschwindigkeit der Entwicklung ihrer generativen KI-Anwendungen zu verbessern.
  • Einführung des Integritätsschutzes für Amazon Bedrock, damit Sie basierend auf Ihren Anwendungsfallsanforderungen und verantwortungsvollen KI-Richtlinien Sicherheitsmaßnahmen ergreifen können.
    Kunden möchten sicherstellen, dass Interaktionen mit ihren KI-Anwendungen sicher sind, toxische oder anstößige Sprache vermeiden, relevantfür ihr Unternehmen bleiben und mit ihren verantwortungsvollen KI-Richtlinien übereinstimmen. Mittels Integritätsschutz können Kunden Themen festlegen, die vermieden werden sollen, und Amazon Bedrock wird Nutzern nur genehmigte Antworten auf Fragen aus diesen eingeschränkten Kategorien liefern. Beispielsweise kann eine Online-Banking-Anwendung so eingerichtet werden, dass keine Anlageberatung erfolgt und unangemessene Inhalte (wie Hassreden und Gewalt) entfernt werden. Anfang 2024 werden Kunden auch in der Lage sein, personenbezogene Daten in Modellantworten zu schwärzen. Nach einer Kundeninteraktion mit einem Callcenter-Agenten wird das Kundendienstgespräch oft zur Auswertung zusammengefasst. Der Integritätsschutz kann hierbei personenbezogene Daten aus den Zusammenfassungen entfernen. Der Integritätsschutz kann für Modelle in Amazon Bedrock (einschließlich Fine-Tuning-Modelle) und mit Agenten für Amazon Bedrock eingesetzt werden, sodass Kunden ein konsistentes Schutzniveau für alle ihre generativen KI-Anwendungen gewährleisten können.

Oberste Ebene des Stacks: Kontinuierliche Innovationen machen generative KI für mehr Nutzer zugänglich

Auf der obersten Ebene des Stacks befinden sich Anwendungen, die LLMs und andere FMs nutzen, damit Sie generative KI am Arbeitsplatz nutzen können. Ein Bereich, in dem generative KI das Spiel bereits verändert, ist die Programmierung. Letztes Jahr haben wir Amazon CodeWhisperer eingeführt, das Ihnen hilft, Anwendungen schneller und sicherer zu erstellen, indem es nahezu in Echtzeit Codevorschläge und Empfehlungen generiert. Kunden wie Accenture, Boeing, Bundesliga, The Cigna Group, Kone und Warner Music Group nutzen CodeWhisperer, um die Produktivität ihrer Entwickler zu steigern – und Accenture stattet bis zu 50.000 ihrer Softwareentwickler und IT-Profis mit Amazon CodeWhisperer aus. Wir möchten, dass so viele Entwickler wie möglich von den Produktivitätsvorteilen der generativen KI profitieren können, weshalb CodeWhisperer allen Einzelpersonen kostenlose Empfehlungen bereitstellt.

Obwohl KI-Coding-Tools die Erfahrung Ihrer Entwickler sehr erleichtern können, sind ihre Produktivitätsvorteile durch fehlende Kenntnisse interner Codebases, interner APIs, Bibliotheken, Pakete und Klassen begrenzt. Man kann sich das so vorstellen: Wenn Sie einen neuen Entwickler einstellen, wird er selbst bei Weltklasse-Niveau in Ihrem Unternehmen zunächst nicht sehr produktiv sein, bis er Ihre Best Practices und Ihren Code versteht. Die heutigen KI-gestützten Coding-Tools sind wie dieser neue Entwickler. Um hier zu helfen, haben wir kürzlich eine neue Anpassungsfunktion in Amazon CodeWhisperer [EN] vorgestellt, die die interne Codebasis eines Kunden sicher nutzt, um relevantere und nützlichere Codeempfehlungen zu geben. Mit dieser Funktion ist CodeWhisperer ein Experte für Ihren Code und liefert relevantere Empfehlungen, um noch mehr Zeit zu sparen. In einer Studie mit Persistent, einem globalen Unternehmen für Digital Engineering und Unternehmensmodernisierung, haben wir festgestellt, dass Anpassungen Entwicklern helfen, Aufgaben bis zu 28% schneller abzuschließen als mit den allgemeinen Funktionen von CodeWhisperer. Jetzt kann ein Entwickler eines Healthtech-Unternehmens CodeWhisperer bitten: „Importiere die mit der Kunden-ID verknüpften MRT-Bilder und führe sie durch den Bildklassifizierer“, um Anomalien zu erkennen. Da CodeWhisperer Zugriff auf die Codebasis hat, kann es viel relevantere Vorschläge liefern, die Import-Standorte für MRT-Bilder und Kunden-IDs enthalten. CodeWhisperer hält Anpassungen vollständig privat und das zugrunde liegende FM verwendet sie nicht für das Training, wodurch der wertvolle geistige Besitz der Kunden geschützt wird. AWS ist der einzige große Cloud-Anbieter, der allen Kunden eine solche Funktion anbietet.

Vorstellung von Amazon Q, dem generativen KI-gestützten Assistenten speziell für die Arbeit

Entwickler sind nicht die einzigen, die mit generativer KI arbeiten – Millionen von Menschen nutzen generative KI-Chatanwendungen. Die Leistungen der frühen Anbieter in diesem Bereich sind aufregend und äußerst nützlich für Verbraucher. Allerdings funktionieren diese Anwendungen im beruflichen Umfeld nicht optimal. Ihr allgemeines Wissen und ihre Fähigkeiten sind beeindruckend, aber sie kennen weder Ihr Unternehmen, Ihre Daten, Kunden, Abläufe noch Ihr Geschäft. Das schränkt ein, wie sehr sie Ihnen helfen können. Zudem wissen sie nichts über Ihre Rolle – welche Aufgaben Sie erledigen, mit wem Sie zusammenarbeiten, welche Informationen Sie nutzen und auf welche Ressourcen Sie zugreifen können. Diese Einschränkungen sind nachvollziehbar, da diese Assistenten keinen Zugriff auf vertrauliche Unternehmensinformationen haben und nicht für die Erfüllung von Datenschutz- und Sicherheitsanforderungen ausgelegt sind, die Unternehmen stellen müssen. Es ist schwierig, Sicherheitsmaßnahmen nachträglich zu implementieren und eine reibungslose Funktion zu gewährleisten. Wir glauben, einen besseren Ansatz gefunden zu haben, der es allen Mitarbeitern jeder Organisation ermöglicht, generative KI sicher in ihre täglichen Arbeiten zu integrieren.

Wir freuen uns, Amazon Q vorzustellen – einen neuartigen, generativen KI-Assistenten, der speziell für den Arbeitsalltag entwickelt wurde und an Ihr Unternehmen angepasst werden kann. Q hilft Ihnen dabei, schnell relevante Antworten auf dringende Fragen zu finden, Probleme zu lösen, Inhalte zu erstellen und Aktionen unter Verwendung der Daten und Fachkenntnisse durchzuführen, die in den Informationsquellen, dem Code und den Unternehmenssystemen Ihres Unternehmens enthalten sind. Wenn Sie mit Amazon Q chatten, erhalten Sie sofort relevante Informationen und Ratschläge, um Aufgaben zu vereinfachen, Entscheidungsprozesse zu beschleunigen und Kreativität und Innovation bei der Arbeit zu fördern. Wir haben Amazon Q sicher und vertraulich gestaltet. Es kann Ihre bestehenden Identitäten, Rollen und Berechtigungen erkennen, respektieren und diese Informationen nutzen, um die Interaktionen zu personalisieren. Nutzer ohne Zugriffsberechtigung für bestimmte Daten können auch mit Q nicht auf diese zugreifen. Amazon Q wurde von Grund auf entwickelt, um den strengen Anforderungen von Unternehmenskunden gerecht zu werden – keine Inhalte werden zur Verbesserung der zugrunde liegenden Modelle verwendet.

Amazon Q ist Ihr Experte für den Einsatz von AWS:
Wir haben Amazon Q mit 17 Jahren Wissen und Erfahrung rund um AWS trainiert. Dadurch kann es die Art und Weise transformieren, wie Sie Anwendungen und Workloads auf AWS entwickeln, bereitstellen und betreiben. Amazon Q bietet eine Chat-Schnittstelle in der AWS Management Console, der Dokumentation, Ihrer IDE (über CodeWhisperer) und Ihren Team-Chaträumen auf Slack oder anderen Chat-Apps. Amazon Q kann Ihnen dabei helfen, neue AWS-Funktionen zu erkunden, schneller loszulegen, unbekannte Technologien zu erlernen, Lösungen zu entwerfen, Probleme zu beheben, Upgrades durchzuführen und vieles mehr. Es ist ein Experte für AWS-Well-Architected-Patterns, Best Practices, Dokumentation und Lösungsumsetzungen. Hier sind einige Beispiele, was Sie mit Ihrem neuen AWS-Expertenassistenten machen können:

  • Erhalten Sie präzise Antworten und Anleitungen zu AWS-Funktionen, -Diensten und -Lösungen: Stellen Sie Amazon Q Fragen wie „Erzähle mir von Agenten für Amazon Bedrock“, und Q liefert Ihnen eine Beschreibung der Funktion samt Links zu relevanten Materialien. Sie können Amazon Q praktisch jede Frage stellen, wie ein AWS-Dienst funktioniert (z.B. „Welche Skalierungsgrenzen gibt es bei einer DynamoDB-Tabelle?“ oder „Was ist Redshift Managed Storage?“) oder wie man am besten eine Reihe von Lösungen architekturiert („Was sind die Best Practices für den Aufbau ereignisgesteuerter Architekturen?“). Amazon Q fasst prägnante Antworten zusammen und zitiert dabei immer seine Quellen (inklusive Verlinkungen).
  • Wählen Sie den perfekten AWS-Dienst für Ihr Projekt und starten Sie zügig: Stellen Sie Amazon Q die Frage „Wie kann ich eine Web-App auf AWS erstellen?“. Q liefert Ihnen dann eine Liste potenzieller Dienste wie AWS Amplify, AWS Lambda und Amazon EC2, inklusive der Vorteile jedes Einzelnen. Von dort aus können Sie die Optionen eingrenzen, indem Sie Q dabei unterstützen, Ihre Anforderungen, Präferenzen und Einschränkungen zu verstehen. Fragen Sie zum Beispiel „Welcher Dienst wäre optimal, wenn ich Container nutzen möchte?“ oder „Sollte ich eine relationale oder nicht-relationale Datenbank verwenden?“. Abschließend fragen Sie „Wie fange ich an?“. Amazon Q skizziert daraufhin die grundlegenden Schritte und verweist Sie auf weiterführende Ressourcen.
  • Optimieren Sie Ihre Rechenleistung effizient: Amazon Q unterstützt Sie bei der Auswahl der passenden Amazon EC2-Instanz. Bitten Sie Q: „Hilf mir bitte, die richtige EC2-Instanz zu finden, um eine Video-Encoding-Workload für meine Gaming-App mit maximaler Leistung zu deployen.“ Q liefert Ihnen dann eine Liste geeigneter Instanzfamilien inklusive Begründungen für jeden Vorschlag. Stellen Sie beliebig viele Folgefragen, um die optimale Wahl für Ihre spezifische Anwendung zu treffen.
  • Nutzen Sie Amazons Support beim Debuggen, Testen und Optimieren Ihres Codes: Wenn Ihr Code in der IDE einen Fehler aufweist, können Sie Amazon Q um Hilfe bitten: „Mein Code hat einen IO-Fehler, kannst du eine Lösung vorschlagen?“. Q generiert dann einen Lösungsvorschlag für Sie. Gefällt Ihnen der Vorschlag, kann Q die Korrektur direkt in Ihrer Anwendung vornehmen. Da Q in Ihrer IDE integriert ist, versteht es den Kontext Ihres Codes und weiß, wo die Änderung einzufügen ist. Q kann auch Unit-Tests erstellen – sagen Sie einfach „Schreibe Unit-Tests für die ausgewählte Funktion“. Diese Tests fügt Q in Ihren Code ein, damit Sie sie ausführen können. Letztlich zeigt Ihnen Q Wege zur Codeoptimierung für mehr Leistung auf: „Optimiere meine ausgewählte DynamoDB-Abfrage“. Q nutzt sein Verständnis Ihres Codes, um einen Optimierungsvorschlag in natürlicher Sprache samt Code bereitzustellen, den Sie per einfachem Klick direkt implementieren können.
  • Diagnose und Fehlerbehebung: Wenn Sie in der AWS Management Konsole auf Probleme wie EC2-Berechtigungsfehler oder Amazon S3-Konfigurationsfehler stoßen sollten, können Sie einfach auf den „Fehlerbehebung mit Amazon Q“-Button klicken. Q nutzt dann Verständnis der Fehlerart und des betroffenen Dienstes, um Lösungsvorschläge zu unterbreiten. Sie können Q sogar bitten, Ihr Netzwerk zu diagnostizieren, z.B. „Warum kann ich mich nicht per SSH mit meiner EC2-Instanz verbinden?“. Q analysiert daraufhin Ihre Ende-zu-Ende-Konfiguration und stellt eine Diagnose (z.B. „Diese Instanz scheint in einem privaten Subnetz zu liegen, möglicherweise muss die öffentliche Zugänglichkeit hergestellt werden“).
  • Erarbeiten Sie sich neuen Code in kürzester Zeit: Die Kombination aus Amazon Qs Expertise im Softwarebau und dem Verständnis Ihres Codes direkt in Ihrer IDE ist eine mächtige Synergie! Früher mussten Sie bei der Übernahme eines Projekts oder als Neuzugang im Team stundenlang Code und Dokumentation manuell studieren, um zu verstehen, wie alles funktioniert. Dank Qs Codeanalyse in Ihrer IDE können Sie jetzt einfach fragen: „Beschreibe bitte, was diese Anwendung tut und wie sie funktioniert.“ Q liefert Ihnen dann Details wie verwendete Dienste und Funktionen der App (z.B. „Diese Python-Flask-und-AWS-Lambda-Anwendung ist ein einfaches Support-Ticket-System“ und erläutert die Kerneigenschaften und deren Implementierung).
  • Arbeiten Sie Ihr Feature-Backlog schneller ab: Sie können Amazon Q sogar durch den gesamten Prozess der Hinzufügung eines Features zu Ihrer Anwendung in Amazon CodeCatalyst, unserem einheitlichen Softwareentwicklungsdienst für Teams, führen lassen und vieles davon automatisieren. Weisen Sie Q einfach eine Aufgabe aus Ihrer Issue-Liste zu – genauso wie bei einem Teammitglied. Q erstellt dann einen schrittweisen Plan zur Feature-Implementierung. Nach Ihrer Genehmigung des Plans, schreibt Q den Code und präsentiert die vorgeschlagenen Änderungen als Code-Review. Sie können Überarbeitungen anfordern (falls nötig), genehmigen und/oder direkt deployen!
  • Aktualisieren Sie Ihren Code in Rekordzeit: Die meisten Entwickler verbringen tatsächlich nur einen Bruchteil ihrer Zeit mit dem Schreiben neues Codes und der Anwendungsentwicklung. Weitaus mehr Zeit entfällt auf mühsame Aufgaben wie Wartung und Upgrades. Betrachten wir Sprachversionsupdates: Viele Kunden nutzen veraltete Java-Versionen weiter, da ein Upgrade Monate bis Jahre und tausende Entwicklerstunden kosten würde. Diese Verzögerung birgt reale Kosten und Risiken – verpasste Leistungsvorteile und Sicherheitsprobleme. Amazon Q Code Transformation könnte hier ein Game Changer sein und die Aktualisierungszeit von Tagen auf Minuten reduzieren. Öffnen Sie einfach den zu aktualisierenden Code in Ihrer IDE und bitten Sie Amazon Q „Transformiere meinen Code“. Q analysiert den kompletten Quellcode, generiert die Zielversion mit Tests, damit Sie Sicherheits- und Performancevorteile der aktuellen Version nutzen können. Kürzlich hat ein kleines Amazon-Team mit Q Code Transformation 1.000 Produktionsanwendungen in nur zwei Tagen von Java 8 auf 17 aktualisiert – durchschnittlich weniger als 10 Minuten pro App. Derzeit führt Q Code Transformation Java-Upgrades von 8 oder 11 auf 17 durch. Als Nächstes folgt die Transformation von .NET Framework zu plattformunabhängigem .NET (mit noch mehr Transformatins-Optionen in Zukunft).

Amazon Q ist Ihr maßgeschneiderter Geschäftsassistent: Sie können Q mit Ihren Geschäftsdaten, -informationen und -systemen verbinden, damit es alles zusammenführt und Ihnen zielgerichtete Unterstützung beim Problemlösen, Inhaltegenerieren und Durchführen geschäftsrelevanter Aktionen bietet. Die Integration von Q in Ihr Unternehmen ist einfach: Es verfügt über 40+ vorgefertigte Konnektoren zu gängigen Business-Systemen wie Amazon S3, Microsoft 365, Salesforce, ServiceNow, Slack, Atlassian, Gmail, Google Drive und Zendesk. Q kann auch Ihr Intranet, Wikis und Runbooks anbinden. Mit dem Q SDK stellen Sie Verbindungen zu jeder gewünschten internen Anwendung her. Richten Sie Q auf diese Datenquellen aus – es „lernt“ Ihr Geschäft, indem es die einzigartigen semantischen Informationen erfasst und versteht. Sie erhalten dann Ihre eigene benutzerfreundliche Amazon Q Web-App, über die Mitarbeiter mit der Konversationsschnittstelle interagieren können. Q verbindet sich mit Ihrem Identitätsanbieter, um Benutzer, Rollen und Zugriffsberechtigungen zu verstehen, sodass angepasste, detaillierte Ergebnisse nur die Informationen enthalten, die der Benutzer sehen darf. Qs Antworten und Einblicke sind genau und getreu den von Ihnen bereitgestellten Materialien. Sie können sensible Themen einschränken, Schlüsselwörter blockieren oder unangemessene Inhalte filtern. Hier einige Beispielanwendungen für Ihren neuen Geschäftsassistenten:

  • Erhalten Sie präzise, höchstrelevante Antworten basierend auf Ihren Geschäftsdaten und -informationen: Ihre Mitarbeiter können Amazon Q alle Fragen stellen, für die sie früher möglicherweise verschiedenste Quellen durchsuchen mussten. Bei Fragen wie „Was sind die neuesten Richtlinien zur Logo-Verwendung?“ oder „Wie beantrage ich eine Firmenkreditkarte?“ synthetisiert Q alle relevanten Inhalte und liefert schnelle Antworten mit Links zu den entsprechenden Quellen (z.B. Marken- und Logo-Portale, Reisekosten- und Kartenantragsrichtlinien).
  • Vereinfachen Sie die tägliche Kommunikation: Stellen Sie Amazon Q einfach Aufgaben und es kann Inhalte generieren („Erstelle einen Blogpost und drei Social-Media-Überschriften zur Ankündigung des in dieser Dokumentation beschriebenen Produkts“), Executive-Zusammenfassungen liefern („Fasse das Meeting-Protokoll mit einer Aktionspunkteliste zusammen“), E-Mail-Updates erstellen („Entwirf eine E-Mail, die unsere Q3-Trainingsprogramme für Kunden in Indien hervorhebt“) und Meetings strukturieren („Erstelle eine Tagesordnung für ein Meeting zur Besprechung des neuesten Kundenzufriedenheitsberichts“).
  • Aufgaben erledigen: Amazon Q kann Ihnen zeitaufwändige, wiederkehrende Arbeiten wie das Einreichen von Tickets abnehmen. Bitten Sie Q „Fasse das Kundenfeedback zum neuen Preisangebot in Slack zusammen“ und anschließend „Öffne basierend auf diesen Infos ein Ticket in Jira, um das Marketingteam zu informieren“. Oder sagen Sie „Fasse dieses Anruf-Transcript zusammen“ und dann „Öffne einen neuen Fall für Kunde A in Salesforce“. Q unterstützt auch andere gängige Workflowautomatisierungstools wie Zendesk und ServiceNow.

Amazon Q in Amazon QuickSight: Mit Amazon Q in Amazon QuickSight, dem Business-Intelligence-Service von AWS, können Benutzer ihre Dashboards ganz einfach befragen. Stellen Sie Fragen wie „Warum hat sich die Anzahl der Bestellungen letzten Monat erhöht?“, und Sie erhalten übersichtliche Visualisierungen und Erklärungen zu den Faktoren, die zur Erhöhung beigetragen haben. Analysten können Amazon Q auch nutzen, um die Zeit für die Erstellung von Dashboards drastisch zu reduzieren – von Tagen auf Minuten. Geben Sie einfache Aufforderungen wie „Zeige mir den Umsatz nach Regionen pro Monat als gestapeltes Balkendiagramm“ ein. Q liefert sofort das gewünschte Diagramm, das Sie dann mit wenigen Klicks einem Dashboard hinzufügen können. Darüber hinaus können Sie direkt mit Q chatten, um die Visualisierung weiter anzupassen, z.B. „Ändere das Balkendiagramm in ein Sankey-Diagramm“ oder „Zeige Länder statt Regionen“.
Amazon Q in QuickSight erleichtert auch das Informieren von Entscheidungsträgern anhand bestehender Dashboards. Nutzen Sie Q, um Schlüsseleinsichten zu destillieren und die Entscheidungsfindung mit datengesteuerten Geschichten zu vereinfachen. Beispielsweise können Benutzer Q auffordern: „Erstelle eine Geschichte darüber, wie sich das Geschäft im letzten Monat für eine Geschäftsüberprüfung mit der Führungsebene verändert hat“. In Sekunden liefert Q eine ansprechende und voll anpassbare datengestützte Erzählung. Diese Geschichten lassen sich sicher in der gesamten Organisation teilen, um Stakeholder auf den gleichen Stand zu bringen und fundierte Entscheidungen zu fördern.

Amazon Q in Amazon Connect: Amazon Q in Amazon Connect [EN] unterstützt Ihre Kundendienstmitarbeiter dabei, einen besseren Service zu bieten. Q nutzt die Wissensdatenbanken, auf die Ihre Agenten normalerweise zugreifen, und stellt diese Informationen für Kunden bereit. Die Agenten können dann direkt in Connect mit Q chatten, um Antworten zu erhalten, die ihnen helfen, schneller auf Kundenanfragen zu reagieren – ohne selbst in der Dokumentation suchen zu müssen. Doch im Kundenservice gibt es kein „zu schnell“. Deshalb verwandelt Q in Connect ein laufendes Kundengespräch in eine Aufforderung und liefert automatisch mögliche Antworten, Handlungsempfehlungen und Links zu relevanten Ressourcen.
Beispiel: Q erkennt, dass ein Kunde die Autovermietung kontaktiert, um seine Reservierung zu ändern. Q generiert dann eine Antwort für den Agenten zur Änderungsgebührenpolitik des Unternehmens und leitet ihn durch die notwendigen Schritte, um die Reservierung zu aktualisieren. So kann der Agent die Anfrage schnell und korrekt bearbeiten.

Amazon Q in AWS Supply Chain (Demnächst verfügbar): In AWS Supply Chain, unserem Service für Supply Chain-Einblicke, hilft Amazon Q schon bald Versorgungs- und Nachfrageplanern, Bestandsmanagern und Handelspartnern dabei, ihre Lieferkette zu optimieren. Q fasst potenzielle Risiken wie Lagerausfälle oder Überbestände zusammen, hebt sie hervor und visualisiert Szenarien zur Problemlösung. Benutzer können Q Fragen zu ihren Lieferkettendaten stellen, z.B. „Was“, „Warum“ und „Was wäre wenn“-Fragen. So lassen sich komplexe Szenarien und Kompromisse zwischen verschiedenen Lieferkettenentscheidungen durchsprechen.
Beispiel: Ein Kunde fragt „Was verursacht die Verzögerung meiner Lieferungen und wie kann ich die Dinge beschleunigen?“. Q antwortet: „90% Ihrer Bestellungen befinden sich an der Ostküste, ein Sturm im Südosten verursacht 24h Verzögerung. Wenn Sie zum Hafen von New York statt Miami verschiffen, beschleunigen Sie die Lieferungen und reduzieren die Kosten um 50%.“ Auf diese Weise kann Q Ihnen dabei helfen, Lieferketten durch Datenanalyse und Visualisierung potenzieller Lösungen zu optimieren.

Unsere Kunden setzen generative KI rasant ein – sie trainieren bahnbrechende Modelle auf AWS, entwickeln generative KI-Anwendungen in Rekordzeit mithilfe von Amazon Bedrock und bringen transformative Lösungen wie Amazon Q in ihren Organisationen zum Einsatz.
Mit unseren neuesten Ankündigungen auf der re:Invent bietet AWS noch mehr Leistung, Auswahl und Innovation auf allen Ebenen. Die Summe der neuen Fähigkeiten markiert einen wichtigen Meilenstein: Wir machen generative KI für Kunden jeder Größe und technischen Expertise zugänglich. So können sie Grenzen verschieben und neu definieren, was möglich ist.

Ressourcen

G2 Krishnamoorthy und Rahul Pathak teilen ihre Ideen zur Erschließung des Werts von Daten als Unterscheidungsmerkmal [EN]
Tauchen Sie tiefer in unsere neuen Tools und Fähigkeiten ein, um verantwortungsvolle KI-Innovationen zu ermöglichen [EN]

Über den Autor

Swami Sivasubramanian
Swami Sivasubramanian ist Vizepräsident für Daten und maschinelles Lernen bei AWS. In dieser Rolle überwacht Swami alle AWS-Datenbank-, Analyse- und KI- und maschinellen Lerndienste. Die Mission seines Teams besteht darin, Unternehmen dabei zu helfen, ihre Daten mit einer vollständigen End-to-End-Datenlösung zum Speichern, Zugreifen, Analysieren, Visualisieren und Vorhersagen nutzbar zu machen.