AWS Germany – Amazon Web Services in Deutschland
Bedeutende neue Funktionen machen es einfacher, Amazon Bedrock zu nutzen, um generative KI-Anwendungen zu erstellen, zu skalieren und beeindruckende Ergebnisse zu erzielen.
Von Swami Sivasubramanian übersetzt durch David Surey
Wir haben Amazon Bedrock vor etwas mehr als einem Jahr der Welt vorgestellt und damit einen völlig neuen Weg aufgezeigt, um generative Künstliche-Intelligenz (KI)-Anwendungen zu entwickeln. Mit der breitesten Auswahl an Basismodellen (engl. Foundation Model, FM) von Erst- und Drittanbietern sowie benutzerfreundlichen Funktionen ist Amazon Bedrock der schnellste und einfachste Weg, um sichere generative KI-Anwendungen zu erstellen und zu skalieren. Heute nutzen zehntausende Kunden Amazon Bedrock, um beeindruckende Anwendungen zu entwickeln und zu skalieren. Sie innovieren schnell, einfach und sicher, um ihre KI-Strategien voranzutreiben. Wir unterstützen ihre Bemühungen indem wir Amazon Bedrock mit spannenden neuen Funktionen erweitern: Darunter eine noch breitere Modellauswahl und neue Funktionen, die es erleichtern das richtige Modell auszuwählen und für einen bestimmten Anwendungsfall anzupassen. Desweiteren Funktionen um generative KI-Anwendungen abzusichern und zu skalieren.
Kunden aus verschiedenen Branchen, von Finanzen über Reisen und Tourismus bis hin zu Gesundheitswesen und im Konsumgütersektor, erzielen bemerkenswerte Fortschritte. Sie realisieren echten Mehrwert, indem sie generative KI-Anwendungen schnell in die Produktion bringen, um Kundenerlebnisse zu verbessern und die operative Effizienz zu steigern.
Betrachten wir die New York Stock Exchange (NYSE), den größten Kapitalmarkt der Welt, der täglich Milliarden von Transaktionen abwickelt. Die NYSE nutzt die Auswahl an FMs und modernsten generativen KI-Fähigkeiten von Amazon Bedrock für mehrere Anwendungsfälle. Darunter die Verarbeitung tausender Seiten an Vorschriften, um Antworten in leicht verständlicher Sprache zu liefern.
Die Fluggesellschaft United Airlines hat ihr Passagier-Service-System modernisiert, um veraltete Reservierungscodes in einfaches Englisch zu übersetzen. So können die Mitarbeiter einen schnellen und effizienten Kundensupport bieten.
LexisNexis Legal & Professional, ein führender, globaler Anbieter von Wissen und Analysen, hat einen personalisierten Rechts-Assistenten mit generativer KI auf Lexis+ AI entwickelt. Ihre Kunden erhalten vertrauenswürdige Ergebnisse doppelt so schnell wie das nächstbeste Konkurrenzprodukt und sparen bis zu fünf Stunden pro Woche bei Rechtsrecherchen und Zusammenfassungen.
HappyFox, ein Online-Helpdesk-Software-Anbieter, wählte Amazon Bedrock wegen Sicherheit und Leistung. Die Effizienz des KI-gestützten automatischen Ticket-Systems in der Kundensupport-Lösung stieg um 40 Prozent, die Produktivität der Supportmitarbeiter um 30 Prozent.
Auch bei Amazon treiben wir Innovationen mit generativer KI voran, um noch immersivere und ansprechendere Kundenerlebnisse zu bieten. Letzte Woche kündigte Amazon Music „Maestro“ an – einen KI-Playlist-Generator unterstützt durch Amazon Bedrock. Dieser bietet Abonnenten eine einfachere und spaßigere Möglichkeit, Playlists anhand von Prompts zu erstellen. Maestro wird derzeit in einer Beta-Phase für eine kleine Zahl von US-Kunden aller Amazon-Music Abo-Klassen eingeführt.
Mit Amazon Bedrock konzentrieren wir uns auf die Kernbereiche, die Kunden benötigen, um produktionsbereite, unternehmenstaugliche generative KI-Anwendungen zu den richtigen Kosten und mit der nötigen Geschwindigkeit zu entwickeln. Nun freue ich mich, neue Funktionen vorzustellen, die wir in den Bereichen Modellauswahl, Tools zum Erstellen generativer KI-Anwendungen sowie Datenschutz und Sicherheit angekündigt haben.
Amazon Bedrock erweitert die Modellauswahl mit Llama 3 Modellen und hilft Ihnen, das beste Modell für Ihre Bedürfnisse zu finden
In diesen frühen Tagen experimentieren Kunden noch und lernen, welche Modelle sie für verschiedene Zwecke einsetzen möchten. Sie wollen die neuesten Modelle einfach ausprobieren und testen, welche Fähigkeiten und Funktionen die besten Ergebnisse und Kostenstrukturen für ihre Anwendungsfälle liefern. Die Mehrheit der Amazon Bedrock Kunden nutzt mehr als ein Modell. Amazon Bedrock bietet die breiteste Auswahl an großen Sprachmodellen (engl. Large Langurage Model, LLM) und anderen FMs von Erst- und Drittanbietern. Dazu gehören Modelle von AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI sowie unsere eigenen Amazon Titan Modelle.
Joel Hron, Leiter für KI und Thomson Reuters Labs bei Thomson Reuters, sagte kürzlich über ihre Einführung von Amazon Bedrock sinngemäß: „Die Möglichkeit eine Vielzahl von Modellen nutzen zu können, sobald diese verfügbar sind, war für uns ein Hauptgrund Amazon Bedrock auszuwählen, gerade angesichts der rasanten Entwicklung in diesem Bereich.“
Die hochmodernen Modelle der Mistral AI Modell-Familie, darunter Mistral 7B [EN], Mixtral 8x7B [EN] und Mistral Large [EN], begeistern Kunden mit ihrer hohen Leistung bei Textgenerierung, Zusammenfassung, Frage-Antwort und Code-Generierung. Seit der Einführung der Anthropic Claude 3 Modell-Familie haben tausende Kunden erlebt, wie Claude 3 Haiku, Sonnet und Opus neue Maßstäbe bei kognitiven Aufgaben mit unübertroffener Intelligenz, Geschwindigkeit und Kosteneffizienz setzen. Nach der ersten Evaluierung mit Claude, 3 Haiku und Opus in Amazon Bedrock konnte zum Beispiel BlueOcean.ai – eine Markenüberwachungsplattform – ihre Kosten für Ihre GenAI Anwendung um über 50% senken. Dies gelang, indem vier separate API-Aufrufe zu einem einzigen, effizienteren Aufruf konsolidiert wurden.
Masahiro Oba, Generaldirektor für Federated Governance der DX-Plattform bei der Sony Group Corporation, teilte sinngemäß mit:
„Auch wenn die Anwendung von generativer KI im Geschäftsumfeld viele Herausforderungen mit sich bringt, helfen uns die vielfältigen Fähigkeiten von Amazon Bedrock dabei, generative KI-Anwendungen an die Bedürfnisse von Sony anzupassen. Wir können nicht nur die leistungsstarken LLM-Fähigkeiten von Claude 3 nutzen, sondern auch Funktionen, die uns dabei unterstützen, Anwendungen auf Unternehmensebene abzusichern. Ich bin wirklich stolz darauf, mit dem Bedrock-Team zusammenzuarbeiten, um generative KI innerhalb der Sony Group weiter zu demokratisieren.“
Ich habe mich kürzlich mit Aaron Linsky, CTO von Artificial Investment Associate Labs bei Bridgewater Associates, einer führenden Vermögensverwaltung, zusammengesetzt. Dort nutzen sie generative KI, um ihren „Artificial Investment Associate“ zu verbessern – einen großen Sprung nach vorn für ihre Kunden. Dieser baut auf ihrer Erfahrung mit regelbasierter Expertenberatung für Investitionsentscheidungen auf. Mit Amazon Bedrock können sie nun die besten verfügbaren Basismodelle wie Claude 3 für unterschiedliche Aufgaben einsetzen und grundlegendes Marktverständnis mit den flexiblen Schlussfolgerungsvermögen von KI kombinieren. Amazon Bedrock erlaubt es, einfach mit verschiedenen Modellen zu experimentieren. Dadurch kann Bridgewater ein leistungsfähiges System zum automatischen Investieren aufbauen. Dieses System kombiniert systematische Anlageberatung mit modernen Fähigkeiten durch Künstliche Intelligenz. Es ist ein sich fortlaufend verbessernder KI-gesteuerter Prozess.
Um den Kunden noch mehr Modellauswahl zu bieten, machten wir die Meta Llama 3 Modelle in Amazon Bedrock verfügbar [EN]. Llama 3 8B und Llama 3 70B sind für den Aufbau, das Experimentieren und die verantwortungsvolle Skalierung von generativen KI-Anwendungen konzipiert. Diese Modelle wurden gegenüber der vorherigen Modellarchitektur deutlich verbessert, einschließlich Hochskalierung des Vortrainings sowie Modelanpassungen für Instruktionen. Llama 3 8B überzeugt bei Textzusammenfassung, Klassifizierung, Stimmungsanalyse und Übersetzung. Es eignet sich somit ideal für den Betrieb auf begrenzte Ressourcen wie zum Beispiel Edge-Geräten. Llama 3 70B glänzt bei Inhaltserstellung, konversationeller KI, Sprachverständnis, Forschung und Entwicklung, präziser Zusammenfassung, nuancierter Klassifizierung/Stimmungsanalyse, Sprachmodellierung, Dialogsystemen, Code-Generierung und Befolgung von Instruktionen.
Die Enterprise-Basismodelle Cohere Command R und Command R+ sind nun in Amazon Bedrock verfügbar [EN]. Diese Modelle sind hochskalierbar und für Aufgaben mit langem Kontext wie retrievalgestützte Generierung (RAG – Retrieval-Augmented Generation) mit Zitaten zur Vermeidung von Halluzinationen, mehrstufige Werkzeugnutzung zur Automatisierung komplexer Geschäftsprozesse und Unterstützung von 10 Sprachen für sprachübergreifende Aktivitäten optimiert. Command R+ ist Coheres leistungsstärkstes Modell für Langtext-Aufgaben, während Command R für große Workloads in Produktion optimiert ist. Mit den in Amazon Bedrock verfügbaren Cohere-Modellen können Unternehmen generative KI-Anwendungen entwickeln, die für den täglichen KI-Betrieb über Projekte über den Proof-of-Concept Status hinaus starke Genauigkeit und Effizienz bieten.
Amazon Titan Image Generator und Amazon Titan Text Embeddings V2 sind jetzt allgemein verfügbar
Zusätzlich zur Aufnahme der leistungsfähigsten Drittanbieter-Modelle ist der Amazon Titan Image Generator allgemein verfügbar. Mit diesem Service können Kunden aus Branchen wie Werbung, E-Commerce, Medien und Unterhaltung effizient realistisch wirkende, hochwertige Bilder in Studioqualität und in großen Mengen sowie zu niedrigen Kosten mithilfe dialogbasierte Prompts generieren. Sie können generierte oder vorhandene Bilder mit Textprompts bearbeiten, Bildabmessungen konfigurieren oder die Anzahl der Bildvariationen vorgeben, um das Modell anzuleiten. Standardmäßig enthält jedes vom Titan Image Generator erzeugte Bild eine unsichtbare, digitale Markierung. Dies steht im Einklang mit dem AWS-Engagement zur Eindämmung von Desinformation und verantwortungsvollen sowie ethischen KI. Die Wasserzeichenerkennung [EN] identifiziert vom Amazon Titan Image Generator erstellte Bilder. Diese Erkennung ist, um die Transparenz bei KI-generierten Inhalten weiter zu erhöhen, manipulationssicher konzipiert. Diese Funktion hilft dabei, Risiken für geistiges Eigentum zu verringern. Außerdem unterstützt sie Inhalte-Ersteller, Nachrichtenorganisationen, Risikoanalysten, Betrugserkennungsteams und andere Gruppen. Sie können damit irreführende, KI-generierte Inhalte besser erkennen und deren Verbreitung eindämmen.
Amazon Titan Text Embeddings V2 kann effizient relevante Antworten für kritische Unternehmensanwendungsfälle wie zum Beispiel die Suche nach Informationen liefern. Effiziente Embedding-Modelle sind entscheidend, wenn RAG zum Anreichern von Prompts mit zusätzlichen Informationen genutzt wird. Amazon Titan Text Embeddings V2 ist für RAG-Anwendungen optimiert. Um effizient informative und relevante Antworten zu liefern integriert sich Amazon Titan Text Embeddings V2 nahtlos in Wissensdatenbanken für Amazon Bedrock. Es ermöglicht ein tieferes Verständnis von Datenbeziehungen für komplexe Aufgaben wie Abruf, Klassifizierung, semantische Ähnlichkeitssuche oder Verbesserung der Suchrelevanz.
Amazon Titan Text Embeddings V2 bietet flexible Embedding-Größen von 256, 512 und 1024 Dimensionen. Dadurch werden Kosten gespart, während 97% der Genauigkeit für RAG-Anwendungen erhalten bleibt. Das übertrifft andere führende Modelle. Die flexiblen Größen erfüllen unterschiedliche Anforderungen: Von Mobilanwendungen mit niedriger Latenz bis hin zu hochpräzisen, asynchronen Workflows.
Die neue Funktion Model Evaluation vereinfacht den Prozess des Zugriffs auf, Vergleichs und der Auswahl von LLMs und FMs
Die Wahl des richtigen Modells ist ein kritischer erster Schritt beim Aufbau jeder generativen KI-Anwendung. Die Leistung von LLMs kann je nach Aufgabe, Domäne, Datenmodalitäten und anderen Faktoren stark variieren. Ein Modell, das speziell für die Biomedizin trainiert wurde, funktioniert in medizinischen Situationen wahrscheinlich besser als allgemeine Gesundheitsmodelle. Andererseits kann ein Modell, das auf Programmieren ausgerichtet ist, Probleme bei Aufgaben zur Verarbeitung natürlicher Sprache haben. Die Nutzung eines übermäßig leistungsstarken Modells kann zu ineffizienter Ressourcennutzung führen, während ein leistungsschwaches Modell möglicherweise nicht die Mindestleistungsstandards erfüllt und dadurch potenziell falsche Ergebnisse liefert. Zudem kann die Auswahl eines ungeeigneten FMs zu Projektbeginn das Vertrauen der Stakeholder untergraben.
Angesichts der Vielzahl an Modellen möchten wir es Kunden erleichtern, das Richtige für ihren Anwendungsfall auszuwählen.
Das Model Evaluation Tool für Amazon Bedrock, jetzt allgemein verfügbar [EN], vereinfacht den Auswahlprozess durch Leistungsvergleich und Vergleich anhand spezifischer Datensätze und Evaluierungsmetriken. So stellen Entwickler sicher, das Modell auszuwählen, das am besten zu ihren Projektzielen passt. Dieses geführte Erlebnis ermöglicht es Entwicklern, Modelle anhand von Kriterien zu evaluieren, die auf jeden Anwendungsfall zugeschnitten sind. Über Model Evaluation wählen Entwickler Kandidatenmodelle zur Bewertung aus – öffentliche Optionen, importierte benutzerdefinierte Modelle oder nachgeschärfte (fine-tuned) Modellversionen. Sie definieren relevante Testaufgaben, Datensätze und Evaluierungsmetriken wie Genauigkeit, Latenz, Kostenschätzungen sowie qualitative Faktoren.
Die Möglichkeit, aus den leistungsstärksten FMs in Amazon Bedrock auszuwählen, war für Elastic Security äußerst vorteilhaft. James Spiteri, Direktor Produktmanagement bei Elastic, teilte sinngemäß mit:
„Mit nur wenigen Klicks können wir einen einzelnen Prompt gleichzeitig über mehrere Modelle bewerten. Diese Modell-Evaluierungsfunktion ermöglicht es uns, die Ausgaben, Metriken und zugehörigen Kosten über verschiedene Modelle hinweg zu vergleichen und so eine fundierte Entscheidung darüber zu treffen, welches Modell am besten für unsere Zwecke geeignet ist. Dies hat unseren Prozess erheblich beschleunigt und uns eine beträchtliche Menge Zeit bei der Bereitstellung unserer produktiven Anwendungen gespart.“
Amazon Bedrock bietet Funktionen, um generative KI an die Bedürfnisse Ihres Unternehmens anzupassen.
Während Modelle äußerst wichtig sind, braucht es meist auch mehr als nur ein Modell, um eine für ein Unternehmen nützliche Anwendung zu entwickeln. Deshalb bietet Amazon Bedrock Funktionen, mit denen Sie generative KI-Lösungen einfach an spezifische Anwendungsfälle anpassen können. Kunden können ihre eigenen Daten nutzen, um Anwendungen dediziert durch Feinabstimmung oder mithilfe von Wissensdatenbanken für eine vollständig verwaltete RAG-Anwendung anzupassen. So können die Modelle relevantere, präzisere und individuellere Antworten liefern. Agenten für Amazon Bedrock ermöglicht es Entwicklern, spezifische Aufgaben, Workflows oder Entscheidungsprozesse zu definieren und so mehr Kontrolle und Automatisierung bei konsequenter Ausrichtung auf den geplanten Anwendungsfall zu erhalten. Seit dem 23. April 2024 können Sie Agenten mit den Anthropic Claude 3 Haiku und Sonnet Modellen nutzen. Außerdem führen wir eine aktualisierte AWS-Konsolen-Erfahrung ein, die ein vereinfachtes Schema und die Rückgabe der Kontrolle unterstützt [EN], damit Entwickler einfacher starten können.
Mit der neuen Funktion „Custom Model Import“ können Kunden die vollen Funktionen von Amazon Bedrock mit ihren eigenen Modellen nutzen.
All diese Funktionen sind essenziell für den Aufbau von generativen KI-Anwendungen. Deshalb wollten wir sie auch Kunden zugänglich machen, die bereits erhebliche Ressourcen in die Feinabstimmung von LLMs mit ihren eigenen Daten auf anderen Diensten oder in das Training eigener Modelle von Grund auf investiert haben.
Viele Kunden können angepasste Modelle in Amazon SageMaker nutzen, welches die breiteste Palette von über 250 vortrainierten FMs bietet. Dazu gehören hochmoderne Modelle wie Mistral, Llama2, CodeLlama, Jurassic-2, Jamba, pplx-7B, 70B und das beeindruckende Falcon 180B. Amazon SageMaker hilft dabei, Daten zu organisieren und zu verfeinern, eine skalierbare und effiziente Trainingsinfrastruktur aufzubauen und Modelle schießlich mit geringer Latenz und kostengünstig im großen Maßstab bereitzustellen.
Es war ein Wendepunkt für Entwickler bei der Vorbereitung ihrer Daten für KI, dem Verwalten von Experimenten, dem schnelleren Trainieren von Modellen (z.B. Perplexity AI trainiert Modelle 40% schneller in Amazon SageMaker), der Senkung der Inferenzlatenz (z.B. Workday hat die Inferenzlatenz um 80% mit Amazon SageMaker reduziert) und der Steigerung der Entwicklerproduktivität (z.B. NatWest hat seine Time-to-Value für KI von 12-18 Monaten auf unter sieben Monate mit Amazon SageMaker verkürzt). Die Operationalisierung dieser angepassten Modelle auf sichere Weise und ihre Integration in Anwendungen für spezifische Geschäftsanwendungsfälle ist jedoch nach wie vor eine große Herausforderung.
Aus diesem Grund führten wir am 23.04.2024 Amazon Bedrock Custom Model Import (Vorschau) ein, mit den Organisationen ihre bestehenden KI-Investitionen zusammen mit den Funktionen von Amazon Bedrock nutzen können. Mit Custom Model Import können Kunden jetzt ihre eigenen benutzerdefinierten Modelle, die auf gängigen Open-Source-Modellarchitekturen wie Flan-T5, Llama oder Mistral basieren in Amazon Bedrock importieren und als vollständig verwaltete API nutzen. Sie können Modelle, die sie in Amazon SageMaker oder anderen Tools angepasst haben, einfach zu Amazon Bedrock hinzufügen. Nach einer automatisierten Validierung können sie nahtlos auf ihr benutzerdefiniertes Modell zugreifen, genauso wie auf jedes andere Modell in Bedrock. Sie profitieren von allen Vorteilen, inklusive nahtloser Skalierbarkeit, leistungsstarken Sicherheitsfunktionen für Ihre Anwendungen und der Einhaltung von Prinzipien zum verantwortungsvollem Umgang mit KI. Zusätzlich können Sie die Wissensbasis von Modellen mit RAG erweitern, Agenten für mehrstufige Aufgaben einfach erstellen und Modelle durch kontinuierliche Feinabstimmung weiterentwickeln. Die zugrunde liegende Infrastruktur müssen Sie dabei nicht selbst verwalten.
Mit dieser neuen Funktion machen wir es Organisationen leicht, eine Kombination aus Amazon Bedrock Modellen und ihren eigenen benutzerdefinierten Modellen zu wählen und dabei die gleiche optimierte Entwicklungserfahrung beizubehalten. Custom Model Import für Amazon Bedrock ist in der Vorschauphase verfügbar [EN] und unterstützt drei der beliebtesten Open-Source-Modellarchitekturen, mit Plänen für Weitere in der Zukunft.
ASAPP ist ein Unternehmen für generative KI mit 10-jähriger Erfahrung in der Entwicklung von ML-Modellen.
Priya Vijayarajendran, Präsidentin Technologie bei ASAPP, sinngemäß:
„Unser konversationeller generativer KI-Sprach- und Chat-Agent nutzt diese Modelle, um das Kundenerlebnis neu zu definieren. Um unseren Kunden eine durchgängige Automatisierung zu bieten, benötigen wir Flexibilität bei LLM-Agenten, Wissensdatenbanken und Modellauswahl. Mit Custom Model Import können wir unsere bestehenden benutzerdefinierten Modelle in Amazon Bedrock nutzen. Bedrock wird es uns ermöglichen, unsere Kunden schneller einzubinden, unser Innovationstempo zu erhöhen und die Zeit bis zur Markteinführung neuer Produktfunktionen verkürzen.“
Amazon Bedrock bietet eine sichere und verantwortungsvolle Grundlage, um Schutzmaßnahmen einfach zu implementieren.
Mit dem Fortschritt und der Ausweitung generativer KI-Fähigkeiten wird der Aufbau von Vertrauen und die Adressierung ethischer Bedenken noch wichtiger. Amazon Bedrock geht diese Bedenken an, indem es die sichere und vertrauenswürdige Infrastruktur von AWS mit branchenführenden Sicherheitsmaßnahmen, robuster Datenverschlüsselung und strikten Zugriffskontrollen nutzt.
Integritätsschutz (Guardrails) für Amazon Bedrock, jetzt allgemein verfügbar, hilft Kunden, unerlaubte Inhalte zu verhindern und sensible Informationen innerhalb einer Anwendung zu verwalten.
Wir bieten auch Guardrails für Amazon Bedrock an, welche jetzt allgemein verfügbar sind. Guardrails bieten branchenführenden Sicherheitsschutz und ermöglichen es Kunden, Inhaltsrichtlinien zu definieren, Anwendungsverhaltensgrenzen festzulegen und Schutzmaßnahmen gegen potenzielle Risiken zu implementieren. Guardrails für Amazon Bedrock ist die einzige Lösung eines großen Cloud-Anbieters, mit der Kunden Sicherheits- und Datenschutzmaßnahmen für ihre generativen KI-Anwendungen in einer einzigen Lösung aufbauen und anpassen können. Sie helfen Kunden dabei, bis zu 85% mehr schädliche Inhalte zu blockieren als der native Schutz der FMs in Amazon Bedrock. Guardrails bieten umfassende Unterstützung für die Filterung schädlicher Inhalte und zuverlässige Erkennungsfunktionen für personenbezogene Daten. Guardrails funktionieren mit allen LLMs in Amazon Bedrock sowie optimierten Modellen und sorgen für Konsistenz in der Art und Weise, wie Modelle auf unerwünschte und schädliche Inhalte reagieren. Sie können Schwellenwerte konfigurieren, um Inhalte in sechs Kategorien zu filtern: Hass, Beleidigungen, Sexualität, Gewalt, Fehlverhalten (einschließlich krimineller Aktivitäten) und Prompt-Angriffe (Jailbreak und Prompt-Injection). Sie können auch eine Reihe von Themen oder Wörtern definieren, die in Ihrer generativen KI-Anwendung blockiert werden sollen. Dies schließt unter Anderem schädliche Wörter, Schimpfwörter, Konkurrenzprodukte und -namen ein. Eine Banking-Anwendung kann beispielsweise mit Schutzmaßnahmen so konfiguriert werden, dass Themen im Zusammenhang mit Finanzberatung erkannt und blockiert werden. Eine Kontaktzentrumsanwendung zur Zusammenfassung von Anrufmitschriften kann Filterung nutzen, um persönliche identifizierbare Daten in Anrufzusammenfassungen zu entfernen, oder ein Konversations-basierter Chatbot kann Inhaltsfilter verwenden, um schädliche Inhalte zu blockieren. Lesen Sie mehr über Guardrails für Amazon Bedrock [EN].
Unternehmen wie Aha!, ein Softwareunternehmen, das über 1 Million Menschen dabei unterstützt, ihre Produktstrategie umzusetzen, nutzen Amazon Bedrock für viele ihrer generativen KI-basierenden Angebote. Sinngemäß:
„Dank der Datenschutz- und Privatsphärerichtlinien von Amazon Bedrock haben wir die volle Kontrolle über unsere Informationen. Wir können schädliche Inhalte mit Guardrails für Amazon Bedrock blockieren. Darauf haben wir aufgebaut, um Produktmanagern dabei zu helfen, durch die Analyse von Kundenfeedback Erkenntnisse zu gewinnen. Das ist erst der Anfang. Wir werden weiterhin auf der fortschrittlichen AWS-Technologie aufbauen. So unterstützen wir Produktentwicklungsteams überall dabei, sicher die nächsten Entwicklungsschritte zu priorisieren.“
Mit einer noch größeren Auswahl führender Basismodelle und Funktionen zur Modell-Evaluierung, dem Schutz von Anwendungen, sowie der Nutzung Ihrer bereits bestehenden Investitionen in die KI, wird es für Kunden noch einfacher und schneller generative KI-Anwendungen, zusammen mit den Fähigkeiten von Amazon Bedrock aufzubauen und zu skalieren. Dieser Blogbeitrag hebt nur einen Teil der neuen Funktionen hervor. Weitere Informationen zu allen Neuerungen finden Sie in den weiterführenden Informationen zu diesem Beitrag. Darunter die Möglichkeit nun Fragen stellen zu können und Daten aus einem einzelnen Dokument zusammenzufassen. Und dies ohne vorher eine Vektordatenbank als Wissensdatenbank eingerichtet zu haben. Ausserdem die allgemeinen Verfügbarkeit der Unterstützung von mehreren Datenquellen aus Wissensdatenbanken [EN].
Frühe Nutzer der Amazon Bedrock Funktionen erhalten einen entscheidenden Vorsprung – sie steigern die Produktivität, treiben bahnbrechende Entdeckungen in verschiedenen Domänen voran und bieten verbesserte Kundenerlebnisse, die Kundenloyalität und -bindung fördern. Ich bin gespannt zu sehen, was unsere Kunden als Nächstes mit diesen neuen Möglichkeiten schaffen werden.
Wie mein Mentor Werner Vogels immer sagt: „Now Go Build“ – und ich füge hinzu: „…with Amazon Bedrock!“
Weiterführende Informationen
Werfen Sie einen Blick auf die folgenden Ressourcen, um mehr zu erfahren:
- Besuchen Sie unsere community.aws Webseite [EN], um tiefergehende technische Inhalte zu finden und zu entdecken, wie unsere Entwickler-Communities Amazon Bedrock in ihren Lösungen einsetzen.
- Erfahren Sie mehr über Generative KI auf AWS.
- Lernen Sie mehr über Amazon Bedrock.
- Erfahren Sie mehr darüber, wie Kunden mit Amazon Bedrock Erfolge erzielen [EN].
Über die Autoren
Swami Sivasubramanian ist Vizepräsident für Daten und maschinelles Lernen bei AWS. In dieser Rolle überwacht Swami alle AWS-Datenbank-, Analyse- und KI- und maschinellen Lerndienste. Die Mission seines Teams besteht darin, Unternehmen dabei zu helfen, ihre Daten mit einer vollständigen End-to-End-Datenlösung zum Speichern, Zugreifen, Analysieren, Visualisieren und Vorhersagen nutzbar zu machen. |