Übersicht
![](https://d1.awsstatic.com/colorset-3A_blue-to-green_gradient_divider.81459b38a56091aebc8c9b5310826c4ef397b007.png)
Eine der größten Herausforderungen bei der Entwicklung generativer KI-Anwendungen ist das komplexe Cloud-Setup und der Bedarf an fundiertem KI-Fachwissen. Generative AI Application Builder in AWS vereinfacht diesen Prozess und hilft Ihnen dabei, KI-Anwendungen ohne umfangreiche KI-Kenntnisse zu entwickeln, zu testen und bereitzustellen. Diese Lösung beschleunigt Ihre KI-Entwicklung, indem sie Ihre Geschäftsdaten einfach integriert, die Leistung großer Sprachmodelle (LLMs) vergleicht, mehrstufige Aufgaben über KI-Agenten ausführt, schnell erweiterbare Anwendungen erstellt und sie mit einer Architektur auf Unternehmensebene bereitstellt. Generative AI Application Builder enthält einen gebrauchsfertigen generativen KI-Chatbot und eine API, die schnell in Ihre Geschäftsprozesse oder Anwendungen integriert werden können.
Diese Lösung umfasst Integrationen mit Amazon Bedrock und seinen LLMs zusätzlich zu den auf Amazon SageMaker bereitgestellten LLMs. Sie nutzt Amazon Bedrock Tools für Retrieval Augmented Generation (RAG), um KI-Reaktionen zu verbessern, Amazon-Bedrock-Integritätsschutz, um Schutzmaßnahmen zu implementieren und Halluzinationen zu reduzieren, und Amazon-Bedrock-Agenten, um Workflows für komplexe Aufgaben zu erstellen. Sie können auch mithilfe von LangChain oder AWS Lambda eine Verbindung zu anderen KI-Modellen herstellen. Beginnen Sie mit dem einfachen, codefreien Assistenten, um KI-Anwendungen für Konversationssuche, KI-generierte Chatbots, Textgenerierung und Textzusammenfassung zu erstellen.
Total results: 7
- Überschrift
-
Digital Natives & Startups
-
Artificial Intelligence
-
Artificial Intelligence
Vorteile
![](https://d1.awsstatic.com/colorset-3A_blue-to-green_gradient_divider.81459b38a56091aebc8c9b5310826c4ef397b007.png)
Mit dieser Lösung können Benutzer schnell experimentieren, da der Aufwand entfällt, der für die Bereitstellung mehrerer Instances mit unterschiedlichen Konfigurationen und für den Vergleich von Ergebnissen und Leistung erforderlich ist. Experimentieren Sie mit mehreren Konfigurationen verschiedener LLMs, Prompt-Engineering, Wissensdatenbanken für Unternehmen, Integritätsschutz, KI-Agenten und anderen Parametern.
Mit vorgefertigten Konnektoren zu einer Vielzahl von LLMs, wie z. B. den über Amazon Bedrock verfügbaren Modellen, bietet Ihnen diese Lösung die Flexibilität, das Modell Ihrer Wahl sowie die von Ihnen bevorzugten AWS- und führenden FM-Services bereitzustellen. Sie können Agenten von Amazon Bedrock auch für die Erfüllung verschiedener Aufgaben und Workflows aktivieren.
Diese Lösung basiert auf den Entwicklungsprinzipien von AWS Well-Architected und bietet Sicherheit und Skalierbarkeit auf Unternehmensniveau mit hoher Verfügbarkeit und geringer Latenz. Dadurch wird eine nahtlose Integration in Ihre Anwendungen mit hohen Leistungsstandards gewährleistet.
Erweitern Sie die Funktionalität dieser Lösung, indem Sie Ihre vorhandenen Projekte integrieren oder zusätzliche AWS-Services nativ verbinden. Da es sich um eine Open-Source-Anwendung handelt, können Sie die enthaltene LangChain-Orchestrierungsservice-Ebene oder Lambda-Funktionen verwenden, um eine Verbindung mit den Services Ihrer Wahl herzustellen.
Technische Details
![](https://d1.awsstatic.com/colorset-3A_blue-to-green_gradient_divider.81459b38a56091aebc8c9b5310826c4ef397b007.png)
Sie können diese Architektur mithilfe des Implementierungsleitfadens und der zugehörigen AWS-CloudFormation-Vorlage, die drei separate Architekturen bereitstellt, automatisch bereitstellen:
- Anwendungsfall für Agenten – Der Anwendungsfall für Agenten ermöglicht es Benutzern, Aufgaben zur Erledigung mithilfe von Amazon-Bedrock-Agenten einzureichen. Sie können ein Modell auswählen, einige Anweisungen in natürlicher Sprache schreiben, und KI-Agenten von Amazon Bedrock analysieren, orchestrieren und erledigen die Aufgaben, indem sie eine Verbindung zu Ihren Datenquellen oder anderen APIs herstellen, um Ihre Anfrage zu erfüllen.
- Textanwendungsfall – Der Testanwendungsfall ermöglicht es Benutzern, mithilfe generativer KI eine Benutzeroberfläche in natürlicher Sprache zu erleben. Dieser Anwendungsfall kann in neue oder bestehende Anwendungen integriert werden und kann über das Bereitstellungs-Dashboard oder unabhängig über eine angegebene URL bereitgestellt werden.
- Bereitstellungs-Dashboard – Das Bereitstellungs-Dashboard ist eine Web-UI, die Administratorbenutzern als Verwaltungskonsole zum Anzeigen, Verwalten und Erstellen ihrer Anwendungsfälle dient. Dieses Dashboard ermöglicht es Kunden, mithilfe mehrerer Konfigurationen von LLMs und Daten schnell mit Anwendungen für generative KI zu experimentieren, zu iterieren und bereitzustellen.
-
Anwendungsfall für Agenten
-
Anwendungsfall-Text
-
Bereitstellungs-Dashboard
-
Anwendungsfall für Agenten
-
Schritt 1
Business-Benutzer stellen den Anwendungsfall mithilfe des Bereitstellungs-Dashboards bereit. Business-Benutzer melden sich bei der Benutzeroberfläche des Anwendungsfalls an.
-
Anwendungsfall-Text
-
Bereitstellungs-Dashboard
Total results: 1
- Datum der Veröffentlichung
-
- Version: 2.1.2
- Veröffentlicht: 1/2025
- Autor: AWS
- Geschätzte Bereitstellungszeit: 10 Minuten
- Geschätzte Kosten: Details anzeigen
Ähnliche Inhalte
![](https://d1.awsstatic.com/colorset-3A_blue-to-green_gradient_divider.81459b38a56091aebc8c9b5310826c4ef397b007.png)
Der einfachste Weg, Anwendungen für generative KI mit Basismodellen zu erstellen und zu skalieren.
Dieser Leitfaden zeigt, wie Sie ein von Amazon SageMaker JumpStart bereitgestelltes Modell der generativen künstlichen Intelligenz (KI) einsetzen, um mithilfe des AWS Cloud Development Kit (AWS CDK) einen asynchronen SageMaker-Endpunkt zu erstellen.
Dieser Leitfaden zeigt, wie eine Anwendung erstellt wird, mit der Benutzer mithilfe von Abfragen in natürlicher Sprache (NLQ) Fragen direkt an relationale Datenbanken stellen können.
Steigern Sie die Produktivität, schaffen Sie differenzierte Erlebnisse und führen Sie Innovationen mit AWS schneller ein.
Diese Fallstudie zeigt, wie das Rundfunkunternehmen Megamedia einen generativen KI-gestützten Chatbot entwickelt hat, um den Zugriff auf wichtige öffentliche Informationen mithilfe von AWS zu vereinfachen.