Einführung

Im Grunde ist Machine Learning (ML) darauf ausgelegt, digitale Tools und Services bereitzustellen, um aus Daten zu lernen, Muster zu erkennen, Prognosen zu treffen und dann auf diese Prognosen zu reagieren. Fast alle Systeme der künstlichen Intelligenz (KI) werden heutzutage mit ML erstellt. ML verwendet große Datenmengen, um Entscheidungslogik zu erstellen und zu validieren. Diese Entscheidungslogik bildet die Grundlage des KI-„Modells“.

Eine schnell wachsende Untergruppe des Machine Learning ist die generative KI, die von großen Modellen unterstützt wird, die auf einer großen Datenmenge vorab trainiert werden – allgemein als Grundlagenmodelle (FMs) bezeichnet. Zu den auf generativer KI basierenden AWS-Services gehören:

  • Amazon Bedrock (bietet Ihnen die Möglichkeit, generative KI-basierte Anwendungen mithilfe von FMs zu erstellen und zu skalieren)
  • Amazon CodeWhisperer (ein KI-Codierungsbegleiter, der Codevorschläge in Echtzeit basierend auf Ihren Kommentaren in natürlicher Sprache und jedem vorherigen Code in Ihrer integrierten Entwicklungsumgebung generiert)

Dieser Entscheidungsleitfaden hilft Ihnen, die richtigen Fragen zu stellen, Ihre Kriterien und Ihr Geschäftsproblem auszuwerten und festzustellen, welche Services am besten zu Ihren Anforderungen passen.

In weniger als zwei Minuten erklärt Dr. Werner Vogels, CTO von Amazon, wie generative KI funktioniert und wie Sie sie einsetzen können. Dieses Video ist Teil eines längeren Gesprächs zwischen Dr. Vogels und Swami Sivasubramanian, AWS-Vizepräsident für Datenbank, Analytik und ML, über die umfassende Landschaft der generativen KI, warum diese kein Hype ist und wie AWS den Zugriff auf große Sprach- und Grundlagenmodelle demokratisiert.

Zeit zum Lesen

25 Minuten

Zweck

Bei der Entscheidung zu helfen, welche AWS ML-Services am besten für Ihre Anforderungen geeignet sind.

Stufe

Einsteiger

Letzte Aktualisierung

26. Juli 2023

Verständnis

Da Unternehmen weiterhin KI- und ML-Technologien einsetzen, kann die Bedeutung der Kenntnis und Auswahl von AWS-ML-Services nicht genug hervorgehoben werden.
 
AWS bietet eine Reihe von ML-Services, die Unternehmen dabei helfen, ML-Modelle schneller und einfacher zu erstellen, zu trainieren und bereitzustellen. Diese Services können zur Lösung einer Vielzahl von Geschäftsproblemen eingesetzt werden, z. B. zur Vorhersage der Kundenabwanderung, zur Betrugserkennung sowie zur Bild- und Spracherkennung.
AWS betrachtet ML als eine Reihe von Technologieebenen, die aufeinander aufbauen.
 
Die oberste Ebene besteht aus KI-Services. Hier bettet AWS ML in verschiedene Anwendungsfälle ein, beispielsweise Personalisierung, Prognose, Anomalieerkennung und Sprachtranskription.
 
Die mittlere Ebene besteht aus AWS-ML-Services, einschließlich Amazon SageMaker, und Deep-Learning-Technologien (DL). Hier baut AWS seine ML-Infrastruktur auf, sodass Sie sich ganz auf die differenzierte Arbeit der Entwicklung von ML-Modellen konzentrieren können.
 
Die untere Ebene besteht aus generativen KI-Services. Generative KI kann neue Inhalte erstellen, darunter Konversationen, Geschichten, Bilder, Videos und Musik. Wie jede KI basiert auch die generative KI auf ML-Modellen – sehr großen Modellen, die auf der Grundlage riesiger Datenmengen vorab trainiert werden und allgemein als Grundlagenmodelle bezeichnet werden.

Darüber hinaus bietet AWS die folgende spezialisierte, beschleunigte Hardware für leistungsstarkes ML-Training und Inferenz.
 
  • Amazon-EC2-P4d-Instances sind mit NVIDIA A100-Tensor-Kern-GPUs ausgestattet, die sich sowohl für Trainings- als auch für Inferenzaufgaben im Machine Learning gut eignen. AWS Trainium ist der ML-Beschleuniger der zweiten Generation, den AWS speziell für das DL-Training von über 100 Milliarden Parametermodellen entwickelt hat.
  • AWS-Inferentia2-basierte Amazon-EC2-Inf2-Instances sind so konzipiert, dass sie in Amazon EC2 hohe Leistung zu niedrigsten Kosten für Ihre DL-Inferenz- und generative KI-Anwendungen liefern.

Überlegungen

Bei der Lösung eines Geschäftsproblems mit AWS-ML-Services kann die Berücksichtigung mehrerer wichtiger Kriterien zum Erfolg beitragen. Im folgenden Abschnitt finden Sie einige der wichtigsten Kriterien, die Sie bei der Auswahl eines ML-Services berücksichtigen sollten.

  • Der erste Schritt im ML-Lebenszyklus besteht darin, das Geschäftsproblem zu formulieren. Um den richtigen AWS-ML-Service auszuwählen, ist es wichtig, das Problem zu verstehen, das Sie zu lösen versuchen, da verschiedene Services für unterschiedliche Probleme konzipiert sind. Es ist auch wichtig, festzustellen, ob ML die beste Lösung für Ihr Geschäftsproblem ist.

    Sobald Sie festgestellt haben, dass ML am besten geeignet ist, können Sie zunächst aus einer Reihe speziell entwickelter AWS-KI-Services auswählen (in Bereichen wie Sprache, Vision und Dokumente).

    Amazon SageMaker bietet eine vollständig verwaltete Infrastruktur, wenn Sie Ihre eigenen Modelle erstellen und trainieren müssen. AWS bietet eine Reihe von fortschrittlichen ML-Frameworks und Infrastrukturoptionen für die Fälle, in denen Sie hoch individuelle und spezialisierte ML-Modelle benötigen. AWS bietet außerdem eine große Auswahl an beliebten Grundlagenmodellen für die Entwicklung neuer Anwendungen mit generativer KI.

  • Die Auswahl des ML-Algorithmus für das Geschäftsproblem, das Sie zu lösen versuchen, hängt von der Art der Daten ab, mit denen Sie arbeiten, sowie von den gewünschten Ergebnissen. In den folgenden Informationen wird erläutert, wie jede der wichtigsten AWS-KI/ML-Servicekategorien Sie in die Lage versetzt, mit ihren Algorithmen zu arbeiten:

    • Spezialisierte KI-Services: Diese Services bieten nur begrenzte Möglichkeiten zur Anpassung des ML-Algorithmus, da es sich um vorab trainierte Modelle handelt, die für bestimmte Aufgaben optimiert sind. Normalerweise können Sie die Eingabedaten und einige Parameter anpassen, haben jedoch keinen Zugriff auf die zugrunde liegenden ML-Modelle oder die Möglichkeit, eigene Modelle zu erstellen.
    • Amazon SageMaker: Dieser Service bietet die größte Flexibilität und Kontrolle über den ML-Algorithmus. Sie können SageMaker verwenden, um benutzerdefinierte Modelle mit Ihren eigenen Algorithmen und Frameworks zu erstellen oder vorgefertigte Modelle und Algorithmen von AWS verwenden. Dies ermöglicht ein hohes Maß an Anpassung und Kontrolle über den ML-Prozess.
    • ML-Frameworks und -Infrastruktur der unteren Ebene: Diese Services bieten die größte Flexibilität und Kontrolle über den ML-Algorithmus. Sie können diese Services verwenden, um hoch individuelle ML-Modelle mithilfe ihrer eigenen Algorithmen und Frameworks zu entwickeln. Die Nutzung dieser Services erfordert jedoch erhebliche ML-Kenntnisse und ist möglicherweise nicht für jeden Anwendungsfall durchführbar.
  • Wenn Sie einen privaten Endpunkt in Ihrer VPC benötigen, variieren Ihre Optionen abhängig von der Ebene der AWS-ML-Services, die Sie verwenden. Dazu gehören:

    • Spezialisierte KI-Services: Die meisten spezialisierten KI-Services unterstützen derzeit keine privaten Endpunkte in VPCs. Auf Amazon Rekognition Custom Labels und Amazon Comprehend Custom kann jedoch über VPC-Endpunkte zugegriffen werden.
    • Kern-KI-Services: Amazon Translate, Amazon Transcribe und Amazon Comprehend unterstützen alle VPC-Endpunkte.
    • Amazon SageMaker: SageMaker bietet integrierte Unterstützung für VPC-Endpunkte und ermöglicht Ihnen die Bereitstellung der trainierten Modelle als Endpunkt, auf den nur von der VPC aus zugegriffen werden kann.
    • ML-Frameworks und -Infrastruktur der unteren Ebene: Sie können Ihre Modelle in Amazon-EC2-Instances oder in Container innerhalb Ihrer VPC bereitstellen und haben so die vollständige Kontrolle über die Netzwerkkonfiguration.
  • KI-Services der oberen Ebene, wie Amazon Rekognition und Amazon Transcribe, sind für eine Vielzahl von Anwendungsfällen konzipiert und bieten eine hohe Leistung in Bezug auf die Geschwindigkeit. Allerdings erfüllen sie möglicherweise bestimmte Latenzanforderungen nicht.

    Wenn Sie ML-Frameworks und -Infrastrukturen der niedrigeren Ebene verwenden, empfehlen wir die Nutzung von Amazon SageMaker. Aufgrund des vollständig verwalteten Services und der optimierten Bereitstellungsoptionen ist diese Option im Allgemeinen schneller als die Erstellung benutzerdefinierter Modelle. Ein hochoptimiertes benutzerdefiniertes Modell kann zwar die Leistung von SageMaker übertreffen, erfordert jedoch viel Fachwissen und Ressourcen, um es zu erstellen.

  • Die Genauigkeit der AWS-ML-Services hängt vom jeweiligen Anwendungsfall und dem Grad der erforderlichen Anpassung ab. KI-Services der höheren Ebene, wie Amazon Rekognition basieren auf vorab trainierten Modellen, die für bestimmte Aufgaben optimiert wurden und in vielen Anwendungsfällen eine hohe Genauigkeit bieten.

    In einigen Fällen können Sie Amazon SageMaker verwenden, das eine flexiblere und anpassbarere Plattform zum Erstellen und Trainieren benutzerdefinierter ML-Modelle bietet. Durch das Entwickeln Ihrer eigenen Modelle können Sie möglicherweise eine noch höhere Genauigkeit erzielen, als dies mit vorab trainierten Modellen möglich ist.

    Sie können sich auch für die Verwendung von ML-Frameworks und -Infrastrukturen wie TensorFlow und Apache MXNet entscheiden, um hoch individuelle Modelle zu erstellen, die die höchstmögliche Genauigkeit für Ihren spezifischen Anwendungsfall bieten.

  • AWS entwickelt in jeder Phase seines Entwicklungsprozesses Grundlagenmodelle (FMs) mit Blick auf eine verantwortungsvolle KI. Während des gesamten Entwurfs, der Entwicklung, des Einsatzes und des Betriebs berücksichtigen wir eine Reihe von Faktoren, darunter:

    1. Genauigkeit (wie gut eine Zusammenfassung mit dem zugrunde liegenden Dokument übereinstimmt, ob eine Biografie sachlich korrekt ist)
    2. Fairness (ob die Ergebnisse demografische Gruppen ähnlich behandeln)
    3. Überlegungen zum geistigen Eigentum und zum Urheberrecht
    4. Angemessene Nutzung (Herausfiltern von Benutzeranfragen nach Rechtsberatung, medizinischen Diagnosen oder illegalen Aktivitäten)
    5. Toxizität (Hassreden, Obszönitäten und Beleidigungen)
    6. Datenschutz (Schutz personenbezogener Daten und Kundenanfragen)

    AWS integriert Lösungen, um diese Probleme in den Prozessen zur Erfassung von Trainingsdaten, in den FMs selbst und in der Technologie zur Vorverarbeitung von Benutzereingaben und Nachbearbeitung von Ausgaben zu bewältigen.

Auswahl

Nachdem Sie nun die Kriterien kennen, die Sie zur Bewertung Ihrer Speicheroptionen verwenden sollten, können Sie auswählen, welche AWS-Speicherservices für Ihre Geschäftsanforderungen geeignet sind.

Die folgende Tabelle zeigt, welche Speicheroptionen für welche Umstände optimiert sind. Verwenden Sie sie, um die Lösung zu ermitteln, die am besten zu Ihrem Anwendungsfall passt.

KI/ML-Services und unterstützende Technologien
Wann würden Sie es verwenden?
Wofür ist es optimiert?
Schließen

Amazon Comprehend

Mit Amazon Comprehend können Sie Aufgaben zur Verarbeitung natürlicher Sprache, wie Stimmungsanalyse, Entitätserkennung, Themenmodellierung und Spracherkennung, mit Ihren Textdaten durchführen.

Schließen

Amazon Lex

Amazon Lex unterstützt Sie bei der Entwicklung von Chatbots und Sprachassistenten, die über eine Benutzeroberfläche in natürlicher Sprache mit Benutzern interagieren können. Es bietet vorgefertigte Dialogmanagement-, Sprachverständnis- und Spracherkennungsfunktionen.

Schließen

Amazon Polly

Verwenden Sie Amazon Polly, um Text in lebensechte Sprache umzuwandeln und so die Erstellung sprachgesteuerter Anwendungen und Services zu vereinfachen.

Schließen

Amazon Rekognition

Mit Amazon Rekognition können Sie Ihren Anwendungen Bild- und Videoanalysen hinzufügen. Sie stellen der Amazon-Rekognition-API ein Bild oder Video zur Verfügung und der Service kann Objekte, Personen, Text, Szenen und Aktivitäten identifizieren. Er kann auch unangemessene Inhalte erkennen.

Schließen

Amazon Textract

Mit Amazon Textract können Sie Text und Daten aus gescannten Dokumenten, Formularen und Tabellen extrahieren und so die Speicherung, Analyse und Verwaltung dieser Daten vereinfachen.

Schließen

Amazon Transcribe

Mit Amazon Transcribe können Kunden Audio- und Videoaufnahmen automatisch in Text transkribieren. Dies kann im Vergleich zur manuellen Transkription Zeit und Aufwand sparen.

Schließen

Amazon Translate

Verwenden Sie diesen Service, um Texte in Echtzeit von einer Sprache in eine andere zu übersetzen. Dies ist besonders hilfreich, wenn Ihr Unternehmen in mehreren Ländern tätig ist oder mit Nicht-Muttersprachlern kommunizieren muss.

Verwenden Sie die wichtigsten KI-Services von AWS, wenn Sie spezifische, vorgefertigte Funktionen in Ihre Anwendungen integrieren möchten, ohne dass umfangreiche Anpassungen oder Fachwissen im Bereich Machine Learning erforderlich sind.
Optimiert für eine einfache Bedienung und erfordert nicht viel Codierungs-, Konfiguration- oder ML-Kenntnisse.
Schließen

Amazon Bedrock

Amazon Bedrock ist ein vollständig verwalteter Service, der Grundlagenmodelle von führenden KI-Startups und Amazon über eine API zur Verfügung stellt. So können Sie aus einer Vielzahl von Grundlagenmodellen auswählen, um das für Sie am besten geeignete Modell zu finden.

Verwenden Sie Amazon Bedrock, um über eine API Zugriff auf Grundlagenmodelle von führenden KI-Startups und Amazon zu erhalten.
Optimiert für Flexibilität – Sie können aus einer Reihe von FMs auswählen, um das beste Modell für Ihre Anforderungen zu finden.
Schließen

Amazon CodeWhisperer

Amazon CodeWhisperer ist ein Echtzeit-KI-Codierungsbegleiter, der bei der Erstellung von Code für routinemäßige oder zeitaufwändige, undifferenzierte Aufgaben, der Arbeit mit unbekannten APIs oder SDKs, der korrekten und effektiven Nutzung von AWS-APIs und anderen gängigen Codierungsszenarien wie dem Lesen und Schreiben von Dateien, der Image-Verarbeitung und dem Schreiben von Einheitstests hilft.

Verwenden Sie Amazon CodeWhisperer, wenn Sie ML-gestützte Code-Empfehlungen in Echtzeit benötigen.
Optimiert, um Ihnen in Echtzeit nützliche Vorschläge basierend auf Ihrem vorhandenen Code und Ihren Kommentaren bereitzustellen.
Schließen

SageMaker Autopilot

Amazon SageMaker Autopilot wurde entwickelt, um den Aufwand beim Erstellen von ML-Modellen zu reduzieren. Sie stellen einfach einen Tabellendatensatz bereit und wählen die Zielspalte aus, die vorhergesagt werden soll. SageMaker Autopilot wird automatisch verschiedene Lösungen untersuchen, um das beste Modell zu finden. Sie können dann das Modell mit nur einem Klick direkt in die Produktion übernehmen oder die empfohlenen Lösungen iterativ bearbeiten, um die Modellqualität weiter zu verbessern.

Schließen

SageMaker Canvas

Amazon SageMaker Canvas bietet Ihnen die Möglichkeit, Machine Learning zu nutzen, um Vorhersagen zu generieren, ohne Code schreiben zu müssen.

Schließen

SageMaker Data Wrangler

Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für das Aggregieren und Aufbereiten von Tabellen- und Image-Daten für ML. Mit SageMaker Data Wrangler können Sie den Prozess der Datenaufbereitung und des Feature Engineering vereinfachen und jeden Schritt des Datenvorbereitungs-Workflows (einschließlich Datenauswahl, Bereinigung, Erkundung, Visualisierung und Verarbeitung in großem Maßstab) von einer einzigen visuellen Oberfläche aus abschließen. 

Schließen

SageMaker Ground Truth

SageMaker Ground Truth ist ein verwalteter Service zur Kennzeichnung von Daten zum Trainieren und Verbessern von Machine-Learning-Modellen. Es bietet eine äußerst genaue und effiziente Möglichkeit, große Datensätze durch die Verwendung einer Kombination aus menschlichen Annotatoren und Algorithmen für Machine Learning zu kennzeichnen. SageMaker Ground Truth unterstützt eine Vielzahl von Datentypen, darunter Text, Bild, Video und Audio, und lässt sich nahtlos mit anderen SageMaker Services für umfassende Machine-Learning-Workflows integrieren.

Schließen

SageMaker JumpStart

SageMaker JumpStart stellt vorab trainierte Open-Source-Modelle für eine Vielzahl von Problemtypen bereit, um Ihnen den Einstieg in Machine Learning zu erleichtern. Sie können diese Modelle vor der Bereitstellung schrittweise trainieren und optimieren. JumpStart bietet außerdem Lösungsvorlagen zum Einrichten der Infrastruktur für häufige Anwendungsfälle sowie ausführbare Beispiel-Notebooks für Machine Learning mit SageMaker.

Schließen

SageMaker Pipelines

Mit Amazon SageMaker Pipelines können Sie ML-Workflows mit einem Python SDK erstellen und Ihren Workflow anschließend mit Amazon SageMaker Studio visualisieren und verwalten. Mit Amazon SageMaker Pipelines können Sie die von Ihnen in SageMaker Pipelines erstellten Workflow-Schritte speichern und wiederverwenden.

Schließen

SageMaker Studio

Eine vollständig integrierte Entwicklungsumgebung (IDE), die es Entwicklern ermöglicht, Machine-Learning-Modelle in großem Maßstab zu entwickeln, zu trainieren und bereitzustellen. Es bietet eine einzige webbasierte Benutzeroberfläche zur Verwaltung des gesamten Lebenszyklus von Machine Learning, von der Datenaufbereitung und dem Modelltraining bis hin zur Bereitstellung und Überwachung. SageMaker Studio unterstützt außerdem beliebte Tools wie Jupyter Notebooks, Git und TensorFlow und bietet eine Reihe vorgefertigter Algorithmen für gängige Anwendungsfälle.

Schließen

SageMaker Studio Lab

Amazon SageMaker Studio Lab ist eine cloudbasierte IDE zum Erlernen und Experimentieren mit Machine Learning mithilfe von vorgefertigten Jupyter-Notebooks. Es enthält eine Reihe vorgefertigter Notebooks zu Themen wie Bilderkennung, Verarbeitung natürlicher Sprache und Erkennung von Anomalien.

Verwenden Sie diese Services, wenn Sie individuellere Machine-Learning-Modelle oder Workflows benötigen, die über die vorgefertigten Funktionalitäten der wichtigsten KI-Services hinausgehen.
Optimiert für das Entwickeln und Trainieren von benutzerdefinierten Machine-Learning-Modellen, umfangreiches Training auf mehreren Instances oder GPU-Clustern, mehr Kontrolle über das Bereitstellen von Machine-Learning-Modellen, Echtzeit-Inferenz und für das Erstellen durchgängiger Workflows.
Schließen

Apache MxNet

Apache MXNet ist ein Open-Source-Framework für Deep Learning, das mehrere Programmiersprachen unterstützt, darunter Python, Scala und R. Der Service ist für seine Skalierbarkeit und Geschwindigkeit bekannt und bietet eine Reihe von High-Level-APIs zum Entwickeln und Trainieren neuronaler Netzwerke sowie Low-Level-APIs für fortgeschrittene Benutzer.

Schließen

Hugging Face in Amazon SageMaker

Hugging Face auf Amazon SageMaker ist eine Open-Source-Bibliothek für die natürliche Sprachverarbeitung (NLP), die eine breite Palette vorab trainierter Modelle und Tools für die Arbeit mit Textdaten bereitstellt. Es ist für seine Benutzerfreundlichkeit und hohe Leistung bekannt und wird häufig für Aufgaben wie Textklassifizierung, Stimmungsanalyse und Sprachübersetzung verwendet.

Schließen

Pytorch in AWS

PyTorch in AWS ist ein Open-Source-Framework für Machine Learning, das dynamische Berechnungsgraphen und automatische Differenzierung zum Entwickeln und Trainieren neuronaler Netzwerke bietet. PyTorch ist für seine Benutzerfreundlichkeit und Flexibilität bekannt und verfügt über eine große und aktive Entwicklergemeinschaft, die zu seiner Entwicklung beiträgt.

Schließen

TensorFlow in AWS

TensorFlow ist ein von Google entwickeltes Open-Source-Framework für Machine Learning, das häufig für die Entwicklung und das Training neuronaler Netzwerke verwendet wird. Es ist für seine Skalierbarkeit, Geschwindigkeit und Flexibilität bekannt und unterstützt eine Reihe von Programmiersprachen, darunter Python, C++ und Java. TensorFlow bietet eine große Auswahl an vorgefertigten Modellen und Tools für die Image- und Textverarbeitung sowie Low-Level-APIs für fortgeschrittene Benutzer, die eine größere Kontrolle über ihre Modelle benötigen.

Nutzen Sie die von AWS bereitgestellten ML-Frameworks und -Infrastruktur, wenn Sie noch mehr Flexibilität und Kontrolle über Ihre Machine-Learning-Workflows benötigen und bereit sind, die zugrunde liegende Infrastruktur und Ressourcen selbst zu verwalten.
Optimiert für die Bereitstellung spezifischer benutzerdefinierter Hardwarekonfigurationen, Zugriff auf Deep-Learning-Frameworks, die SageMaker nicht bietet, mehr Kontrolle über Ihre Datenspeicherung und -verarbeitung sowie benutzerdefinierte Algorithmen und Modelle.
Schließen

AWS Inferentia und AWS Inferentia2

Der AWS-Inferentia-Beschleuniger der ersten Generation treibt Amazon Elastic Compute Cloud (Amazon EC2)-Inf1-Instances an, die einen bis zu 2,3-fach höheren Durchsatz und bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare Amazon-EC2-Instances bieten. Der AWS-Inferentia2-Beschleuniger verbessert die erste Generation von AWS Inferentia. Inferentia2 bietet im Vergleich zu Inferentia einen bis zu viermal höheren Durchsatz und eine bis zu zehnmal geringere Latenz.

Schließen

AWS Trainium

AWS Trainium ist der Beschleuniger für Machine Learning (ML) der zweiten Generation, den AWS speziell für Deep-Learning-Trainings von über 100 Milliarden Parametermodellen entwickelt hat. Jede Amazon Elastic Compute Cloud (EC2) Trn1-Instance stellt bis zu 16 AWS-Trainium-Beschleuniger für die Nutzung von Deep Learning (DL)-Training in der Cloud bereit.

Verwenden Sie beschleunigte Hardware, wenn Sie die niedrigsten Kosten für das Training von Modellen erzielen möchten und Inferenz in der Cloud ausführen müssen.
Optimiert für die Unterstützung der kostengünstigen Bereitstellung von Grundlagenmodellen in großem Maßstab.

Verwendung

Sie sollten nun ein klares Verständnis der Kriterien haben, die Sie bei der Auswahl eines AWS-ML-Service benötigen. Sie können nun auswählen, welche AWS-KI/ML-Service(s) für Ihre Geschäftsanforderungen optimiert sind.

Um herauszufinden, wie Sie den/die von Ihnen ausgewählten Service(s) verwenden und mehr darüber erfahren können, haben wir drei Pfade bereitgestellt, auf denen Sie die Funktionsweise der einzelnen Services erkunden können. Die erste Reihe von Pfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition und Amazon Transcribe.

  • Amazon Comprehend
  • Erste Schritte mit Amazon Comprehend

    Verwenden Sie die Amazon-Comprehend Konsole, um einen asynchronen Auftrag zur Erkennung von Entitäten zu erstellen und auszuführen.

    Erste Schritte mit dem Tutorial »

    Erkenntnisanalyse in Texten mit Amazon Comprehend

    Lernen Sie, wie Sie Amazon Comprehend verwenden, um Texte zu analysieren und Erkenntnisse daraus abzuleiten.  

    Erste Schritte mit dem Tutorial »

    Amazon Comprehend – Preise


    Informieren Sie sich über die Preisgestaltung und den Beispielen von Amazon Comprehend.

    Leitfaden erkunden »

  • Amazon Textract
  • Erste Schritte mit Amazon Textract

    Erfahren Sie, wie Amazon Textract mit formatiertem Text verwendet werden kann, um nahe beieinander liegende Wörter und Wortzeilen zu erkennen und ein Dokument auf Elemente wie verwandten Text, Tabellen, Schlüssel-Wert-Paare und Auswahlelemente zu analysieren.

    Leitfaden erkunden »

    Extrahieren von Text und strukturierte Daten mit Amazon Textract

    Erfahren Sie, wie Sie mit Amazon Textract Text und strukturierte Daten aus einem Dokument extrahieren.




    Erste Schritte mit dem Tutorial »

    AWS Power Hour: Machine Learning

    Tauchen Sie in dieser Folge in Amazon Textract ein, verbringen Sie Zeit in der AWS-Managementkonsole und sehen Sie sich Codebeispiele an, die Ihnen helfen zu verstehen, wie Sie Service-APIs optimal nutzen.


    Video ansehen »

  • Amazon Translate
  • Erste Schritte mit Amazon Translate mithilfe der Konsole

    Der einfachste Einstieg in Amazon Translate besteht darin, die Konsole zum Übersetzen von Texten zu verwenden. Erfahren Sie, wie Sie mit der Konsole bis zu 10 000 Zeichen übersetzen.

    Leitfaden erkunden »

    Übersetzen von Texten in der Cloud

    In diesem Tutorial-Beispiel müssen Sie als Teil eines internationalen Gepäckherstellers verstehen, was Kunden in Bewertungen in der lokalen Marktsprache Französisch über Ihr Produkt sagen.  

    Erste Schritte mit dem Tutorial »

    Amazon Translate – Preise


    Erkunden Sie die Preisgestaltung von Amazon Translate, einschließlich der kostenlosen Version, die 2 Millionen Zeichen pro Monat für 12 Monate anbietet.


    Leitfaden erkunden »

    Beschleunigung mehrsprachiger Workflows mit einer anpassbaren Übersetzungslösung

    Erfahren Sie, wie Sie mithilfe von Amazon Translate und anderen AWS-Services eine einheitliche Übersetzungslösung mit Anpassungsfunktionen erstellen.

    Blog lesen »

  • Amazon Lex
  • Amazon-Lex-V2-Entwicklerhandbuch


    Informieren Sie sich über den Einstieg, die Funktionsweise und Preisinformationen für Amazon Lex V2.


    Leitfaden erkunden »

    Einführung in Amazon Lex


    Wir stellen Ihnen den Konversationsservice Amazon Lex vor und zeigen Ihnen anhand von Beispielen, wie Sie einen Bot erstellen und ihn für verschiedene Chat-Services bereitstellen.

    Am Kurs teilnehmen » (Anmeldung erforderlich)

    Erkundung der generativen KI in Konversationserlebnissen

    Erkunden Sie den Einsatz generativer KI in Konversationserlebnissen.


    Blog lesen »

  • Amazon Polly
  • Was ist Amazon Polly?



    Verschaffen Sie sich einen vollständigen Überblick über den Cloud Service, der Text in lebensechte Sprache umwandelt und mithilfe dessen Sie Anwendungen entwickeln können, um Ihre Kundenbindung und Zugänglichkeit zu verbessern.

    Leitfaden erkunden »

    Hervorheben von Text während er gesprochen wird mithilfe von Amazon Polly


    Wir stellen Ihnen Ansätze zum Hervorheben von Text während des Sprechens vor, um Audio in Büchern, Websites, Blogs und anderen digitalen Erlebnissen visuelle Funktionen zu verleihen.

    Blog lesen »

    Erstellung von Audio für Inhalte in mehreren Sprachen mit der gleichen TTS-Stimmenpersona in Amazon Polly

    Wir erklären Neuronale Text-to-Speech (NTTS) und erörtern, wie ein breites Portfolio an verfügbaren Stimmen, das eine Reihe von unterschiedlichen Sprechern in unterstützten Sprachen bereitstellt, für Sie arbeiten kann.

    Blog lesen »

  • Amazon Rekognition
  • Was ist Amazon Rekognition?



    Erfahren Sie, wie Sie diesen Service nutzen können, um Bild- und Videoanalysen zu Ihren Anwendungen hinzuzufügen.  

    Leitfaden erkunden »

    Praxisnahe Rekognition: Automatisierte Bild- und Videoanalyse

    Erfahren Sie, wie die Gesichtserkennung beim Streaming von Videos funktioniert, zusammen mit Codebeispielen und wichtigen Punkten in einem selbstgesteuerten Tempo.  

    Erste Schritte mit dem Tutorial »

    Amazon Rekognition – Häufig gestellte Fragen



    Lernen Sie die Grundlagen von Amazon Rekognition kennen und erfahren Sie, wie Sie damit Ihr Deep Learning verbessern und Ihre Anwendungen visuell analysieren können.

    Häufig gestellte Fragen lesen »

  • Amazon Transcribe
  • Transcribe

    Was ist Amazon Transcribe?


    Erkunden Sie den automatischen Spracherkennungsservice von AWS, der mithilfe von ML Audio in Text umwandelt. Erfahren Sie, wie Sie diesen Service als eigenständige Transkription nutzen oder einer beliebigen Anwendung die Sprach-zu-Text-Funktion hinzufügen können

    Leitfaden erkunden »

    Amazon Transcribe – Preise


    Wir stellen Ihnen die AWS-Transkription mit nutzungsbasierter Bezahlung vor, einschließlich benutzerdefinierter Sprachmodelloptionen und dem kostenlosen Kontingent von Amazon Transcribe.


    Leitfaden erkunden »

    Audio-Transkript mit Amazon Transcribe erstellen

    Erfahren Sie, wie Sie mit Amazon Transcribe ein Texttranskript aufgezeichneter Audiodateien erstellen und dabei ein reales Anwendungsszenario zum Testen anhand Ihrer Anforderungen verwenden.

    Erste Schritte mit dem Tutorial »

    Erstellen einer Amazon-Transcribe-Streaming-App

    Erfahren Sie, wie Sie eine App zum Aufzeichnen, Transkribieren und Übersetzen von Live-Audio in Echtzeit erstellen und die Ergebnisse direkt per E-Mail erhalten.

    Leitfaden erkunden »

Die zweite Reihe von KI/ML-AWS-Servicepfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in die Services der Amazon-SageMaker-Familie.

  • SageMaker
  • Funktionsweise von Amazon SageMaker

    Verschaffen Sie sich einen Überblick über Machine Learning und die Funktionsweise von SageMaker.

    Leitfaden erkunden »

    Erste Schritte mit Amazon SageMaker

    Erfahren Sie, wie Sie einer Amazon-SageMaker-Domain beitreten und so Zugriff auf Amazon SageMaker Studio und RStudio auf SageMaker erhalten. 

    Leitfaden erkunden »

    Verwendung von Apache Spark mit Amazon SageMaker

    Erfahren Sie, wie Sie Apache Spark für die Vorverarbeitung von Daten und SageMaker für Modelltraining und Hosting verwenden. 

    Leitfaden erkunden »

    Verwendung von Docker-Container zur Entwicklung von Modellen

    Erfahren Sie, wie Amazon SageMaker im großem Umfang Docker-Container für Entwicklungs- und Laufzeitaufgaben einsetzt. Erfahren Sie, wie Sie vorgefertigte Docker-Images für die integrierten Algorithmen und die unterstützten Deep-Learning-Frameworks für Training und Inferenz bereitstellen.

    Leitfaden erkunden »
     

    Frameworks und Sprachen für Machine Learning

    Erfahren Sie, wie Sie mithilfe des Amazon SageMaker Python SDK mit SageMaker arbeiten können.



    Leitfaden erkunden »

  • SageMaker Autopilot
  • Erstellen eines Amazon-SageMaker-Autopilot-Experiment für tabellarische Daten

    Erfahren Sie, wie Sie ein Amazon-SageMaker-Autopilot-Experiment erstellen, um verschiedene Modellkandidaten in einem tabellarischen Datensatz zu untersuchen, vorverarbeiten und zu trainieren.

    Leitfaden erkunden »

    Automatisches Erstellen von Machine-Learning-Modellen


    Erfahren Sie, wie Sie mit Amazon SageMaker Autopilot automatisch ein ML-Modell erstellen, trainieren und optimieren und das Modell bereitstellen, um Prognosen zu generieren.

    Erste Schritte mit dem Tutorial »

    Modellierung mit Amazon SageMaker Autopilot anhand dieser Beispiel-Notebooks erkunden

    Entdecken Sie Beispiel-Notebooks für Direktmarketing, Vorhersage der Kundenabwanderung und wie Sie Ihren eigenen Datenverarbeitungscode in Amazon SageMaker Autopilot integrieren.

    Leitfaden erkunden »

  • SageMaker Canvas
  • Erste Schritte mit Amazon SageMaker Canvas


    Erfahren Sie, wie Sie mit der Verwendung von SageMaker Canvas beginnen.

    Leitfaden erkunden »

    Generieren von Machine-Learning-Prognosen ohne Codierung

    Dieses Tutorial erklärt, wie Sie Amazon SageMaker Canvas verwenden, um ML-Modelle zu entwickeln und genaue Prognosen zu generieren, ohne eine einzige Codezeile zu schreiben.

    Erste Schritte mit dem Tutorial »

    Vertiefung in SageMaker Canvas


    Lernen Sie SageMaker Canvas und seine visuellen, codierungsfreien ML-Funktionen näher kennen.

    Blog lesen »

    Verwendung von Amazon SageMaker Canvas zur Erstellung Ihres ersten ML-Modells

    Erfahren Sie, wie Sie mit Amazon SageMaker Canvas ein ML-Modell zur Bewertung der Kundenbindung basierend auf einer E-Mail-Kampagne für neue Produkte und Services erstellen.

    Erste Schritte mit der Übung »

  • SageMaker Data Wrangler
  • Erste Schritte mit Amazon SageMaker Data Wrangler

    Erfahren Sie, wie Sie SageMaker Data Wrangler einrichten und anschließend anhand eines vorhandenen Beispieldatensatzes eine exemplarische Vorgehensweise bereitstellen.


    Leitfaden erkunden »

    Trainingsdaten für Machine Learning mit minimalem Code vorbereiten

    Erfahren Sie, wie Sie mit Amazon SageMaker Data Wrangler Daten für ML vorbereiten.



    Erste Schritte mit dem Tutorial »

    Intensiv-Workshop zu SageMaker Data Wrangler

    Erfahren Sie, wie Sie geeignete Analysetypen auf Ihren Datensatz anwenden, um Anomalien und Probleme zu erkennen, die abgeleiteten Ergebnisse/Einblicke zur Formulierung von Abhilfemaßnahmen im Zuge von Transformationen Ihres Datensatzes verwenden. Außerdem können Sie mithilfe der von SageMaker Data Wrangler bereitgestellten Optionen zur Schnellmodellierung die richtige Auswahl und Reihenfolge von Transformationen testen.

    Erste Schritte mit dem Workshop »

  • SageMaker Ground Truth/Ground Truth Plus
  • Erste Schritte mit Amazon Groud Truth

    Erfahren Sie, wie Sie mit der Konsole einen Kennzeichnungsauftrag erstellen, öffentliche oder private Mitarbeiter zuweisen und den Kennzeichnungsauftrag an Ihre Mitarbeiter übermitteln. Erfahren Sie, wie Sie den Fortschritt eines Auftrags zur Kennzeichnung überwachen.

    Leitfaden erkunden »

    Beschriftung von Trainingsdaten für Machine Learning

    Erfahren Sie, wie Sie einen Auftrag zur Kennzeichnung in Amazon SageMaker Ground Truth einrichten können, um Trainingsdaten für Ihr ML-Modell mit Anmerkungen zu versehen.

    Erste Schritte mit dem Tutorial »

    Erste Schritte mit Amazon Ground Truth Plus

    Erfahren Sie, wie Sie die notwendigen Schritte durchführen, um ein Projekt von Amazon SageMaker Ground Truth Plus zu starten, Kennzeichnungen anzuzeigen und die Voraussetzungen für SageMaker Ground Truth Plus zu erfüllen.  

    Leitfaden erkunden »

    Erste Schritte mit Amazon Ground Truth

    Sehen Sie sich an, wie Sie innerhalb weniger Minuten mit der Kennzeichnung Ihrer Daten über die SageMaker-Ground-Truth-Konsole beginnen können.

    Video ansehen »

    Amazon SageMaker Ground Truth Plus – Trainingsdatensätze ohne Code oder interne Ressourcen erstellen

    Erfahren Sie mehr über Ground Truth Plus, einen schlüsselfertigen Service, der mithilfe von Expertenteams schnell hochwertige Trainingsdatensätze liefert und die Kosten um bis zu 40 Prozent senkt.

    Blog lesen »

  • SageMaker JumpStart
  • Erste Schritte mit Machine Learning mit SageMaker JumpStart

    Erkunden Sie die Lösungsvorlagen für SageMaker JumpStart, die eine Infrastruktur für gängige Anwendungsfälle einrichten, sowie ausführbare Beispiel-Notebooks für Machine Learning mit SageMaker.

    Leitfaden erkunden »

    Schneller Einstieg in Ihrem Machine-Learning-Projekt mit Amazon SageMaker JumpStart

    Erfahren Sie, wie Sie Ihr ML-Projekt mithilfe vorab trainierter Modelle und vorgefertigter Lösungen von Amazon SageMaker JumpStart beschleunigen können. Anschließend können Sie das ausgewählte Modell über Amazon-SageMaker-Studio-Notebooks bereitstellen.

    Erste Schritte mit dem Tutorial »

    Erhalten Sie praktische Erfahrungen mit Amazon SageMaker JumpStart in diesem Vertiefungs-Workshop

    Erfahren Sie, wie die Low-Code-ML-Funktionen von Amazon SageMaker Data Wrangler, Autopilot und Jumpstart es einfacher machen, schneller zu experimentieren und hochpräzise Modelle in die Produktion zu bringen.

    Erste Schritte mit dem Workshop »

  • SageMaker Pipelines
  • Erste Schritte mit Amazon SageMaker Pipelines


    Erfahren Sie, wie Sie durchgängige Workflows erstellen, die SageMaker-Aufträge verwalten und bereitstellen. SageMaker Pipelines verfügt über eine SageMaker-Python-SDK-Integration, sodass Sie jeden Schritt Ihrer Pipeline mithilfe einer Python-basierten Schnittstelle erstellen können.

    Leitfaden erkunden »

    Machine-Learning-Workflows automatisieren


    Erfahren Sie, wie Sie mithilfe von Amazon SageMaker Pipelines, Amazon SageMaker Model Registry und Amazon SageMaker Clarify durchgängige Workflows für Machine Learning (ML) erstellen und automatisieren.

    Erste Schritte mit dem Tutorial »

    So erstellen Sie vollautomatisierte ML-Workflows mit Amazon SageMaker Pipelines

    Erfahren Sie mehr über Amazon SageMaker Pipelines, den weltweit ersten ML CI/CD Service, der für jeden Entwickler und Datenwissenschaftler zugänglich ist. SageMaker Pipelines bringt CI/CD-Pipelines in ML und reduziert so die erforderliche Codierungszeit.

    Video ansehen »

  • SageMaker Studio
  • Erstellen und Trainieren eines Machine-Learning-Modells vor Ort

    Erfahren Sie, wie Sie ein ML-Modell vor Ort in Ihrem Amazon-SageMaker-Studio-Notebook entwickeln und trainieren.

    Erste Schritte mit dem Tutorial »

    Integration von SageMaker Studio mit EMR-Workshop

    Erfahren Sie, wie Sie die verteilte Verarbeitung in großem Maßstab nutzen können, um Daten aufzubereiten und anschließend Machine-Learning-Modelle zu trainieren.  

    Erste Schritte mit dem Workshop »

Die dritte Reihe von KI/ML-AWS-Servicepfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia und Amazon Titan.

  • Amazon Bedrock
  • Überblick über Amazon Bedrock

    Erfahren Sie, wie Amazon Bedrock Grundlagenmodelle von führenden KI-Startups und Amazon über eine API zur Verfügung stellt. Auf diese Weise können Sie aus einer großen Auswahl an FMs das Modell auswählen, das für Ihren Anwendungsfall am besten geeignet ist.  

    Leitfaden erkunden »

    Ankündigen von neuen Tools für die Entwicklung mit generativer KI in AWS

    Erfahren Sie mehr über die Hintergründe der Entwicklung von Amazon Bedrock, wie es in den breiteren AWS-Ansatz für KI und ML passt – und verschaffen Sie sich einen Überblick über die möglichen Nutzungen generativer AWS-Services für KI.

    Blog lesen »

    Generative KI entmystifizieren

    In diesem Video diskutieren Dr. Werner Vogels, Amazon CTO, und Swami Sivasubramanian, AWS VP of database, analytics, and ML, über die breite Landschaft der generativen KI, warum diese kein Hype ist und wie AWS den Zugriff auf große Sprach- und Grundlagenmodelle demokratisiert.

    Video ansehen »

  • Amazon CodeWhisperer
  • Was ist Amazon CodeWhisperer?

    Machen Sie sich ein Bild davon, wie CodeWhisperer Sie bei der Erstellung von Code für routinemäßige oder zeitaufwändige, undifferenzierte Aufgaben, bei der Arbeit mit unbekannten APIs oder SDKs, bei der korrekten und effektiven Nutzung von AWS-APIs und bei anderen gängigen Codierungsszenarien wie dem Lesen und Schreiben von Dateien, der Image-Verarbeitung und dem Schreiben von Einheitstests unterstützen soll.

    Leitfaden erkunden »

    Erste Schritte mit Amazon CodeWhisperer

    Erfahren Sie, wie Sie CodeWhisperer für die Verwendung mit jeder der vier möglichen IDEs einrichten: AWS Toolkit für JetBrains, AWS Toolkit für Visual Studio Code, Lambda und AWS Cloud9.

    Leitfaden erkunden »

    Amazon-CodeWhisperer-Workshop

    Erfahren Sie, wie Sie eine vollwertige, ereignisgesteuerte, Serverless-Anwendung zur Bilderkennung erstellen. Mithilfe von Amazon CodeWhisperer schreiben Sie Ihren eigenen Code, der auf AWS Lambda ausgeführt wird, um mit Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 und HTTP-APIs von Drittanbietern zu interagieren und eine Bilderkennung durchzuführen.

    Erste Schritte mit dem Workshop »

  • AWS Trainium
  • Skalierung verteilter Trainings mit AWS Trainium und Amazon EKS

    Erfahren Sie, wie Sie von der allgemeinen Verfügbarkeit von Amazon-EC2-Trn1-Instances, die von AWS Trainium unterstützt wird, profitieren können – einem speziell entwickelten ML-Beschleuniger, der optimiert wurde, um eine leistungsstarke, kostengünstige und stark skalierbare Plattform für das Training von Deep-Learning-Modellen in der Cloud bereitzustellen.  

    Blog lesen »

    Überblick über AWS Trainium

    Erfahren Sie mehr über AWS Trainium, den Machine Learning (ML)-Beschleuniger der zweiten Generation, den AWS speziell für das Deep-Learning-Training von Modellen mit mehr als 100 Milliarden Parametern entwickelt hat. Jede Amazon Elastic Compute Cloud (EC2)-Trn1-Instance stellt bis zu 16 AWS-Trainium-Beschleuniger bereit, um eine leistungsstarke und kostengünstige Lösung für Deep-Learning-Training (DL) in der Cloud bereitzustellen.

    Leitfaden erkunden »

    Empfohlene Trainium-Instances

    Erfahren Sie, wie AWS-Trainium-Instances konzipiert wurden, um hohe Leistung und Kosteneffizienz für Deep-Learning-Modellinferenz-Workloads bereitzustellen.



    Leitfaden erkunden »

  • AWS Inferentia
  • Überblick über AWS Inferentia

    Erfahren Sie, wie Beschleuniger von AWS entwickelt werden, um für Ihre Deep Learning (DL)-Inferenzanwendungen hohe Leistung zu niedrigsten Kosten zu liefern.  

    Leitfaden erkunden »

    AWS Inferentia2 basiert auf AWS Inferentia1 auf und bietet einen viermal höheren Durchsatz und eine zehnmal geringere Latenz

    Finden Sie heraus, wofür AWS Inferentia2 optimiert ist – und erfahren Sie, wie es von Grund auf so konzipiert wurde, dass es eine höhere Leistung bietet und gleichzeitig die Kosten für LLMs und generative KI-Inferenz senkt.

    Blog lesen »

    Machine-Learning-Inferenz mithilfe von AWS Inferentia

    Erfahren Sie, wie Sie einen Amazon-EKS-Cluster mit Knoten erstellen, auf denen Amazon-EC2-Inf1-Instances ausgeführt werden, und (optional) eine Beispielanwendung bereitstellen. Amazon-EC2-Inf1-Instances werden von AWS-Inferentia-Chips unterstützt, die von AWS speziell entwickelt wurden, um hohe Leistung und niedrigste Kosten für Inferenzen in der Cloud bereitzustellen.

    Leitfaden erkunden »

  • Amazon Titan
  • Überblick über Amazon Titan

    Erfahren Sie, wie Amazon Titan FMs anhand großer Datensätze vorab trainiert werden, was sie zu leistungsstarken Allzweckmodellen macht. Erfahren Sie, wie Sie sie unverändert oder privat verwenden können, um sie mit Ihren eigenen Daten für eine bestimmte Aufgabe anzupassen, ohne große Datenmengen mit Anmerkungen zu versehen.

    Leitfaden erkunden »

Erkunden

Architekturdiagramme

Diese Referenz-Architekturdiagramme zeigen Beispiele für genutzte AWS-KI- und ML-Services.

Architekturdiagramme erkunden »

Whitepaper

Lesen Sie Whitepapers, die Ihnen den Einstieg erleichtern und lernen Sie bewährte Methoden bei der Auswahl und Nutzung von KI/ML-Services kennen.

Whitepapers erkunden »

AWS-Lösungen

Erkunden Sie geprüfte Lösungen und Architekturleitfäden für gängige Anwendungsfälle für KI- und ML-Services.

Lösungen erkunden »

War diese Seite hilfreich?