Amazon SWF unterstützt Entwickler beim Erstellen, Ausführen und Skalieren von Hintergrundaufträgen, die parallele oder sequenzielle Schritte aufweisen. Sie können sich SWF als vollständig verwaltete Statusverfolgung und Aufgabenkoordinierung in der Cloud vorstellen.

Wenn die Ausführung von Schritten in Ihrer App mehr als 500 ms erfordert, Sie den Verarbeitungsstatus nachverfolgen müssen und fehlgeschlagene Aufgaben wiederherstellen oder wiederholen müssen, kann Amazon SWF Ihnen helfen.


Auf der Seite "Erste Schritte" finden Sie Beispielcode für parallele, sequenzielle, aufgefächerte und weitere Workflowmuster.

Legen Sie gleich los

Kostenlos bei AWS einsteigen

Kostenloses Konto erstellen

Das kostenlose Kontingent für AWS umfasst 10 000 Aktivitäten, 30 000 Workflow-Tage und 1 000 ausgelöste Workflow-Ausführungen im Service Amazon Simple Workflow (SWF).

Details zum kostenlosen Kontingent für AWS anzeigen »

Amazon SWF fördert die Trennung zwischen dem Steuerungsablauf der schrittweisen Logik Ihrer Hintergrundaufträge und den eigentlichen Arbeitseinheiten, die Ihre eigene Geschäftslogik enthalten. Dies ermöglicht Ihnen, die "Statusmechanik" Ihrer Anwendung getrennt von der den Kern bildenden Geschäftslogik, die sie differenziert, zu verwalten, zu warten und zu skalieren. Wenn sich Ihre Geschäftserfordernisse ändern, können Sie auf einfache Weise die Anwendungslogik ändern, ohne sich um die zugrundeliegende Statusmechanik, Aufgabenverteilung und Flusssteuerung kümmern zu müssen.

Amazon SWF wird in den hoch verfügbaren Rechenzentren von Amazon ausgeführt, sodass das Modul zur Statusverfolgung und Aufgabenverarbeitung jederzeit verfügbar ist, wenn es von Anwendungen benötigt wird. Amazon SWF speichert auch redundant die Aufgaben, sendet sie zuverlässig an die Anwendungskomponenten, verfolgt ihren Fortschritt und speichert ihren jeweiligen Status.

Amazon SWF ersetzt komplexe individuell kodierte Workflow-Lösungen und Prozessautomatisierungssoftware durch einen vollständig verwalteten Web-Service für den Cloud-Workflow. Dadurch entfällt für die Entwickler die Notwendigkeit, die Infrastrukturinstallationen der Prozessautomatisierung zu verwalten, und sie können ihre Energie in die einzigartige Funktionalität ihrer Anwendung investieren.

Amazon SWF lässt sich nahtlos skalieren und an die Nutzung Ihrer Anwendung anpassen. Es ist keine manuelle Verwaltung des Workflow-Services erforderlich, wenn Sie weitere Cloud-Workflows zur Anwendung hinzufügen oder die Komplexität Ihrer Workflows erhöhen.

Mit Amazon SWF können Sie die Anwendungskomponenten und Koordinierungslogik in jeder beliebigen Programmiersprache erstellen und wahlweise in der Cloud oder auf unternehmensinternen Computern ausführen.

Videokodierung unter Verwendung von Amazon S3 und Amazon EC2. In diesem Anwendungsfall werden große Videos in Einheiten nach Amazon S3 hochgeladen. Der Upload der Einheiten muss überwacht werden. Nachdem eine Einheit hochgeladen wurde, wird sie durch Herunterladen in eine Amazon EC2-Instanz kodiert. Die kodierte Einheit wird in einem anderen Amazon S3-Speicher gespeichert. Nachdem alle Einheiten auf diese Weise kodiert wurden, werden sie zu einer kompletten kodierten Datei kombiniert und vollständig wieder in Amazon S3 zurückgespeichert. Bei diesem Vorgang können aufgrund von Kodierungsfehlern bei einer oder mehreren Einheiten Fehler auftreten. Solche Fehler müssen über das Cloud-Workflow-Management von Amazon SWF erkannt und behandelt werden.

Migrieren von Komponenten aus dem Rechenzentrum in die Cloud. Geschäftskritische Vorgänge werden in einem privaten Rechenzentrum gehostet, müssen aber komplett in die Cloud migriert werden, ohne dass es zu Unterbrechungen kommt. Amazon SWF-basierte Anwendungen können Worker, die im Rechenzentrum ausgeführte Komponenten packen, mit in der Cloud ausgeführten Workern kombinieren. Um einen Auftragnehmer aus einem Rechenzentrum nahtlos zu migrieren, werden zuerst neue Auftragnehmer desselben Typs in der Cloud bereitgestellt. Die Auftragnehmer im Rechenzentrum werden wie gewohnt weiter ausgeführt, zusammen mit den neuen Cloud-basierten Auftragnehmern. Zum Testen und Validieren der Cloud-basierten Auftragnehmer wird ein Teil des Verkehrs über sie geleitet. Während dieser Tests kommt es nicht zu Unterbrechungen der Anwendung, weil die Auftragnehmer im Rechenzentrum weiterhin ausgeführt werden. Nach erfolgreichen Tests werden die Worker im Rechenzentrum schrittweise außer Betrieb genommen und die Worker in der Cloud vertikal skaliert, bis sie vollständig in eine Management-Anwendung des Cloud-Workflows verschoben sind. Dieser Cloud-Workflow-Vorgang kann für alle anderen Worker im Rechenzentrum wiederholt werden, sodass die Anwendung komplett in die Cloud verschoben wird. Wenn aus irgendwelchen geschäftlichen Gründen bestimmte Verarbeitungsschritte weiterhin im privaten Rechenzentrum ausgeführt werden müssen, so ist dies ohne Probleme möglich und die entsprechenden Worker können dennoch Teil der Anwendung sein.

Verarbeitung großer Produktkataloge mithilfe von Amazon Mechanical Turk. Bei der Validierung von Daten in großen Katalogen werden die Produkte im Katalog stapelweise verarbeitet. Unterschiedliche Stapel können gleichzeitig verarbeitet werden. Für jeden Stapel werden die Produktdaten aus den Servern im Rechenzentrum extrahiert und in die von der Amazon Mechanical Turk-RUI (Requester User Interface) benötigten CSV-Dateien (Comma Separated Values) umgewandelt. Die CSV wird hochgeladen, um die HITs (Human Intelligence Tasks) aufzufüllen und auszuführen. Wenn die HITs abgeschlossen sind, wird die resultierende CSV-Datei zurückgewandelt, um die Daten wieder in das Originalformat zu bringen. Die Ergebnisse werden dann bewertet und die Amazon Mechanical Turk-Mitarbeiter werden für fehlerfreie Ergebnisse bezahlt. Fehler werden aussortiert und erneut verarbeitet, während die fehlerfreien HIT-Ergebnisse zur Aktualisierung des Katalogs verwendet werden. Während der Verarbeitung der Stapel muss das System die Qualität der Amazon Mechanical Turk-Mitarbeiter nachhalten und die Zahlungen entsprechend anpassen. Fehlerhafte HITs werden erneut verarbeitet und wieder über die Pipeline gesendet.