Get Started with AWS for Free

Kostenloses Konto erstellen
oder bei der Konsole anmelden

Das kostenlose Kontingent für AWS umfasst 10 000 Aktivitäten, 30 000 Workflow-Tage und 1 000 ausgelöste Workflow-Ausführungen in Amazon Simple Workflow (SWF).

Details zum kostenlosen Kontingent für AWS anzeigen »

Amazon Simple Workflow (Amazon SWF) ist ein Service zur Koordinierung von Aufgaben und zur Statusverwaltung für Cloud-Anwendungen. Mit Amazon SWF brauchen Sie keinen Glue-Code mehr zu schreiben oder Zustandsmaschinen zu generieren, sondern können mehr in die Geschäftslogik investieren, was Ihre Anwendungen von anderen abhebt.

Unsere APIs, benutzerfreundlichen Bibliotheken und die Control Engine helfen Entwicklern dabei, Anwendungen auf mehreren Rechnern zu koordinieren, zu überwachen und zu skalieren – in der AWS-Cloud und in anderen Rechenzentren. Ganz gleich, ob es um die Automatisierung von Geschäftsprozessen für Finanzanwendungen, den Aufbau von Big-Data-Systemen oder die Verwaltung von Cloud-Infrastrukturservices geht, Amazon SWF hilft Ihnen dabei, Anwendungen mit belastbaren Verarbeitungsschritten zu entwickeln. Diese Schritte können unabhängig voneinander skaliert und, wenn sie viele verschiedene Systeme betreffen, überwacht werden.

Mit Amazon SWF können Sie verschiedene Verarbeitungsschritte in einer Anwendung, die auf einem oder mehreren Rechnern läuft, als eine Gruppe von "Aufgaben" strukturieren. Amazon SWF verwaltet Abhängigkeiten zwischen Aufgaben, plant auszuführende Aufgaben und führt jede Logik aus, die parallel ausgeführt werden muss. Der Service speichert auch die Aufgaben, sendet diese zuverlässig an die Anwendungskomponenten, verfolgt deren Fortschritt und speichert ihren jeweiligen Status.

Wenn sich die Anforderungen Ihres Unternehmens ändern, können Sie mit Amazon SWF problemlos die Anwendungslogik anpassen, ohne sich dabei um die dafür erforderlichen Maschinen und ihren Zustand, das Einleiten der Aufgaben und die Datenflusskontrolle kümmern zu müssen – und wie bei anderen Amazon Web Services zahlen Sie auch hier nur für das, was Sie nutzen.

Amazon SWF ersetzt komplexe individuell kodierte Workflow-Lösungen und Prozessautomatisierungssoftware durch einen vollständig verwalteten Web-Service. Dadurch entfällt für die Entwickler die Notwendigkeit, die Infrastrukturinstallationen der Prozessautomatisierung zu verwalten, und sie können ihre Energie in die einzigartige Funktionalität ihrer Anwendung investieren.

Amazon SWF lässt sich nahtlos skalieren und an die Nutzung Ihrer Anwendung anpassen. Es ist keine manuelle Verwaltung des Workflow-Services erforderlich, wenn Sie weitere Workflows zur Anwendung hinzufügen oder die Komplexität Ihrer Workflows erhöhen.

Mit Amazon SWF können Sie die Anwendungskomponenten und Koordinierungslogik in jeder beliebigen Programmiersprache erstellen und wahlweise in der Cloud oder auf unternehmensinternen Computern ausführen.

Videokodierung unter Verwendung von Amazon S3 und Amazon EC2. In diesem Anwendungsfall werden große Videos in Einheiten nach Amazon S3 hochgeladen. Der Upload der Einheiten muss überwacht werden. Nachdem eine Einheit hochgeladen wurde, wird sie durch Herunterladen in eine Amazon EC2-Instanz kodiert. Die kodierte Einheit wird in einem anderen Amazon S3-Speicher gespeichert. Nachdem alle Einheiten auf diese Weise kodiert wurden, werden sie zu einer kompletten kodierten Datei kombiniert und vollständig wieder in Amazon S3 zurückgespeichert. Bei diesem Vorgang können aufgrund von Kodierungsfehlern bei einer oder mehreren Einheiten Fehler auftreten. Solche Fehler müssen erkannt und behandelt werden.

Migrieren von Komponenten aus dem Rechenzentrum in die Cloud. Geschäftskritische Vorgänge werden in einem privaten Rechenzentrum gehostet, müssen aber komplett in die Cloud migriert werden, ohne dass es zu Unterbrechungen kommt. Mit Amazon SWF: Amazon SWF-basierte Anwendungen können Worker, die im Rechenzentrum ausgeführte Komponenten packen, mit in der Cloud ausgeführten Workern kombinieren. Um einen Worker aus einem Rechenzentrum nahtlos zu migrieren, werden zuerst neue Worker desselben Typs in der Cloud bereitgestellt. Die Worker im Rechenzentrum werden wie gewohnt weiter ausgeführt, zusammen mit den neuen Cloud-basierten Workern. Zum Testen und Validieren der Cloud-basierten Worker wird ein Teil des Verkehrs über sie geleitet. Während dieser Tests kommt es nicht zu Unterbrechungen der Anwendung, weil die Worker im Rechenzentrum weiterhin ausgeführt werden. Nach erfolgreichen Tests werden die Worker im Rechenzentrum schrittweise außer Betrieb genommen und die Worker in der Cloud hochskaliert, bis sie nach und nach komplett in der Cloud ausgeführt werden. Dieser Vorgang kann für alle anderen Worker im Rechenzentrum wiederholt werden, sodass die Anwendung komplett in die Cloud verschoben wird. Wenn aus irgendwelchen geschäftlichen Gründen bestimmte Verarbeitungsschritte weiterhin im privaten Rechenzentrum ausgeführt werden müssen, so ist dies ohne Probleme möglich und die entsprechenden Worker können dennoch Teil der Anwendung sein.

Verarbeitung großer Produktkataloge mithilfe von Amazon Mechanical Turk. Bei der Validierung von Daten in großen Katalogen werden die Produkte im Katalog stapelweise verarbeitet. Unterschiedliche Stapel können gleichzeitig verarbeitet werden. Für jeden Stapel werden die Produktdaten aus den Servern im Rechenzentrum extrahiert und in die von der Amazon Mechanical Turk-RUI (Requester User Interface) benötigten CSV-Dateien (Comma Separated Values) umgewandelt. Die CSV wird hochgeladen, um die HITs (Human Intelligence Tasks) aufzufüllen und auszuführen. Wenn die HITs abgeschlossen sind, wird die resultierende CSV-Datei zurückgewandelt, um die Daten wieder in das Originalformat zu bringen. Die Ergebnisse werden dann bewertet und die Amazon Mechanical Turk-Mitarbeiter werden für fehlerfreie Ergebnisse bezahlt. Fehler werden aussortiert und erneut verarbeitet, während die fehlerfreien HIT-Ergebnisse zur Aktualisierung des Katalogs verwendet werden. Während der Verarbeitung der Stapel muss das System die Qualität der Amazon Mechanical Turk-Mitarbeiter nachhalten und die Zahlungen entsprechend anpassen. Fehlerhafte HITs werden erneut verarbeitet und wieder über die Pipeline gesendet.