AWS Germany – Amazon Web Services in Deutschland
AWS re:invent 2022: Die Highlights und ein Recap für Entwickler und Architekten
von Stephan Kliche und Ovidiu Hutuleac
Die jährliche re:Invent Konferenz von Amazon Web Services (AWS) ist Ende November 2022 wieder in vollem Gange gewesen und hat ein diverses Publikum mit über 50.000 Teilnehmern angezogen. In mehr als 2000 technischen Sessions wurde mit über 100 Ankündigungen die Liste neuer AWS Services und Features wieder einmal erweitert. Während der Sessions haben Kunden aus nahezu allen Industrien, sowie AWS Mitarbeiter, unter anderem über die Bedeutung von Daten, Sicherheit und Nachhaltigkeit gesprochen.
Wir stellen in diesem Artikel wichtige Ankündigungen für Entwickler und Architekten vor. Darüber hinaus haben wir für Sie eine Playlist mit On-Demand-Breakout-Sessions zusammengestellt, die Entwickler und Architekten inspirieren sollen.
Die wichtigen Themen aus den Keynotes
Dr. Werner Vogels: “The world is asynchronous”
Die Keynote von Werner Vogels, VP und CTO von Amazon.com, ist für Entwickler und Architekten immer ein besonders Highlight, weil er viele deren Herausforderungen adressiert. Auch dieses Jahr hat Werner es wieder geschafft mit “The world is asynchronous” Technologie in einen breiteren gesellschaftlichen Kontext einzuordnen.
Die Welt der IT hat sich in den letzten Jahrzehnten von einem synchronen, monolithischen Aufbau zu einem asynchronen, lose gekoppelten Satz von Systemen und Services verändert. Technologische Innovationen wären in einer synchronen Welt so nicht möglich gewesen — wir können nicht alle gleich sein und wir können nicht alle dasselbe tun, daher ist die Welt von Natur aus asynchron. Als Konsequenz dessen, sollten Entwickler und Architekten auf event-driven Architekturen setzen.
Dr. Swami Sivasubramanian: “Die drei Kernelemente einer Datenstrategie“
Swami Sivasubramanian, Vice President of Data and Machine Learning bei AWS, und sein Team haben es sich zur Aufgabe gemacht, es Organisationen und Entwicklern einfach zu machen, Daten zu analysieren, zu visualisieren und durch maschinelles Lernen nutzbar zu machen. Swami hat in seiner Keynote die vielen Ankündigungen in die drei Kernelemente eingebettet, die eine zukunftssichere Datenstrategie eines Unternehmens enthalten muss:
- Eine zukunftssichere Grundlage durch die richtigen Basis-Datendienste schaffen
- Daten in der Organisation über Silo-Grenzen hinweg integrieren
- Demokratisieren von Daten durch geeignete Werkzeuge und Befähigen der Anwender
Adam Selipsky: “AWS wird bis 2030 mehr Wasser zurückgeben, als es verwendet.”
Adam Selipsky, Chief Executive Officer bei Amazon Web Services, hat in seiner zweistündigen Keynote neben vielen Fallbeispielen von Kunden und Ankündigungen für neue Features und Services auch über das wichtige Thema Nachhaltigkeit gesprochen. Er erklärte, dass AWS heute der weltweit größte gewerbliche Käufer von erneuerbarer Energie ist und sich zum Ziel gesetzt hat, bis 2025 zu 100% erneuerbare Energien zu verwenden. AWS plant bis 2030 “Water-positive” zu sein, also mehr Wasser an die Gemeinden zurückzugeben als verbraucht wird.
Ankündigungen in den verschiedenen Kategorien
Builder Experience
Im Bereich Builder Experience gibt es zwei besonders spannende Ankündigungen: Einmal geht es darum, einfacher mit der Entwicklung zu starten und zum anderen darum, das Entwickeln auf AWS noch besser zu skalieren.
Beim Einstieg in die serverlose Entwicklung kann die Lernkurve sehr steil sein, gerade wenn versucht wird, mehrere AWS-Services miteinander zu kombinieren. Zuerst müssen die Fragen geklärt werden welche Services werden benötigt, wie arbeiten sie zusammen und was sind die Best Practices? Später will man die Lösung mit Infrastructure as Code (IaC) bereitstellen und oft ist es schwierig zu kommunizieren wie sich die Architektur der Anwendung über die Zeit verändert hat. AWS Application Composer setzt genau da an und unterstützt Teams bei der visuellen Zusammenstellung und Konfiguration von AWS-Services in serverlosen Anwendungen, die durch IaC unterstützt werden. Mit AWS Application Composer können in wenigen Minuten Anwendungen visuell per Drag & Drop erstellt werden, allgemeine Aufgaben und die Zusammenarbeit im Team werden beschleunigt und die erstellten Anwendungen können über IaC bereitgestellt werden.
Wie sieht es dann aus, wenn Software im großen Stil entwickelt werden soll? Bevor mit der eigentlichen Entwicklung begonnen werden kann, verbringen Kunden viel Zeit damit, Tools einzurichten und miteinander zu verbinden. Beispielsweise müssen Entwicklungswerkzeuge, Entwicklungs- und Test-Umgebung sowie CI/CD-Pipelines eingerichtet werden. Für jedes Projekt muss das Ganze wiederholt werden. Amazon CodeCatalyst ist ein Werkzeug das Entwickler dabei unterstützt, dass Software auf AWS schneller erstellt und bereitgestellt werden kann. CodeCatalyst führt dafür viele Tools zusammen, die zum Planen, Implementieren, Bauen, Testen und Bereitstellen von Anwendungen auf AWS erforderlich sind. Standards können über Blueprints zur Verfügung gestellt werden.
Serverless
Im Bereich Serverless darf natürlich AWS Lambda nicht fehlen. Hier waren zunächst die Statistiken zu Lambda beeindruckend. Seit 2014 hat AWS über 100 neue Features in AWS Lambda eingeführt, über 1 Million Kunden nutzen den Service und monatlich werden über 10 Billionen Anfragen verarbeitet. Die drei folgenden Ankündigungen sind uns besonders ins Auge gefallen.
Java Entwickler, die serverlos entwickeln wollen, standen häufig vor dem Problem, dass der erste Start einer Lambda-Funktion relativ lange gedauert hat. Dies wurde nun mit dem neuen Feature Lambda Snap Start adressiert, das die sogenannten “cold start”-Zeiten bis zu 90% reduzieren kann.
Außerdem wurde die Integration verschiedener AWS Services weiter vereinfacht. Bis zur re:invent war es erforderlich sogenannten Integrations- oder Boilerplate-Code zu schreiben, um beispielsweise eine AWS Step Function von beim Eintreffen einer Nachricht auf einer SQS Queue aufzurufen. Dies ist nun mittels Amazon Eventbridge Pipes nicht mehr nötig. Amazon EventBridge Pipes ermöglicht es also einfach, konsistent und kostengünstig Punkt-zu-Punkt-Integrationen zwischen Ereignisproduzenten und -konsumenten zu erstellen. Dadurch ist das Schreiben des gesamten Boilerplate-Codes überflüssig. Mithilfe einer Pipe kann eine Integration zwischen einem Quell- und ein Ziel-Service in EventBridge konfiguriert werden, kein Code ist mehr nötig. Innerhalb einer Pipe können Events gefiltert werden, z. B. um Kosten zu sparen, da unnötige Ereignisse gar nicht erst verarbeitet werden. Vor dem Ausliefern können Events außerdem angereichert werden. Dominik Richter hat in einem Blog Post beschrieben, wie die bekannten Enterprise Integration Patterns mit EventBridge Pipes implementiert werden können.
Einige Kunden möchten umfangreiche, parallele Workloads innerhalb ihrer serverlosen Anwendungen koordinieren. Sie möchten beispielsweise über Millionen von in S3 gespeicherten Objekten iterieren, wie z. B. Logs, Bilder oder CSV-Dateien. Bisher war das innerhalb einer Step Function nur limitiert möglich, da bisher nur 40 parallele Workflows gestartet werden konnten. Der neue Distrbuted Map State in AWS Step Functions kann bis zu 10.000 parallele Workflows zur Verarbeitung von Daten starten. Die Daten können dann in jedem von Step Functions unterstützen Service verarbeitet werden. Entwickler haben die Möglichkeit die Parallelität und auch Batch Größen zu konfigurieren, um die aufzurufenden Services nicht zu überlasten.
DevOps und Resiliency
In dieser Kategorie stellen wir einige Ankündigungen im Bereich Resiliency, Deployment und Observability vor.
Sie kennen sicher die folgende Situation: Monitoring-Dashboards zeigen einen völlig normalen Status an, aber gleichzeitig melden Kunden, dass sich die App langsam verhält oder, dass sie überhaupt nicht verfügbar ist. Die Ursachenanalyse dauert oft mehrere Tage. Viele Kunden haben die Herausforderung zu verstehen, wie sich eine Anwendung aus der Sicht von vielen und geografisch voneinander entfernten Internetanbietern verhält. Amazon CloudWatch Internet Monitor ist eine neue Funktion von Amazon CloudWatch, mit dem Kunden erkennen können, wie sich ein Internetproblem auf die Leistung und Verfügbarkeit auf Anwendungen auswirken kann. Damit kann die Zeit, die für die Diagnose von Internetproblemen benötigt wird, von Tagen auf Minuten reduziert werden. Internet Monitor verwendet die Verbindungsdaten, die AWS aus der globalen Netzwerk-Infrastruktur erfasst. Internet Monitor ermittelt damit eine Baseline für Leistung und Verfügbarkeit aus Sicht bestimmter Internet-Knotenpunkte. Mit Internet Monitor können Kunden Probleme die im Internet auftreten schneller und einfacher verstehen und entsprechend reagieren.
Vom Internet zurück in die AWS Region: Microservices-Architekturen sind ein verbreiteter Softwareentwicklungsansatz, bei dem Anwendungen aus kleinen unabhängigen Diensten bestehen, die über klar definierte APIs miteinander kommunizieren. Um eine effektive Kommunikation zwischen Microservices zu ermöglichen waren oft spezielle Netzwerkkenntnisse erforderlich und es mussten aufwändige Konfigurationen vorgenommen werden. Hier kommt Amazon ECS Service Connect ins Spiel. Amazon ECS Service Connect vereinfacht die Servicekommunikation zwischen Microservices über mehrere ECS-Cluster und VPCs hinweg. Mit ECS Service Connect können Kunden über logische Namen auf Services verweisen. So können Kunden einfach eine Verbindung zwischen Services erstellen und den Netzwerk-Verkehr automatisch zwischen ECS-Tasks verteilen, ohne Loadbalancer bereitstellen und konfigurieren zu müssen. Health Checks und automatische Retries stehen neben neuen Dashboards mit Echtzeit-Netzwerkmetriken ebenfalls zur Verfügung.
Im Bereich der Elastic Loadbalancer gibt es auch einige Neuerungen, die mehr Kontrolle über das Verhalten der Load Balancer erlauben. Diese sind insbesondere wichtig, um Anwendungen mit erhöhter Resilienz noch besser auf AWS betreiben zu können. Application Load Balancer (ALB) unterstützen jetzt auch das Deaktivieren von Load Balancing über mehrere Availability Zones (cross zone load balancing). Genau wie beim Network Load Balancer (NLB) kann so eine verbesserte Isolation zwischen AZs erreicht werden. Ein neues Feature am Network Load Balancer ist, dass es jetzt auch die Möglichkeit gibt, HTTP Codes innerhalb von Health Checks auszuwerten.
Compute
Auf der re:Invent wurde die fünfte Generation der Nitro Custom Chips angekündigt. Nitro ist einer der Gründe dafür, warum Amazon Elastic Compute Cloud (EC2) die beste Leistung und die erhöhte Sicherheit bietet. Jede neue EC2 Instanz, die seit 2014 eingeführt wurde, basiert auf dem Nitro-System.
Neben der Performance profitieren AWS-Kunden von Nitro darüber hinaus durch stärkere Absicherung der EC2-Instanzen, verbesserte Netzwerk- und Speicherleistung und der vollständigen Verwendung aller Server-Ressourcen ausschließlich für Kunden-Workloads. Die fünfte Generation des Nitro-Chips enthält doppelt so viele Transistoren und biete 50 Prozent höhere Speicherbandbreite sowie 60 Prozent mehr Netzwerkdurchsatz bei gleichzeitig niedrigerer Latenzzeit und besserer Leistung pro Watt gegenüber der vorherigen Version.
Es wurden drei neue Instanz-Typen für bestimmte industriespezifische Funktionen für Workloads mit extrem hohen Anforderungen angekündigt, die auf eigens von AWS entwickelten Chips basieren:
- C7gn-Instanzen sind für die anspruchsvollsten netzwerkintensiven Arbeitslasten konzipiert z.B. virtuelle Netzwerk-Appliances wie etwa Firewalls, virtuelle Router oder Load Balancer, aber auch Datenanalyse und Cluster-Computing-Aufgaben. Sie werden von AWS Graviton3E-Prozessoren und AWS Nitro v5 Karten betrieben und unterstützen eine Netzwerkbandbreite von bis zu 200 Gbit/s, sowie eine 50% höhere Paketverarbeitungsleistung.
- HPC7g-Instanzen, ebenfalls vom AWS Graviton3E-Prozessor betrieben, ermöglichen eine kosteneffektive Ausführung von High-Performance-Computing (HPC)-Anwendungsfällen. Sie eignen sich für alles, von mathematischen Modellen bis hin zu Wettervorhersagen und für eine Reihe von Anwendungen in Wirtschaft und Wissenschaft.
- Inf2-Instanzen, die für die besonders große Deep Learning-Modelle entwickelt wurden. Sie können Inf2-Instanzen verwenden für Anwendungsfälle wie Inferenz-Anwendungen zum Verstehen von natürlicher Sprache, Sprachübersetzungen, Video- und Bildgenerierung, Personalisierung, oder Betrugserkennung. Im Vergleich zur vorherigen Generation (Inf1-Instanzen) bieten Inf2-Instanzen eine 3-mal höhere Rechenleistung, bis zu 4-mal höheren Durchsatz und bis zu 10-mal niedrigere Latenz.
Data, Analytics & AI/ML
Der Bereich Data, Analytics und AI/ML würde aufgrund der vielen Ankündigungen leicht einen ganzen Blogpost in Anspruch nehmen. Wir konzentrieren uns daher auf die Ankündigungen, die für den Entwickler und Architekten interessant sein können, die nicht täglich Analytics Tools arbeiten.
Auf der re:Invent wurde mit Amazon DatenZone ein neues Werkzeug angekündigt, dass die Katalogisierung und gemeinsame Nutzung von Daten im gesamten Unternehmen vereinfachen soll. Amazon Data Zone vereint dafür Daten-Management- und Governance-Werkzeuge in einem Tool, um Daten im gesamten Unternehmen für Geschäftsanwender, Data Scientists und Ingenieure auf einfache Weise zu organisieren und die Suche zu erleichtern.
Anwender arbeiten in einem Portal in Daten-Projekten zusammen, dass eine personalisierte Ansicht über alle Datenquellen bietet. Über DataZone können gleichzeitig Governance- und Compliance-Richtlinien zentral gesteuert werden.
Amazon OpenSearch bietet jetzt eine neue serverlose Option. Damit wird es noch einfacher Such- und Analyse-Workloads im Petabyte-Bereich auszuführen, ohne OpenSearch-Cluster konfigurieren, verwalten oder skalieren zu müssen. OpenSearch Serverless stellt die nötigen Ressourcen automatisch bereit und skaliert sie, um selbst bei den anspruchsvollsten und unvorhersehbarsten Workloads eine schnelle Indizierung von Daten und schnelle Antworten für Queries zu ermöglichen. Wie funktioniert das? Mit OpenSearch Serverless werden Rechen- und Speicherkomponenten entkoppelt und die Indizierungskomponenten (Ingest) von den Suchkomponenten (Abfrage) getrennt. Amazon Simple Storage Service (Amazon S3) wird als primärer Datenspeicher für Indizes und Daten verwendet. Mit dieser entkoppelten Architektur kann OpenSearch Serverless Such- und Indexierungsfunktionen unabhängig voneinander skalieren. Wenn beispielsweise eine Anwendung auf einmal viel mehr Daten an OpenSearch sendet (z. B. Log-Informationen), skaliert OpenSearch Serverless die Ressourcen für die Indizierung der Daten, ohne das die Antwortzeiten für Suchanfragen beeinträchtigt werden.
Vom Organisieren der Daten, über das serverlose Suchen in den Daten, wechseln wir nun zur Arbeit mit den Daten. Beispielsweise wollen Data Scientists neue Erkenntnisse aus Daten generieren. Um mit Hilfe von maschinellem Lernen Vorhersagen auf der Grundlage von Geodaten zu treffen, stehen Kunden vor zahlreichen Herausforderungen, z.B. die Beschaffung hochwertiger Geodatensätze oder die Aufbereitung von Geodaten für Training und Inferenz. Mit den neuen Amazon SageMaker Geodaten-Funktionen wird das jetzt leichter, denn Data Scientists werden beim Erstellen, Trainieren und Bereitstellen von ML-Modellen mit Geodaten unterstützt. Beispielsweise stehen jetzt vorab trainierte Deep Neural Network (DNN)-Modelle und Geodaten-Operatoren, die den Zugriff auf große Geodatensätze und deren Aufbereitung erleichtern, zur Verfügung. Generierte Vorhersagen können anschließend in SageMaker auf Karten visualisiert werden.
→ Alle Ankündigungen im Bereich Analytics im Überblick und der AI/ML re:invent 2022 Guide.
Security
Im Bereich Security wurde zunächst der AWS Digital Sovereignty Pledge eingeführt — das Versprechen allen AWS-Kunden, ohne Kompromisse die fortschrittlichsten Souveränitäts-Kontrollen und Funktionen in der Cloud anzubieten. In diesem Beitrag wollen wir außerdem auf zwei spannende Ankündigungen eingehen. Einmal geht es um das Thema Berechtigungsprüfungen und dann um automatisierte Schwachstellenbewertungen von AWS Lambda Quellcode.
Das Prüfungen von Berechtigungen muss in jeder Applikation umgesetzt werden und oftmals sind diese Logiken komplex und müssen häufig angepasst werden. Kunden implementieren dieselben Berechtigungsprüfungen häufig redundant in unterschiedlichen Anwendungen. Amazon Verified Permissions unterstützt Anwendungsentwickler jetzt dabei das zu vereinfachen, in dem es ermöglicht Berechtigungen an einem zentralen Ort außerhalb der Applikation zu verwalten. Entwickler können mit Amazon Verified Permissions z. B. Berechtigungen verwalten, die definieren welche Benutzer Zugriff auf welche Ressourcen haben. Die dafür eigens entwickelte und veröffentlichte Richtliniensprache Cedar erlaubt es, ebenfalls sehr komplexe Richtlinien zu definieren. Amazon Verified Permissions vereinfacht also das Verwalten von Berechtigungsregeln an einem Ort, ohne dass Code angepasst werden muss und es integriert mit vielen Identitätsanbietern z.B. mit Amazon Cognito.
Amazon Inspector ist ein Service zur Verwaltung von Sicherheitsschwachstellen, der Workloads kontinuierlich auf Schwachstellen und Netzwerkrisiken scannt. Bisher mussten Lambda Entwickler auf Third Party Werkzeuge zurückgreifen. Amazon Inspector unterstützt jetzt auch AWS-Lambda-Funktionen und führt jetzt auch automatisierte Schwachstellenbewertungen für Lambda Funktionen durch. Amazon Inspector scannt automatisch angegebenen Lambda-Funktionen und identifiziert Softwareschwachstellen im Code der Lambda Funktion und außerdem in verwendeten Third-Party Bibliotheken.
→ Alle Ankündigungen im Bereich Security im Überblick.
Session Playlist für Entwickler und Architekten
Auf der re:invent gab es neben den Ankündigungen zu neuen Services und Features auch eine Menge spannender Vorträge. Die Vorträge geben einen Einblick wie AWS, Kunden und Partner täglich zusammenarbeiten um mit AWS spannende technische und fachliche Probleme zu lösen. Unsere Highlights haben haben wir in dieser Playlist zusammengestellt:
- Building Serverlesspresso: Creating event-driven architectures (SVS312)
- Get started building your first serverless, event-driven application (SVS209)
- Architecting secure serverless applications (SVS302-R)
- AWS Lambda SnapStart: Fast cold starts for your Java functions (SVS320)
- Building next-gen applications with event-driven architectures (API311-R)
- Reliable scalability: How Amazon.com scales in the cloud (ARC206)
- Developing an observability strategy (COP302)
- Serving 4.8 billion railway customers a year: Story of Deutsche Bahn (CON327)
Weitere Ressourcen
Wenn Sie mehr über die neuen Ankündigungen oder die Vorträge der re:Invent erfahren wollen, ist AWS für Sie da. Wenden Sie sich noch heute an Ihr AWS-Account Team.