AWS Germany – Amazon Web Services in Deutschland
Highlights des AWS Cloud Day Zürich 2023
Dieser Artikel ist auch in einer englischen Fassung verfügbar.
In diesem Blog präsentieren wir eine Zusammenfassung des AWS Cloud Day Zürich 2023. Wir geben einen Überblick über die verschiedenen Aktivitäten des Events und fassen einige Vorträge aus den Bereichen generative künstliche Intelligenz (generative KI), Partner und Kunden Sessions, Entwickler Sessions sowie Sicherheit zusammen.
Daten & Fakten
Nach dem AWS Swiss Cloud Day und dem Start der AWS Europe (Zurich) Region im Jahr 2022 war es wieder soweit: Der AWS Cloud Day Zürich fand Ende September 2023 statt. Wir begrüssten über 2000 Teilnehmer aus diversen Industrien und Berufen in der Halle 550 in Zürich Oerlikon. In mehr als 50 technischen Sessions wurden aktuelle Themen behandelt: Von generativer KI über Serverless Technologien, modernen Datenarchitekturen, SAP auf AWS, Security & Governance, Infrastruktur-als-Code (IaC) bis hin zu Prozessdigitalisierung.
Darüber hinaus gab es eine Partner Expo mit 27 Ständen, eine AWS World mit interaktiven Demos sowie eine eigene Bühne und Ausstellungsbereich für AWS Community & Startup. Mit Bundesliga Free Kick Challenge, AWS DeepRacer oder der AWS BuilderCards Lounge konnten Besucher auf spielerische Art und Weise mit Technologien wie IoT, Machine Learning und Serverless interagieren. Dabei wurden 455 Serverlesspresso Kaffees serviert und 225 Runden auf der AWS DeepRacer Strecke gefahren.
Generative KI
Generative KI war ein Schwerpunkt am AWS Cloud Day Zürich. “Keine KI ohne Cloud” sagte kürzlich der AWS CEO Adam Selipsky. In verschiedenen Vorträgen wurden Lösungen und Ansätze gezeigt, während an den Ständen Experten von AWS und AWS Partner Network (APN) Partnern für vertiefte Gespräche zur Verfügung standen.
Die Präsentation „Augment your business with generative AI: myths, reality, and practice“ (Erweitern Sie Ihr Unternehmen mit generativer KI: Mythen, Realität und Praxis) startete mit einer Vorstellung der Grundlagen von generativer KI. Unter generativer KI versteht man Lösungen basierend auf so genannten Large Language Models (LLM), welche in der Lage sind verschiedenste Inhalte zu kreieren, beispielsweise Text, Bilder, Audio oder Code. LLMs verfügen in der Regel (noch) über keine bestimmte Spezialisierung, sondern sind allgemein gehalten. Daher werden sie auch häufig als Foundation Models (FMs) bezeichnet. Damit in konkreten Anwendungsfällen ein kontext-spezifischer Mehrwert erreicht werden kann, braucht es darüber hinaus spezialisierte Daten. Zum Beispiel: Damit ein Foundation Model Kontext-Wissen im Bereich Versicherungen aufbauen kann, muss es mit Daten aus dem Versicherungsbereich angereichert werden. Diese Daten sind häufig vertraulich (z.B. Daten die Geschäftsgeheimnisse enthalten), weswegen der Sicherheit und Vertraulichkeit von Modell- wie auch Interaktions-Daten ein besonders hoher Stellenwert zukommt. AWS-Dienste wie Amazon SageMaker oder Amazon Bedrock erleichtern diese Aufgabe durch verschiedene Massnahmen wie Verschlüsselung, Berechtigungs-Kontrolle oder Logging- und Monitoring-Möglichkeiten.
Der Vortrag „Architecting AI: A tour of generative AI design patterns“ (KI-Architektur: Eine Tour durch generative KI Entwurfsmuster) hat vorgestellt, nach welchen Mustern eine generative KI Anwendung in eine Lösung integriert werden kann:
- Über Amazon Bedrock, wenn die Handhabung einfach sein soll
- Über Amazon SageMaker Jumpstart falls Flexibilität bzgl. Anpassungen wichtig sind
- Durch eigenen Betrieb auf Amazon Elastic Compute Cloud (Amazon EC2) oder basierend auf Containern und betrieben auf Diensten wie Amazon Elastic Container Service (Amazon ECS), um die Integration vollständig kontrollieren zu können
Es gab viele Einblicke und detaillierte Informationen über konkrete Anwendungs-Ansätze von generativer KI. Dies beinhaltete die sichere Erstellung von Inhalten, die Nutzung von Wissensdatenbanken für Modelle um bessere Ergebnisse zu liefern sowie Agenten, die komplexe Abläufe und Interaktionen mit anderen Systemen orchestrieren.
Der Vortrag „Architecting AI: Building generative AI applications“ (KI-Architektur: Generative KI-Anwendungen erstellen) gab praktische Tipps und Anleitungen, wie generative KI-Anwendungen entwickelt werden können und worauf dabei geachtet werden muss. Dazu gehört auch die Vermeidung von Toxizität in Ein- und Ausgaben sowie die Reduktion von Modellhalluzinationen (falsche Aussagen). Der Vortrag hat gezeigt, wie durch Verwendung von Amazon Comprehend und Amazon Rekognition ein Filter kreiert wird, der toxische Ein- oder Ausgaben erkennen und blockieren kann. Ein konkretes Beispiel mit Demo-Code findet sich auch im Blog „Safe image generation and diffusion models with Amazon AI content moderation services„. Retrieval-augmented Generation (RAG) oder Reasoning + Acting (ReAct) können als Massnahmen zur Reduktion von Modellhalluzinationen verwendet werden.
APN Partner und AWS Kunden Vorträge
Partner und Kunden teilten ihre Erfahrungen mit AWS-Technologien in verschiedensten Vorträgen.
In „Generative AI on AWS with Hugging Face“ (Generative KI auf AWS mit Hugging Face) haben AWS und Hugging Face demonstriert, wie einfach es mit Amazon SageMaker ist, generative KI-Modelle in AWS zu trainieren und zu verwenden. Als Basis dafür können verschiedenste Foundational Models von Hugging Face und anderen Anbietern benutzt werden. AWS bietet hochleistungsfähige und kosteneffiziente, für KI-Anwendungen optimierte Instanztypen basierend auf AWS Trainium und AWS Inferentia2 Beschleunigern an.
In „How to use AWS Outposts in railway operations“ (So nutzen Sie AWS Outposts im Bahnbetrieb) zeigten AWS und die Schweizerischen Bundesbahnen SBB, wie dank AWS Outposts AWS-Dienste auch innerhalb eines Kunden-Rechenzentrums verwendet werden können. Im Vortrag wurde neben den Kunden-Anforderungen auch diskutiert, wie eine solche Lösung via Infrastruktur-als-Code (IaC) mit z.B. dem AWS CDK automatisiert und mit einer klaren Governance aufgebaut werden kann. Die Verwendung von AWS Outposts bietet SBB nicht nur minimale Latenz, sondern auch ein konsistentes Technologie-Setup für On-Premise Anwendungen. Dank dem AWS Nitro System profitieren Kunden auch vom gewohnt hohen Sicherheits-Standard der AWS-Dienste.
Im Vortrag „How Oerlikon uses Terraform for secure, automated governance“ (Wie Oerlikon Terraform für eine sichere, automatisierte Governance nutzt) zeigten Oerlikon und AWS, wie mit einem IaC Ansatz auf Basis von Terraform eine Balance zwischen Entwicklungsgeschwindigkeit und Sicherheit erreicht werden kann. Dadurch konnte Oerlikon die Zeit, welche die Mitarbeiter für die Erstellung eines neuen AWS Accounts benötigten, von Wochen auf Stunden reduzieren. Gleichzeitig bleiben sowohl eine zentrale Governance wie auch Agilität in den Teams sichergestellt.
Im Vortrag „How Ultumus (SIX Group) leverages AWS to become the bedrock of the Global ETF Industry“ (Wie Ultumus (SIX Group) AWS nutzt, um zum Fundament der globalen ETF-Branche zu werden) präsentierten Ultumus und AWS, wie Ultumus mehr als 3 Millionen Indizes und 10000 börsengehandelte Fonds (ETFs) über AWS verwaltet. Mit der Hilfe von Serverless-Diensten wie AWS Lambda, Amazon DynamoDB oder Amazon Simple Storage Service (S3) hat Ultumus eine hoch-verfügbare, automatisch skalierbare und sichere Architektur aufgebaut. Dadurch bezahlt Ultumus ausschliesslich für Leistung, die effektiv in Anspruch genommen wird und muss sich nicht selber um den Betrieb, Skalierung usw. kümmern.
Entwickler Vorträge
Der AWS Cloud Day Zürich ist eine grossartige Möglichkeit für Entwickler, mit Experten in Kontakt zu treten sowie aus erster Hand neue Techniken und Best Practices kennenzulernen. So gab es auch dieses Jahr verschiedene Vorträge, welche sich diesen Themen angenommen haben.
Einer davon behandelte das Thema “Thinking asynchronously: application integration patterns for microservices” (Asynchrones Denken: Anwendungsintegrationsmuster für Microservices). Während in traditionellen Architekturen synchrone Abläufe und starke Kopplung die Norm waren, eignen sich insbesondere für hoch-skalierbare Anwendungen asynchrone Muster besser. Diese Entkopplung ermöglicht horizontale Skalierung, steigert die Resilienz und gibt den Entwicklungsteams mehr Autonomie. Für Abläufe können sowohl Choreographie wie auch Orchestrierung verwendet werden, oder eine Kombination von beiden. AWS bietet für die Event-Übermittlung in der asynchronen Architektur eine Reihe an Services, zum Beispiel Amazon EventBridge, Amazon Simple Queue Service (Amazon SQS) oder AWS Step Functions.
Der Vortrag „Define your cloud native Disaster Recovery strategy with AWS“ (Definieren Sie Ihre Cloud-native Disaster-Recovery-Strategie mit AWS) hat aufgezeigt, wie es die globale AWS Infrastruktur Kunden einfach macht, sich auf Ausfall-Szenarien vorzubereiten. Die Verwendung von mehreren Availability Zones bietet unter anderem Schutz vor Naturereignissen wie Stromausfällen, Blitzeinschlägen, Erdbeben und mehr. Für den unwahrscheinlichen Fall eines Ausfalls einer kompletten Region haben Kunden die Möglichkeit einer Replikation in eine weitere Region. Die Anforderungen an Betriebskontinuität (Recovery Time Objective RTO, Recovery Point Objective RPO), regulatorische Umstände sowie Kosten können die Wahl des optimalen Ansatzes beeinflussen. Die Optionen reichen von Backup bis hin zu einem Aktiv-Aktiv Setup, sowie verschiedenen Ansätze dazwischen.
Ist eine Architektur einmal definiert und implementiert, gilt es diese ausführlich zu testen. Somit kann sichergestellt werden, dass die Massnahmen im Fehlerfall auch wirklich funktionieren. Hierzu eignet sich der sogenannte Chaos Engineering Ansatz, welcher im Vortrag „Resilient and well-architected apps with chaos engineering“ (Belastbare und gut strukturierte Apps mit Chaos Engineering) näher betrachtet wurde. In dieser Disziplin der Softwareentwicklung geht es darum, eine Infrastruktur durch bewusstes Einschleusen von Fehlern auf deren Resilienz zu prüfen. AWS Fault Injection Simulator bietet hierzu das geeignete Werkzeug. Der Service erlaubt es, Experimente zu erstellen und damit temporäre Fehler in einer Anwendung zu erzeugen. Die Ergebnisse dieser Experimente können daraufhin verwendet werden, um Verbesserungen vorzunehmen. Um negative Auswirkungen auf Endkunden zu vermeiden, empfiehlt es sich diese Experimente zuerst in Testsystemen durchzuführen. Sind diese erfolgreich, können sie auch in der Produktionsumgebung kontinuierlich durchgeführt werden. Erkenntnisse aus Produktion sind echt, und bieten eine maximale Einsicht in die reale Resilienz einer Architektur. Amazon.com führt solche Experimente beispielsweise täglich durch, wie im Blog “Any Day Can Be Prime Day: How Amazon.com Search Uses Chaos Engineering to Handle Over 84K Requests Per Second“ erläutert wird.
Sicherheit
Gemäss unserem Grundsatz “Sicherheit ist unsere Top-Priorität”, gab es auch am diesjährigen AWS Cloud Day Zürich Vorträge zum Thema Sicherheit sowie einen entsprechenden Experten-Stand.
In der Präsentation „Automating compliance, auditing & evidence collection on AWS“ (Automatisierung von Compliance, Auditing und Beweiserfassung) wurde aufgezeigt, wie cloudnative Dienste genutzt werden können, um Compliance-Prozesse zu erleichtern. Automatisierung ist der Schlüssel, um Prozesse besser zu skalieren sowie verlässlich wiederholbar zu machen. AWS Config prüft und bewertet die Übereinstimmung von Ressourcenkonfigurationen mit den Richtlinien einer Organisation kontinuierlich. AWS Audit Manager ermöglicht es, Verknüpfungen zu bestimmten Controls Catalogs (z.B. Payment Card Industry Data Security Standard, PCI DSS) zu erstellen. Audit Teams nutzen diese Dienste, um einen konsolidierten Überblick über alle Ressourcen und deren Compliance-Status zu erhalten und gleichzeitig die Möglichkeit zu haben, tief in die Materie einzutauchen und Nachforschungen anzustellen.
In „Building modern and secure applications on AWS“ (Moderne und sichere Anwendungen auf AWS erstellen) wurde gezeigt, wie AWS-Dienste zum Schutz von modernen Applikationen verwendet werden können. Mit geringem Aufwand können Entwickler eine Web Application Firewall (AWS WAF) zum Schutz von Webanwendungen und AWS X-Ray zum Verfolgen und Analysieren verteilter Anwendungen nutzen. Amazon CloudWatch Synthetics „canaries“ werden genutzt, um die Verfügbarkeit und Latenz von Anwendungen ständig zu überwachen. Darüber hinaus bietet Amazon CloudWatch RUM Einblicke in die Benutzererfahrung, indem es Messungen wie Seitenladezeit oder Informationen zu clientseitigen Fehlern bereitstellt. All diese Daten bieten die Basis zur Steigerung von Verfügbarkeit, Resilienz sowie Benutzerfreundlichkeit einer modernen Webanwendung.
Zusammenfassung
Der AWS Cloud Day Zürich 2023 hat AWS, Partner und Anbieter von Produkten, Experten und Kunden an einem Tag zusammengebracht. Es war ein Tag voller interessanter Gespräche, lehrreicher Vorträge und Demonstrationen. Kommen Sie vorbei und besuchen Sie uns auf dem nächsten AWS Event!
Über die Autoren
Michael Tschannen Michael ist Senior Solutions Architect bei Amazon Web Services (AWS) in der Schweiz, spezialisiert auf Sicherheit. Nachdem er zu Beginn seiner Karriere als Penetration-Tester gearbeitet hatte, entschloss er sich, in die Verteidigung zu wechseln. Seitdem schützt er jeden Tag Kunden und deren Daten, indem er Sicherheit und Datenschutz zu einem integralen Bestandteil jeder von ihm entwickelten Lösung macht. |
|
Pajtim Matoshi Pajtim ist Solutions Architect bei Amazon Web Services (AWS) mit Sitz in der Schweiz. Mit über 12 Jahren Erfahrung im Technologiebereich hat er ein fundiertes Wissen entwickelt, das ihn in die Lage versetzt, die Kunden in ihren Vorhaben zu unterstützen und zu beraten. Seine Leidenschaft für gut durchdachte Lösungen treibt seinen praxisorientierten Ansatz und sein kundenorientiertes Verhalten voran. |
|
Anja Shevchyk Anja ist Solutions Architect bei Amazon Web Services (AWS) mit Sitz in der Schweiz. Ihr Schwerpunkt liegt auf Datenanalysen und darauf, wie Daten für Innovationen in der Cloud genutzt werden können. Anja hat eine allgemeine Leidenschaft für Technologie und Ingenieurwesen. |