AWS in Switzerland and Austria (Alps)
Generative KI im öffentlichen Sektor der Schweiz
Generative künstliche Intelligenz (KI) hat das Potenzial, die globale Wirtschaft und Arbeitsproduktivität signifikant zu steigern. Für die Schweiz prognostiziert PwC etwa ein zusätzliches Bruttoinlandsprodukt von bis 50 Milliarden Franken bis 2030 durch den Einsatz dieser Technologie.
Im Gegensatz zur traditionellen KI kann generative KI, basierend auf leistungsfähigen Sprachmodellen und Basismodellen, neue Inhalte wie Texte, Bilder oder Code erzeugen. Die Anwendungen reichen beispielsweise von der automatischen Erstellung von Berichten über die Unterstützung der Stadtplanung bis hin zu maßgeschneiderten Informationen für Bürger:innen.
Während die Potenziale der generativen KI immens sind, stehen Organisationen im öffentlichen Sektor vor einigen bedeutenden Herausforderungen bei ihrer Implementierung und Nutzung. Um die Vorteile dieser Technologie voll ausschöpfen zu können, müssen diese Hürden erkannt und bewältigt werden – dabei können Cloud-Technologien helfen.
Herausforderungen für den öffentlichen Sektor in der Schweiz
Fachkräftemangel
In einer Studie von Strand Partners geben Schweizer Unternehmen an, dass sie die Vorteile von KI weiter erforschen wollen, ihre digitalen Kompetenzen aber ein Hindernis darstellen. Nur 18% der Unternehmen finden es einfach, Fachkräfte mit den erforderlichen digitalen Kompetenzen zu finden.
Cloud-Technologien können bei der Bewältigung des Mangels an digitalen Fachkräften helfen, denn sie ermöglichen Unternehmen den Zugang zu Spitzentechnologien wie der generativen KI mit nur geringem Einsatz eigener Ressourcen. Der “Heavy-Lift”, also Aufbau, Verwaltung und Wartung der Rechenzentren, liegt beim Cloud-Betreiber, so dass Kunden ihre IT-Spezialisten für andere Aufgaben einsetzen können, etwa für die Entwicklung neuer, innovativer Dienstleistungen oder Produkte. Darüber hinaus ermöglichen es Dienste wie Amazon SageMaker Fachkräften mit unterschiedlichen IT-Kenntnissen, Technologien wie KI zu nutzen. Dadurch wird der Zugang zu Technologien demokratisiert.
AWS bietet auch Cloud-Computing-Schulungen und Zertifizierungen durch Programmen wie AWS Training and Certification, AWS Academy, AWS Educate, und AWS re/Start an.
2024 gab AWS bekannt mehr als 31 Millionen Lernenden in 200 Ländern und Gebieten durch kostenlose Schulungsinitiativen geholfen zu haben, ihre Cloud-Kompetenzen zu verbessern.
Amazon kündigte kürzlich auch „AI Ready“ an – eine neue Verpflichtung, die darauf abzielt, bis 2025 weltweit 2 Millionen Menschen kostenlose Schulungen zu KI-Fähigkeiten anzubieten.
Integration in bestehende IT-Infrastrukturen
Die Integration von generativen KI-Lösungen in bestehende Systeme und die Gewährleistung der Interoperabilität zwischen Behörden sind komplexe Aufgaben. Nur damit können intern beispielsweise Datensilos aufgelöst werden, sodass Abteilungen oder gar verschiedenen Behörden effektiv Informationen miteinander austauschen und zusammenarbeiten können. Auch der Gewinn von tiefen Einblicken in das Organisationsgeschehen oder gar Nachverfolgen von Abläufen über verschiedene behördliche Organisationen hinweg sind nur damit möglich. Zudem hängt auch das Nutzererlebnis, etwa bei Dienstleistungen einer Behörde, von einer erfolgreichen Integration und Interoperabilität ab.
Für eine erfolgreiche Integration von KI-Systemen und effiziente Datenverwaltung ist es entscheidend, dass Organisationen eine umfassende Datenstrategie definieren. Diese Strategie sollte darauf abzielen, Daten zugänglich, nutzbar und sicher zu machen. Die Integration und Analyse grosser Datenmengen aus verschiedenen Quellen wird beispielsweise durch Dienste, wie AWS Lake Formation, der die Erstellung sicherer Data Lakes ermöglicht, vereinfacht. Zur Bewahrung von institutionellem Wissen trägt Amazon Kendra bei, ein ML-basierter Suchdienst, der Informationen aus verschiedenen Unternehmensquellen extrahiert und organisiert. AWS Outposts bringt AWS Infrastruktur und Dienste in lokale Rechenzentren. Amazon SageMaker ermöglicht die Erstellung, das Training und die Bereitstellung von ML-Modellen. Für eine schnelle und sichere Datenübertragung zwischen lokalen Systemen und Cloud-Diensten sorgt AWS Direct Connect mit einer dedizierten Netzwerkverbindung zur AWS Cloud.
Datenschutz und Datenverwaltung
Angesichts der strengen Datenschutzvorschriften in der europäischen Union und der Schweiz als auch der hohen Erwartungen der Bürger an den Datenschutz sind rigorose Datenmanagement- und Datenschutzpraktiken von entscheidender Bedeutung.
AWS bietet robuste Sicherheitsmechanismen, um Kundendaten bei der Nutzung generativer KI-Dienste zu schützen. Dazu gehören strikte Zugriffskontrollen, Verschlüsselung von Daten bei der Übertragung und Speicherung sowie Massnahmen zur Verhinderung von Datenlecks.
Unbefugte – weder beim Infrastrukturbetreiber noch beim Kunden – haben keinen Zugang zu sensiblen KI-Daten wie KI-Modellgewichtungen und den mit diesen Modellen verarbeiteten Daten. Für die KI-Modelle gelten drei Schlüsselprinzipien:
1. Vollständige Isolierung der KI-Daten vom Infrastrukturbetreiber: Der Infrastrukturbetreiber darf keine Möglichkeit haben auf Kundeninhalte und KI-Daten, wie z. B. KI-Modellgewichte und mit Modellen verarbeitete Daten, zuzugreifen.
2. Möglichkeit für Kunden, KI-Daten von sich selbst zu isolieren: Die Infrastruktur muss einen Mechanismus bereitstellen, mit dem Modellgewichte und Daten in die Hardware geladen werden können, während sie isoliert und unzugänglich für die eigenen Benutzer und die Software des Kunden bleiben.
3. Geschützte Infrastrukturkommunikation: Die Kommunikation zwischen den Geräten in der Infrastruktur für KI-Beschleunigung muss geschützt sein. Alle von aussen zugänglichen Verbindungen zwischen den Geräten müssen verschlüsselt sein.
Verantwortungsvoller KI-Einsatz
Die Abschwächung potenzieller Risiken wie Halluzinationen und ethische Überlegungen, etwa ob KI-Modelle fair und unvoreingenommen sein können, werden entscheidend sein, um das öffentliche Vertrauen in KI-gesteuerte öffentliche Dienstleistungen aufzubauen.
AWS setzt sich für eine verantwortungsvolle Entwicklung von KI ein. Dabei verfolgt AWS einen menschenzentrierten Ansatz der Bildung, Wissenschaft und unsere Kunden in den Mittelpunkt stellt:
- Fairness: Betrachtung der Auswirkungen auf verschiedene Interessensgruppen.
- Nachvollziehbarkeit: Nachvollziehbarkeit und Bewertung von Systemergebnissen.
- Datenschutz und Sicherheit: Angemessene Beschaffung, Verwendung und Schutz von Daten und Modellen.
- Sicherheit: Verhinderung von schädlichen Systemausgaben und Missbrauch.
- Steuerbarkeit: Mechanismen zur Überwachung und Steuerung des Verhaltens von KI-Systemen.
- Wahrhaftigkeit und Robustheit: Erzielung korrekter Systemergebnisse auch bei unerwarteten oder schädlichen Eingaben.
- Governance: Einbeziehung bewährter Verfahren in die KI-Lieferkette, einschliesslich Anbieter und Anwender.
- Transparenz: Befähigung der Beteiligten, fundierte Entscheidungen über ihre Beteiligung an einem KI-System zu treffen.
AWS bietet seinen Kunden zudem Dienste und Werkzeuge an um KI-Systeme selbst verantwortungsvoll zu entwickeln und zu betreiben. Ein Beispiel hierfür ist der Dienst Amazon Bedrock Guardrails, der Kunden dabei unterstützt, Schutzmassnahmen für ihre generativen KI-Anwendung zu implementieren, die den Richtlinien für den verantwortungsvollen Umgang mit KI im Unternehmen entsprechen.
Erfolgreiche Anwendungsbeispiele aus der Schweiz
Beispiele aus der Schweiz zeigen, dass es gelingen kann generative KI für kommerzielle aber auch öffentliche Organisationen zu nutzen und die damit verbundenen Herausforderungen zu lösen.
Um den Anforderungen nach personalisierten und dynamischen Medien-Erlebnissen gerecht zu werden, entwickelte die Radiotelevisione Svizzera (RSI) beispielsweise eine neue All-in-One Mobile App auf Basis von KI- und ML-Technologien von AWS. In Zusammenarbeit mit dem AWS Partner Claranet und Forschern der Universität für angewandte Wissenschaften und Künste der italienischen Schweiz nutzt RSI Services wie Amazon Comprehend, Amazon SageMaker und AWS Lambda, um seinen Kunden relevante Inhalte zu empfehlen und das Nutzererlebnis zu personalisieren. Die serverlose, skalierbare App-Infrastruktur auf AWS ermöglicht es RSI, Millionen von Zuschauern jederzeit ein reibungsloses Streaming-Erlebnis zu bieten, ohne sich um technische Details kümmern zu müssen. Stattdessen kann sich das Team voll und ganz auf Innovationen und Dienstleistungen konzentrieren.

RSI All-in-One Mobile App
Das Schweizer Scale-Up SkillGym, nutzt beispielsweise den generativen KI-Dienst Amazon Bedrock und Amazon SageMaker, um eine digitale Plattform mit sehr geringer Latenz und sehr hoher Verfügbarkeit zu betreiben, die es seinen mehr als 300.000 Kunden weltweit ermöglicht, ihre Kommunikationsfähigkeiten, die etwa für Führungsaufgaben entscheidend sind, in Rollenspielen zu messen, zu entwickeln und zu verbessern. Durch die Nutzung von AWS Technologien ist SkillGym bei der Auswahl der besten Large Language Models (LLMs) für jede Phase der Erstellung seiner Inhalte hoch flexibel. Dies verbessert die Verfügbarkeit der Dienste von SkillGym und reduziert das Risiko von Ausfällen um 90%.
Die Fachhochschule Nordwestschweiz (FHNW) ist eine der grössten Hochschulen der Schweiz. In Zusammenarbeit mit dem interaktiven Museum für analoge und digitale Technik “Enter Technikwelt Solothurn” hat sich die FHNW an ein generatives KI-Projekt gewagt. Mithilfe von Amazon SageMaker, einer Werkbank für die Entwicklung von KI, und dem Stable Diffusion XL Modell, konnten die FHNW und das Museum eine Bild-Generator-Ausstellung entwickelt. Besucher:innen können einen Foto-Booth betreten indem sie mehrere Fotos von sich selbst erstellen. Diese Bilder werden dann für das Training eines Stable Diffusion-Modells verwendet. Mit dem personalisierten Modell können Besucher:innen dann mit generativer KI Bilder von sich selbst generieren, beispielsweise als Comic Figur, Astronaut:innen, handgezeichnete Portraits, etc. Die generierten Bilder können für die Besucher ausgedruckt werden, um sie mit nach Hause zu nehmen.
Die Schweizerische Post nutzt Amazon Bedrock um Anwendungen zu entwickeln, die mit Hilfe von dem Einsatz generativer KI ihre Produktivität und Effizienz steigern. So können interne Data Scientists beispielsweise mit LLM4Post Anwendungsbereiche für generative KI mit ihren Interessensgruppen schnell und unkompliziert validieren. “Amazon Bedrock gefällt uns, weil es einfach zu nutzen ist, sich in unsere existierende AWS Infrastruktur-Umgebung integrieren lässt und sehr schnell neue Funktionen implementiert werden”, kommentiert Philippe Goetschmann, Lead ML Engineer der Schweizerischen Post.
Fazit
Generative KI bietet dem öffentlichen Sektor in der Schweiz enorme Chancen zur Effizienzsteigerung, Verbesserung der Bürgerdienste und Förderung von Innovationen. Um diese Vorteile voll auszuschöpfen, müssen öffentliche Einrichtungen jetzt handeln. Sie sollten ihre IT-Strategie optimieren um KI-Anwendungen effektiv integrieren und auch über verschiedene Behörden hinweg nutzen zu können, und in die Weiterbildung der Mitarbeiter investieren. Durch die Nutzung von Cloud-Diensten können sie den Weg für eine sichere, verantwortungsvolle und effektive KI-Implementierungen ebnen und eine Kultur der digitalen Innovation fördern.
Weiterführende Informationen:
- Generelle Verfügbarkeit von Amazon Bedrock in der AWS Europe (Zurich) Region
- Informationen zum AWS Partnernetzwerk
- Studie Unlocking Europe’s AI Potential in the Digital Decade, durchgeführt von Strand Partners im Auftrag von AWS
- Blogpost über Datensicherheit spezifisch bezüglich Generative AI in der Schweiz