AWS Germany – Amazon Web Services in Deutschland

Wie sich Technologieführer auf Generative KI vorbereiten

von Phil Le-Brun, übersetzt von Thomas Kriechbaumer

Gen AI

„Wir neigen dazu die kurzfristigen Auswirkungen von Technologie zu überschätzen, und die nachhaltigen langfristigen Auswirkungen zu unterschätzen.“

— Roy Amara, Gesetz von Amara

Ich bin fasziniert von den technologischen Meilensteinen der Geschichte welche die Fantasie der breiten Öffentlichkeit anfachen – die erste Fernsehübertragung, bemannte Raumfahrt, und Video-Konferenzen. Jedes dieser Ereignisse hat eine zuvor als utopisch anmaßende Technologie in den Bereich der täglichen Realität gebracht. Wie aus dem Gesetz von Amara vermutet werden kann, waren diese Errungenschaften erst nach zahlreichen Fehlversuchen und überhöhten Erwartungen zu erreichen. Wenn (falls) solch ein Meilenstein erreicht wird, gehen diesem meist Jahrzehnte an wenig sichtbarer Forschungs- und Entwicklungsarbeit voraus, so wie es das S-Kurven-Konzept der Innovation [extern] beschreibt. Nehmen wir als Beispiel die vergangenen Versprechen zur Virtuellen Realität und wie sie in unser tägliches Leben Einzug halten sollten. Während Erwartungen die Realität weit überstiegen, so haben Organisationen und Technologieführer mit Mut an der Umsetzung gearbeitet und gelernt. Dadurch konnten sie sich mit einem Standbein an realen Geschäftsproblemen festhalten, wie Kundenforderung nach mehr immersiven Erlebnissen, und zeitgleich mit diesen Herausforderungen wachsen und sich darauf vorbereiten, dass virtuelle Realitäten sich in der breiten Masse etablieren. Eines der aktuell prominentesten Beispiele an neuen Technologien ist die Generative Künstliche Intelligenz (englisch: Generative Artificial Intelligence / GenAI). Für die breite Öffentlichkeit ist GenAI scheinbar aus dem Nichts aufgetaucht. Allerdings können die Ursprünge und die zugrunde liegenden Ideen zu generativer Künstlicher Intelligenz auf eine lange Historie zurückblicken, bis hin zur Erfindung des “Mark I” Perzeptron [extern] in 1958, sowie neuronale Netzwerke im späten 20. Jahrhundert. Moderne GenAI Ansätze wurden erst möglich mit den Fortschritten in der Statistik, dem enormen Wachstum an öffentlich verfügbaren Datensammlungen, sowie der Leistungsfähigkeit der Cloud. Zwei Begriffe im Bezug mit GenAI sind heute allgegenwertig: Basismodelle (englisch: Foundation Models / FMs) sind Modelle des Maschinellen Lernens welche auf großen Mengen an strukturierten und unstrukturierten Daten trainiert wurden. Diese Basismodelle können, falls nötig, durch eine Feinabstimmung (englisch: fine-tuning) für spezialisierte Anwendungen optimiert werden. Große Sprachmodelle (englisch: large language models / LLMs) sind eine Unterkategorie der Basismodelle, welche speziell auf das Verstehen und Erzeugen von menschen-ähnlichen Texten ausgerichtet sind. Diese Modelle sind ideal für Anwendungen im Bereich der Übersetzung, beantworten von Fragen, zusammenfassen von Texten, und dem Erzeugen oder Erkennen von Bildern.

AWS und Generative Künstliche Intelligenz

AWS investiert in und verwendet FMs seit mehreren Jahren, zum Beispiel in der Amazon.com Produktsuche und den gesprächsbasierten Fähigkeiten von Alexa. Um die neuesten Ankündigungen von AWS im Bereich GenAI besser zu verstehen, können Sie diesen Blog Post lesen. Mit all dem aktuelle Hype und dem zugehörigen Marketing, welches solch neue Technologien begleiten, ist es besonders wichtig ein klares zielgerichtetes Verständnis des “Was” und “Warum” zu haben. Seit dem Start von Amazon SageMaker in 2017, gab es einen kontinuierlichen Zuwachs an ML und KI Fähigkeiten, welche sowohl Technikern als auch Nicht-Techniker diese Dienstleistungen and Werkzeuge näher brachten. Die Mission von AWS ist es den Zugriff und die Verfügbarkeit von diesen Möglichkeiten zu erweitern, um die tiefgreifenden Implikationen und den damit verbundenen technologischen Fortschritt zu ermöglichen. Die jüngsten Ankündigungen fördern diese Mission mit einem offeneren Ansatz um die KI Fähigkeiten zu liefern, welche Organisationen brauchen. Zum Bespiel ermöglicht Amazon Bedrock breiten Zugang zu vortrainierten Basismodellen, welche mit Ihren eigenen Daten angepasst und fein-abgestimmt werden können, während Datensicherheit und Privatsphäre gewahrt bleiben. Die Möglichkeiten zum Skalieren und Schützen der Datenverarbeitung in der Cloud sind dabei der Hebel zur Umsetzung. Unternehmen müssen sich nicht mehr um den Betrieb und die Bereitstellung von Modellen kümmern, oder das Trainieren und Überwachen, sondern können sich auf die eigentlichen Ziele und Produktentwicklung fokussieren. Amazon Bedrock löst das grundlegende Problem, dass in den meisten Fällen ein einziges Modell keine ausreichende Lösung für ein Geschäftsproblem oder Produktentwicklung bieten kann. Ebenso löst es das Sicherheitsproblem der Beisteuerung von vertraulichen Geschäftsdaten zu öffentlichen Modellen, indem diese abgeschottet in Ihrem AWS Account gespeichert werden. Während GenAI weder eine Wunderwaffe noch eine “eine verbesserte Suchmaschine” ist, so hält diese neue Technologie Einzug in verschiedene Bereiche und erhält viel Aufmerksamkeit. Das Potential ist entsprechend enorm. Als Beispiel können Sie sich vorstellen wie Pharma-Unternehmen ihre Forschung an Gen-Therapien beschleunigen, oder Kreditinstitute die Gesprächsabwicklung und Kreditbewilligung mit Kunden vereinfachen, oder viele weitere Möglichkeiten in der Wissenschaft und Lehrbetrieb. Ich selbst bin Hobby-Programmierer und freue mich darauf meine Fähigkeiten in nahezu Echtzeit zu erweitern mittels aktiver Vorschläge von Gen AI Systemen. Sie sind Chief Information/Technology/Data Office? Dann werden wir in den nun folgenden Themen genau jene Schwerpunkte behandeln damit Sie sich richtig auf eine erfolgreiche GenAI Strategie vorbereiten können und die nötigen Gedanken zum Einsatz in Ihrem Unternehmen machen können.

Fokussieren auf die Cloud “Reise”

Manche können sich vielleicht noch an das Fernsehprogramm aus ihrer Kindheit erinnern, jenes mit den Warnhinweisen “Nicht Zuhause nachmachen!”. Mit diesem Hintergedanken würde ich folgende Warnung für GenAI aussprechen: “Versuchen Sie GenAI nicht ohne Cloud!”. Sie wollen, dass sich ihre Teams auf Problemlösung und Innovation fokussieren — nicht auf den Betrieb und das Überwachen von Rechenzentren, Infrastruktur, oder die Beschaffung von Software-Lizenzen. Die Cloud ermöglicht GenAI mittels kostengünstigem Datenspeicher, nachhaltigen GPU- und Datenverarbeitung-Instanzen, Hochgeschwindigkeitscomputernetzwerken, und verbrauchsbasierter Abrechnung. Zusammen mit eigens entwickelten Instanzen und Chips wie AWS Trainium und AWS Inferentia, können unsere Datenverarbeitungs-Instanzen die Kosten senken, und zeitgleich die Gesamtleistung erhöhen, was, im Vergleich zu traditionellen selbst-betriebenen Rechenzentren, mit einem verbesserten CO2-Fußabdruck einhergeht.

Legen Sie jetzt Ihr “Daten Fundament”

Selbst das größte und kühnste Bauwerk ist nur so stabil wir sein Fundament. Das gleiche gilt in der Welt des Maschinellen Lernen. Auch mit GenAI ist die Datenqualität weiterhin wichtiger als die Menge an verfügbaren Geschäftsdaten. Während der Begriff des “Tech Debt” (englisch: etwa “Technologieschulden verursacht durch veraltete oder nicht länger relevante Architekturentscheidungen”) im Bereich der Softwareentwicklung weithin bekannt ist, so müssen wir auch erkennen, dass Organisationen ein ähnliches Problem mit “Data Debt” (englisch: etwa “Datenschulden”) angehäuft haben. Hauptursache dafür sind die Datenqualität, isolierte oder fragmentierte Datenquellen und -silos, fehlendes Verständnis der strukturierten Daten, unzureichende Überlegungen während der Entwicklungsphase wie Daten in das Produkt eingebaut werden sollen, und eine Kultur die mehr über Daten spricht als tatsächlich im täglichen Gebrauch verwendet wird. Jetzt ist der Zeitpunkt dieses Fundament zu legen, wie beispielhaft ausgeführt in diesem Blog Post [EN] und diesem Blog Post [EN]. Schließlich wird weiterhin ein großer Teil der Zeit während der ML-Produktentwicklung auf das Verarbeiten, Umwandeln, und Kennzeichnen von Daten [EN] verwendet.

Über den Tellerrand der Technologie blicken

Die aktuelle Welt der GenAI ist spannend, aber Technologie existiert selten in einem Vakuum. Wir müssen uns auf das Unvorhersehbare einstellen. Machen Sie sich Gedanken zum Thema Ethik, Transparenz, Daten-Zuordenbarkeit, Sicherheit, und Privatsphäre im Zusammenhang mit KI. Wie können Sie sicherstellen, dass diese Technologie in richtigem Maße fair und genau eingesetzt wird? Einige Startpunkte und Ressourcen [EN] existieren, wie zum Beispiel das Buch von Michael Kearns: The Ethical Algorithm (englisch: “Der ethische Algorithmus”), aber sind diese allein wirklich ausreichend? Hier gibt es viele Möglichkeiten etwas zu bewegen! Zum Beispiel das Priorisieren von breitgefächerten Fähigkeiten und Weltanschauungen, jener Mitarbeiter und Kollegen welche an der Erstellung und Verwendung von LLMs beteiligt sind. Das hilft sicherzustellen, dass Ihre Kunden (intern wie extern) eine breite Akzeptanz und Relevanz ohne systemische Vorurteile des GenAI Produkt erreichen. Trainieren Sie Ihre Modelle mit diesen Überlegungen, bauen Sie diese in Ihre Governance und Compliance Rahmenprogramme ein, verwenden Sie dieselben Kriterien bei der Auswahl von Partnern und Zulieferern um jene auszuwählen welche die gleiche Wertebasis wie Sie besitzen.

Bilden Sie sich weiter – und Ihre Mitarbeiter

KI ist spannend und beunruhigend zur gleichen Zeit. Sie eröffnet eine Welt voller Wissen, Innovation, und Leistungssteigerung, führt aber auch zur Unsicherheit des eigenen Arbeitsplatzes. Jede neue Stufe an KI-Entwicklungen und die verbundenen Auswirkungen müssen besonders abgewogen werden mit den Fähigkeiten und Qualifikationen der betroffenen Arbeitnehmer: welche dieser Fähigkeiten werden heute, und welche werden in der Zukunft benötigt. Betrachten Sie die technischen Fähigkeiten welche Sie für Ihr Unternehmen und Industriebranche benötigen, und wie sie diese in Ihrer Organisation fördern können. Weiterbildungsprogramme wie die Machine Learning University können dabei helfen, aber es ist wichtig einen Schritt weiter zu planen. Kritisches Denken und Lösungs-orientiertes Arbeiten sowie andere essenzielle Fähigkeiten werden immer wichtiger. Arbeitnehmer werden langfristig für das Lösen von Geschäftsproblemen eingesetzt, mit der Unterstützung von KI. Dazu benötigen sie einen scharfen Verstand um mit dem LLM von Eingabe- und Ausgabedaten zu interagieren. Diese Fähigkeit ist besonders wichtig für GenAI Modelle, welche die Daten automatisiert verarbeiten, anstatt einen konkreten Lösungsalgorithmus zu verwenden. Schaffen Sie in Ihrem Unternehmen den Freiraum und die Möglichkeiten mit diesen neuen Werkzeugen zu arbeiten und diese besser kennen zu lernen. Damit können Sie geringwertige Arbeit Schritt für Schritt ersetzen. Diese Weiterbildung geht über die Grenzen des individuellen Lernens hinaus. Laut Forschungsergebnissen von Tom Davenpot [EN] sind 35% der Chief Data Officers davon überzeugt, dass Daten- und KI-getriebene Initiativen ein mächtiges Werkzeug für Veränderung sind. Die Zeiten von isolierten Datensilos in einzelnen Abteilungen, sowie deren Denkweisen, sind vorbei und werden durch firmenweite und abteilungsübergreifende Initiativen ersetzt. Dieser funktionsbasierte Ansatz hilft dabei mehr und mehr mit Daten zu arbeiten und das Interesse an datengetriebenen Projekten zu steigern.

Erstellen Sie Anwendungsgebiete

Ein treffendes Sprichwort: “Verlieben Sie sich in das Problem – nicht die Lösung”. Es soll uns daran erinnern, dass wir ein konkretes Problem lösen müssen – und dazu eine Vielzahl an möglichen Technologien und Lösungsansetzen verwenden können. Welche zeitaufwändigen, schwierigen, oder gar unmöglichen Probleme können mittels GenAI gelöst werden? Welche Daten haben Sie bereits welche in die Lösung mit einfließen können? Denken Sie an Großes in Bezug auf die Möglichkeiten, aber starten Sie mit kleinen Schritten und lösen Sie Probleme die tagtäglich für Verbesserung sorgen. Können diese Produktivitätsbremsen wegautomatisiert werden um die Zeit zu sparen und das Verständnis von KI zu verbessern? Als Beispiel, können Softwareentwickler mit Amazon Q Developer (ehemals Amazon Code Whisperer ein besseres Verständnis für bisher unbekannte APIs bekommen, und damit schneller, sicherer, und effektivere neue Software-Funktionen entwickeln, und sie lernen dabei die Möglichkeiten von GenAI besser kennen. Interne Vergleiche zur Produktivität zeigen uns einen erstaunlichen Sprung von 57% und eine erhöhte Erfolgsrate an abgeschlossenen Arbeitsaufträgen. Was für eine fantastische und direkt Möglichkeit ein “Produktivitäts-Held” in Ihrer Organisation zu werden! Und zum Abschluss: seien Sie begeistert, aber bleiben Sie auf dem Boden der Tatsachen. Wir befinden uns an einem Wendepunkt mit LLMs. Manchmal kommt es uns vor als ob wir immer weniger verstehen, desto mehr wir über KI lernen. Treten Sie GenAI aufgeschlossen gegenüber, aber vermeiden Sie den Hype. Hinterfragen Sie gelesene Texte stets kritisch, und vermeiden Sie den Irrglauben, dass ein einziges Modell für jeden Anwendungsfall das Beste sein kann. Der beste Ansatz, und ich bin froh, dass AWS genau diesen mit Amazon Bedrock gewählt hat, ist dass man mit verschiedenen FMs auf verschiedenen Problemen arbeiten kann. Es bietet die Möglichkeit und Freiheit für Entwickler aus unterschiedlichen kommerziellen und quell-offenen FMs zu wählen. Jene die bereits Erfahrung mit KI gesammelt haben, werden schnell erkennen, dass die AWS Cloud, mit der Vielzahl an verfügbaren Modellen, einen besseren Ansatz verfolgt als sich auf ein einziges Modell zu fixieren.

Phil

Weiteres Lesematerial

Announcing New Tools for Building with Generative AI on AWS, Swami Sivasubramanian

A guide to making your AI vision a reality, Tom Godden

Activating ML in the Enterprise: An Interview with Michelle Lee, VP of Amazon Machine Learning Solutions Labs, Phil Le-Brun

Machine Learning University

Prioritising Business Value Creation from Data, Phil Le-Brun

Über die Autoren

Phil Le-Brun ist Enterprise-Strategin und Evangelistin bei Amazon Web Services (AWS). In dieser Rolle arbeitet Phil mit Führungskräften von Unternehmen zusammen, um Erfahrungen und Strategien auszutauschen, wie die Cloud ihnen helfen kann, mehr Geschwindigkeit und Agilität zu gewinnen, während sie mehr ihrer Ressourcen ihren Kunden widmen können. Bevor Phil zu AWS kam, hatte Phil mehrere leitende technologische Führungsrollen bei der McDonald’s Corporation inne. Phil hat einen Bachelor in Elektronik- und Elektrotechnik, einen Master of Business Administration und einen Master of Science in Systems Thinking in Practice.