AWS Germany – Amazon Web Services in Deutschland
Generative KI mit großen Sprachmodellen — Neuer praxisorientierter Kurs von DeepLearning.AI und AWS
von Antje Barth, übersetzt von Ümit Yoldas
Generative KI hat die Welt im Sturm erobert und wir sehen den Beginn der nächsten Phase weitreichender Akzeptanz von KI, mit dem Potenzial, jede Kundenerfahrung und Anwendung mit generativer KI neu zu erfinden. Generative KI ermöglicht es Ihnen, neue Inhalte und Ideen zu erstellen, einschließlich Dialoge, Texte, Bilder, Videos und Musik. Generative KI wird von sehr großen maschinellen Lernmodellen angetrieben, die auf riesigen Datenmengen vortrainiert sind, die üblicherweise als Basismodelle (engl. „Foundation Model“, FM) bezeichnet werden.
Eine Untergruppe von FMs, die als große Sprachmodelle (engl. „Large Language Models“, LLMs) bezeichnet werden, werden auf Billionen von Wörtern in vielen Aufgaben der natürlichen Sprache trainiert. Diese LLMs können Text verstehen, lernen und generieren, der kaum von Text, der von Menschen produziert wird, zu unterscheiden ist. Und nicht nur das, LLMs können sich auch an interaktiven Gesprächen beteiligen, Fragen beantworten, Dialoge und Dokumente zusammenfassen und Empfehlungen geben. Sie können Anwendungen in vielen Aufgabengebieten und Branchen voranbringen, einschließlich kreatives Schreiben für Marketingzwecke, Zusammenfassen von Rechtsdokumenten, Marktforschung für Finanzen, Simulation von klinischen Studien für das Gesundheitswesen und Code-Erstellung für die Softwareentwicklung.
Unternehmen arbeiten intensiv daran, generative KI in ihre Produkte und Dienstleistungen zu integrieren. Dies erhöht die Nachfrage nach Datenwissenschaftlern und IT-Ingenieuren, die generative KI verstehen und wissen, wie sie LLMs einsetzen können, um geschäftliche Anwendungsfälle umzusetzen.
Daher freue ich mich, ankündigen zu dürfen, dass DeepLearning.AI und AWS gemeinsam einen neuen praxisorientierten Kurs über Generative KI mit großen Sprachmodellen auf der Bildungsplattform Coursera starten. Dieser Kurs bereitet Datenwissenschaftler und Ingenieure darauf vor, Experten bei der Auswahl, dem Trainieren, Feintuning sowie der Bereitstellung (engl. „Deployment“) von LLMs für reale Anwendungen zu werden.
DeepLearning.AI wurde 2017 vom Pionier im Bereich maschinelles Lernen und Bildung, Andrew Ng, mit der Mission gegründet, die globale KI-Community zu vergrößern und zu vernetzen, indem sie erstklassige KI-Bildung anbietet.
DeepLearning.AI hat sich mit Spezialisten für Generative KI von AWS, einschließlich Chris Fregly, Shelbee Eigenbrode, Mike Chambers und mir, zusammengeschlossen, um diesen Kurs für Datenwissenschaftler und IT-Ingenieure anzubieten, die lernen möchten, wie man generative KI-Anwendungen mit LLMs erstellt. Wir haben den Inhalt für diesen Kurs unter der Leitung von Andrew Ng und mit Beiträgen von verschiedenen Branchenexperten und angewandten Wissenschaftlern bei Amazon, AWS und Hugging Face entwickelt.
Highlights des Kurses
Dies ist der erste umfassende Kurs auf Coursera, der sich auf LLMs konzentriert und den typischen Lebenszyklus eines generativen KI-Projekts detailliert darstellt. Dies schließt die Abgrenzung des zugrundeliegenden Problems, die Auswahl des LLMs, die domänenspezifische Anpassung des LLMs, die Optimierung des Models fürs Deployment sowie der Integration in Geschäftsanwendungen. Der Kurs konzentriert sich nicht nur auf die praktischen Aspekte der generativen KI, sondern hebt auch die Wissenschaft hinter den LLMs hervor und erklärt, warum sie effektiv sind.
Der On-Demand-Kurs ist in drei Wochen mit insgesamt etwa 16 Stunden bestehend aus Videos, Quiz, Labs und zusätzlichem Lesematerial unterteilt. Die Lab-Übungen, die vom AWS-Partner Vocareum gehostet werden, ermöglichen es Ihnen, die Techniken direkt in einer mit dem Kurs bereitgestellten AWS-Umgebung anzuwenden. Sie beinhalten alle Ressourcen, die zum Arbeiten mit den LLMs und zur Erprobung ihrer Effektivität benötigt werden.
In nur drei Wochen bereitet Sie der Kurs darauf vor, Generative KI für Geschäftsanwendungen in der realen Welt zu nutzen. Werfen wir einen kurzen Blick auf den Inhalt jeder Woche.
Woche 1 – Anwendungsfälle für generative KI, Projekt-Lebenszyklus und Pre-Training von Modellen
In der ersten Woche werden Sie die Transformer-Architektur untersuchen, die vielen großen Sprachmodellen zugrunde liegt. Sie werden sehen, wie diese Modelle trainiert werden unter Berücksichtigung der Rechenkapazität, die zur Modellentwicklung benötigt werden. Sie werden auch erforschen, wie Sie die Modellausgabe während der Inferenz mithilfe von Prompt-Engineering und durch Angabe generativer Konfigurationseinstellungen steuern können.
Im ersten praxisorientierten Lab werden Sie verschiedene Prompts für eine generative Aufgabenstellung konstruieren und vergleichen. In diesem Fall werden Sie Konversationen zwischen mehreren Personen zusammenfassen. Stellen Sie sich beispielsweise vor, Sie fassen die Supportkommunikation mit Ihren Kunden zusammen. Sie werden Techniken des Prompt-Engineerings erforschen, verschiedene generative Konfigurationsparameter ausprobieren und mit verschiedenen Sampling-Strategien experimentieren, um ein Gefühl dafür zu bekommen, wie Sie die generierten Antworten des Modells verbessern können.
Woche 2 – Feintuning, parameter-effizientes Feintuning (engl. „Parameter-Efficient Fine Tuning“, PEFT) und Modellevaluierung
In der zweiten Woche werden Sie Möglichkeiten zur Anpassung von vortrainierten Modellen an spezifische Aufgaben und Datensätze erkunden, die durch einen Prozess namens Feintuning erreicht werden. Eine Variante des Feintunings, das parameter-effiziente Feintuning (PEFT), ermöglicht es Ihnen, sehr große Modelle mit wesentlich geringeren Ressourcen fein zu tunen – oft mit nur einer einzigen GPU. Sie lernen auch die Metriken kennen, die zur Evaluierung und zum Vergleich der Performanz von LLMs verwendet werden.
Im zweiten Lab werden Sie praktische Erfahrungen mit PEFT sammeln und die Ergebnisse mit denen des Prompt-Engineerings aus dem ersten Lab vergleichen. Dieser direkte Vergleich hilft Ihnen, ein Verständnis für qualitative und quantitative Auswirkungen verschiedener Techniken zur Anpassung eines LLMs an Ihre domänenspezifischen Datensätze und Anwendungsfälle zu bekommen.
Woche 3 – Feintuning mithilfe von Reinforcement Learning from Human Feedback (RLHF), Retrieval-Augmented Generation (RAG) und LangChain
In der dritten Woche werden Sie die Antworten des LLMs verbessern und sie mit menschlichen Präferenzen abstimmen, indem Sie sogenanntes verstärkendes Lernen durch menschliches Feedback (engl. „Reinforcement Learning from Human Feedback“, RLHF) verwenden. RLHF ist entscheidend für die Verbesserung von Wahrheitstreue, Harmlosigkeit und Hilfsbereitschaft des Modells. Sie werden auch Techniken wie RAG und Bibliotheken wie LangChain erforschen, die es dem LLM ermöglichen, benutzerdefinierte Datenquellen und APIs zu integrieren, um die Antworten des Modells weiter zu verbessern.
Im abschließenden Lab werden Sie praktische Erfahrungen mit RLHF sammeln. Sie werden das LLM mit Hilfe eines Belohnungsmodells und eines Reinforcement-Learning-Algorithmus mit dem Namen „Proximal Policy Optimization“ (PPO) feintunen. Dadurch erhöhen Sie die Harmlosigkeit Ihrer Modellantworten. Schließlich werden Sie die Harmlosigkeit des Modells vor und nach dem RLHF-Prozess evaluieren, um ein Gefühl für die Auswirkung des RLHF-Prozesses auf die Ausrichtung des LLMs an menschliche Werte und Vorliegen zu bekommen.
Melden Sie sich heute an
„Generative AI mit großen Sprachmodellen“ ist ein dreiwöchiger On-Demand Kurs für Datenwissenschaftler und IT-Ingenieure, die lernen möchten, wie man generative KI-Anwendungen mit LLMs erstellt.
Melden Sie sich heute für generative KI mit großen Sprachmodellen an.
— Antje
Über die Autorin
Antje Barth Antje Barth ist Principal Developer Advocate für AI und ML bei AWS. Sie ist Co-Autorin des O’Reilly-Buchs – Data Science auf AWS. Antje spricht häufig auf AI/ML-Konferenzen, Veranstaltungen und Meetups auf der ganzen Welt. Sie hat auch das Düsseldorfer Kapitel von Women in Big Data mitbegründet. |