Was ist Prompt-Engineering?

Prompt Engineering ist der Prozess, bei dem Sie Lösungen mit generativer künstlicher Intelligenz (generative KI) so steuern, dass sie die gewünschten Ergebnisse erzielen. Auch wenn generative KI versucht, Menschen nachzuahmen, sind detaillierte Anweisungen erforderlich, um qualitativ hochwertige und relevante Ergebnisse zu erzielen. Beim Prompt-Engineering wählen Sie die am besten geeigneten Formate, Ausdrücke, Wörter und Symbole aus, anhand derer die KI sinnvoller mit Ihren Benutzern interagieren kann. Prompt-Engineers nutzen Kreativität und Versuch und Irrtum, um eine Sammlung von Eingabetexten zu erstellen, sodass die generative KI einer Anwendung erwartungsgemäß funktioniert.

Was ist eine Eingabeaufforderung?

Eine Aufforderung ist ein Text in natürlicher Sprache, der die generative KI auffordert, eine bestimmte Aufgabe auszuführen. Generative KI ist eine Lösung für künstliche Intelligenz, die neue Inhalte wie Geschichten, Gespräche, Videos, Images und Musik erstellt. Die generative KI basiert auf sehr große Modelle für Machine Learning (ML), die tiefe neuronale Netzwerke verwenden, die mit riesigen Datenmengen vortrainiert wurden.

Die großen Sprachmodelle (LLMs) sind sehr flexibel und können verschiedene Aufgaben erfüllen. Sie können beispielsweise Dokumente zusammenfassen, Sätze vervollständigen, Fragen beantworten und Sprachen übersetzen. Für spezifische Benutzereingaben prognostizieren die Modelle die besten Ausgaben, die sie aus dem bisherigen Training ermitteln.

Da sie jedoch so offen sind, können Ihre Benutzer über unzählige Eingabedaten-Kombinationen mit Lösungen der generativen KI interagieren. Die KI-Sprachmodelle sind sehr leistungsfähig und benötigen nicht viel, um mit der Erstellung von Inhalten zu beginnen. Selbst ein einziges Wort reicht aus, und das System erstellt eine detaillierte Antwort.

Davon abgesehen generiert nicht jede Art von Eingabe hilfreiche Ergebnisse. Systeme der generativen KI benötigen Kontext und detaillierte Informationen, um genaue und relevante Antworten zu erhalten. Wenn Sie Aufforderungen systematisch entwerfen, erhalten Sie aussagekräftigere und nutzbarere Kreationen. Beim Prompt-Engineering verfeinern Sie die Eingabeaufforderungen kontinuierlich, bis Sie mit dem KI-System die gewünschten Ergebnisse erzielen.

Lesen Sie mehr über generative KI »

Warum ist Prompt-Engineering wichtig?

Die Zahl der Stellen im Bereich Prompt-Engineering hat seit der Einführung der generativen KI erheblich zugenommen. Prompt-Engineers schließen die Lücke zwischen Ihren Endbenutzern und dem großen Sprachmodell. Sie identifizieren Skripte und Vorlagen, die Ihre Benutzer anpassen und vervollständigen können, um das beste Ergebnis aus den Sprachmodellen zu erzielen. Diese Prompt-Engineers experimentieren mit verschiedenen Arten von Eingaben, um eine Prompt-Bibliothek zu erstellen, die Anwendungsentwickler in verschiedenen Szenarien wiederverwenden können.

Prompt-Engineering macht KI-Anwendungen effizienter und effektiver. Anwendungsentwickler kapseln in der Regel offene Benutzereingaben in einer Aufforderung, bevor sie sie an das KI-Modell übergeben.

Denken Sie zum Beispiel an KI-Chatbots. Ein Benutzer kann eine unvollständige Problembeschreibung eingeben, z. B. „Wo kann ich ein Hemd kaufen?“ Intern verwendet der Code der Anwendung eine technische Aufforderung, die besagt: „Sie sind ein Verkaufsassistent für ein Bekleidungsunternehmen. Ein Benutzer mit Sitz in Alabama, USA, fragt Sie, wo er ein Shirt kaufen können. Antworten Sie mit den drei nächstgelegenen Filialen, die derzeit ein Shirt auf Lager haben.“ Der Chatbot generiert dann relevantere und genauere Informationen.

Als Nächstes besprechen wir einige Vorteile von Prompt-Engineering.

Bessere Kontrolle durch Entwickler

Prompt-Engineering gibt Entwicklern mehr Kontrolle über die Interaktionen der Benutzer mit der KI. Effektive Aufforderungen vermitteln die Absicht und stellen den Kontext für die großen Sprachmodelle her. Sie helfen der KI, die Ausgabe zu verfeinern und sie präzise im erforderlichen Format zu präsentieren.

Sie verhindern auch, dass Ihre Benutzer die KI missbrauchen oder etwas anfordern, das die KI nicht weiß oder nicht genau bearbeiten kann. Beispielsweise möchten Sie möglicherweise verhindern, dass Ihre Benutzer unangemessene Inhalte in einer KI-Anwendung für Unternehmen generieren.

Verbesserte Benutzererfahrung

Benutzer vermeiden Versuche und Irrtümer und erhalten dennoch kohärente, genaue und relevante Antworten von KI-Tools. Prompt-Engineering macht es Benutzern leicht, auf Anhieb relevante Ergebnisse zu erhalten. Es trägt dazu bei, Verzerrungen zu mildern, die durch bestehende menschliche Vorurteile in den Trainingsdaten der großen Sprachmodelle entstehen können.

Darüber hinaus verbessert es die Benutzer-KI-Interaktion, sodass die KI die Absicht des Benutzers auch bei minimalem Aufwand versteht. Beispielsweise führen Anfragen zur Zusammenfassung eines Rechtsdokuments und eines Nachrichtenartikels zu unterschiedlichen Ergebnissen, je nach Stil und Ton. Dies gilt auch dann, wenn beide Benutzer der Anwendung nur sagen „Dieses Dokument zusammenfassen.“

Erhöhte Flexibilität

Höhere Abstraktionsebenen verbessern KI-Modelle und ermöglichen es Unternehmen, flexiblere Tools in großem Maßstab zu entwickeln. Ein Prompt-Engineer kann Aufforderungen mit domainneutralen Anweisungen erstellen, die logische Verknüpfungen und allgemeine Muster hervorheben. Unternehmen können die Eingabeaufforderungen schnell unternehmensweit wiederverwenden, um ihre KI-Investitionen zu erweitern.

Um beispielsweise Möglichkeiten zur Prozessoptimierung zu finden, kann der Prompt-Engineer verschiedene Eingabeaufforderungen erstellen, die das KI-Modell darauf trainieren, Ineffizienzen zu finden, indem er breite Signale anstelle von kontextspezifischen Daten verwendet. Die Eingabeaufforderungen können dann für verschiedene Prozesse und Geschäftsbereiche verwendet werden.

Was sind einige Anwendungsfälle für Prompt-Engineering?

Prompt-Engineering-Techniken werden in ausgeklügelten KI-Systemen eingesetzt, um die Benutzererfahrung mit dem Lernsprachenmodell zu verbessern. Hier sind einige Beispiele.

Fachliches Wissen

Prompt-Engineering spielt eine wichtige Rolle bei Anwendungen, bei denen die KI mit Fachwissen reagieren muss. Ein Prompt-Engineer mit Erfahrung auf diesem Gebiet kann die KI anleiten, auf die richtigen Quellen zu verweisen und die Antwort auf der Grundlage der gestellten Frage angemessen zu formulieren.

Im medizinischen Bereich könnte ein Arzt beispielsweise ein schnell entwickeltes Sprachmodell verwenden, um Differentialdiagnosen für einen komplexen Fall zu erstellen. Der Arzt muss nur die Symptome und Patientendaten eingeben. Die Anwendung verwendet technische Eingabeaufforderungen, um die KI zunächst anzuleiten, mögliche Krankheiten aufzulisten, die mit den eingegebenen Symptomen in Verbindung stehen. Dann wird die Liste anhand zusätzlicher Patienteninformationen eingegrenzt.

Kritisches Denken

Anwendungen für kritisches Denken benötigen das Sprachmodell, um komplexe Probleme zu lösen. Zu diesem Zweck analysiert das Modell Informationen aus verschiedenen Blickwinkeln, bewertet ihre Glaubwürdigkeit und trifft begründete Entscheidungen. Prompt-Engineering verbessert die Datenanalysefunktionen eines Modells.

In Entscheidungsszenarien könnten Sie beispielsweise ein Modell auffordern, alle möglichen Optionen aufzulisten, jede Option zu bewerten und die beste Lösung zu empfehlen.

Kreativität

Kreativität beinhaltet die Generierung neuer Ideen, Konzepte oder Lösungen. Prompt-Engineering kann verwendet werden, um die kreativen Fähigkeiten eines Modells in verschiedenen Szenarien zu verbessern.

Beispielsweise könnte ein Autor beim Schreiben von Szenarien ein Prompt-Engineering-Modell verwenden, um Ideen für eine Geschichte zu generieren. Der Autor kann das Modell auffordern, mögliche Charaktere, Schauplätze und Handlungspunkte aufzulisten und dann eine Geschichte mit diesen Elementen zu entwickeln. Oder ein Grafikdesigner könnte das Modell auffordern, eine Liste von Farbpaletten zu erstellen, die eine bestimmte Emotion hervorrufen, und dann mit dieser Palette ein Design erstellen. 

Was sind Prompt-Engineering-Techniken?

Prompt-Engineering ist ein dynamisches und sich entwickelndes Gebiet. Es erfordert sowohl sprachliche Fähigkeiten als auch kreativen Ausdruck, um die Eingabeaufforderungen zu verfeinern und die gewünschte Reaktion von den generativen KI-Tools zu erhalten.

Hier sind einige Beispiele für Techniken, die Ingenieure dazu veranlassen, die Aufgaben der natürlichen Sprachverarbeitung (NLP) ihrer KI-Modelle zu verbessern.

Chain-of-Thought-Aufforderung

Chain-of-Thought-Aufforderung ist eine Technik, die eine komplexe Frage in kleinere, logische Teile zerlegt, die einen Gedankengang nachahmen. Dies hilft dem Modell, Probleme in einer Reihe von Zwischenschritten zu lösen, anstatt die Frage direkt zu beantworten. Dies verbessert seine Argumentationsfähigkeit.

Sie können mehrere Chain-of-Thought-Rollouts für komplexe Aufgaben durchführen und die am häufigsten getroffene Schlussfolgerung auswählen. Wenn die Rollouts erheblich voneinander abweichen, kann eine Person hinzugezogen werden, um die Gedankenkette zu korrigieren.

Zum Beispiel, wenn die Frage „Was ist die Hauptstadt von Frankreich?“ lautet, könnte das Modell mehrere Rollouts durchführen, die zu Antworten wie „Paris“, „Die Hauptstadt Frankreichs ist Paris“ und „Paris ist die Hauptstadt Frankreichs“ herausgeben. Da alle Rollouts zu demselben Ergebnis führen, würde „Paris“ als endgültige Antwort ausgewählt werden.

Tree-of-Thought-Aufforderung

Die Tree-of-Thought-Technik verallgemeinert die Chain-of-Thought-Aufforderung. Sie fordert das Modell auf, einen oder mehrere mögliche nächste Schritte zu generieren. Anschließend wird das Modell bei jedem möglichen nächsten Schritt mithilfe einer Baumsuchmethode ausgeführt.

Zum Beispiel, wenn die Frage „Was sind die Auswirkungen des Klimawandels? lautet, könnte das Modell zunächst mögliche nächste Schritte wie „Umweltauswirkungen auflisten und „Soziale Auswirkungen auflisten“ generieren. Es würde dann in den nachfolgenden Schritten auf jeden dieser Punkte näher eingehen.

Maieutische Aufforderung

Maieutische Aufforderungen ähneln Chain-of-Thought-Aufforderungen. Das Modell wird aufgefordert, eine Frage mit einer Erklärung zu beantworten. Das Modell wird dann aufgefordert, Teile der Erklärung zu erklären,. Inkonsistente Erklärungsbäume werden beschnitten oder verworfen. Dies verbessert die Leistung bei komplexen Argumenten mit gesundem Menschenverstand.

Zum Beispiel, wenn die Frage „Warum ist der Himmel blau?“ lautet, könnte das Modell zunächst antworten mit „Der Himmel erscheint dem menschlichen Auge blau, weil die kurzen Wellen des blauen Lichts von den Gasen und Partikeln in der Erdatmosphäre in alle Richtungen gestreut werden.“ Es könnte dann Teile dieser Erklärung erweitern, etwa warum blaues Licht stärker gestreut wird als andere Farben und woraus die Erdatmosphäre besteht.

Auf Komplexität basierende Eingabeaufforderungen

Diese Prompt-Engineering-Technik beinhaltet die Durchführung mehrerer Chain-of-Thought-Rollouts. Sie wählt die Rollouts mit den längsten Gedankenketten und wählt dann die am häufigsten getroffene Schlussfolgerung aus.

Handelt es sich bei der Frage beispielsweise um eine komplexe mathematische Aufgabe, kann das Modell mehrere Rollouts durchführen, die jeweils mehrere Berechnungsschritte beinhalten. Es würde die Rollouts mit der längsten Gedankenkette berücksichtigen, was in diesem Beispiel die meisten Berechnungsschritte wären. Die Rollouts, die zu einem gemeinsamen Ergebnis mit anderen Rollouts führen, würden als endgültige Antwort ausgewählt.

Generierte Wissensvermittlung

Bei dieser Technik wird das Modell aufgefordert, zunächst relevante Fakten zu generieren, die für die Ausführung der Aufforderung erforderlich sind. Anschließend wird die Eingabeaufforderung abgeschlossen. Dies führt häufig zu einer höheren Abschlussqualität, da das Modell von relevanten Fakten abhängig ist.

Stellen Sie sich zum Beispiel vor, ein Benutzer fordert das Modell auf, einen Aufsatz über die Auswirkungen der Entwaldung zu schreiben. Das Modell könnte zunächst Fakten wie „Entwaldung trägt zum Klimawandel bei“ und „Entwaldung führt zum Verlust der biologischen Vielfalt“ zurückgeben. Dann würde es auf die Punkte des Aufsatzes näher eingehen.

Von der geringsten bis zur häufigsten Aufforderung

Bei dieser Prompt-Engineering-Technik wird das Modell aufgefordert, zunächst die Teilprobleme eines Problems aufzulisten und sie dann nacheinander zu lösen. Dieser Ansatz stellt sicher, dass spätere Teilprobleme mit Hilfe von Antworten auf frühere Teilprobleme gelöst werden können.

Stellen Sie sich zum Beispiel vor, dass ein Benutzer das Modell mit einer mathematischen Aufgabe wie „Gleichung 2x + 3 = 11 nach x auflösen“ aufruft. Das Modell könnte die Teilprobleme zunächst als „3 von beiden Seiten subtrahieren“ und „Durch 2 dividieren“ auflisten. Es würde sie dann nacheinander lösen, um die endgültige Antwort zu erhalten.

Automatische Eingabeaufforderung

Bei dieser Technik wird das Modell aufgefordert, das Problem zu lösen, seine Lösung zu kritisieren und dann das Problem unter Berücksichtigung des Problems, der Lösung und der Kritik zu lösen. Der Problemlösungsprozess wiederholt sich, bis ein vorher festgelegter Grund für den Stopp erreicht ist. Beispielsweise könnten dem Modell die Token oder die Zeit ausgehen, oder das Modell könnte ein Stopp-Token ausgeben.

Stellen Sie sich zum Beispiel vor, ein Benutzer fordert ein Modell auf „Einen kurzen Aufsatz über Literatur schreiben.“ Das Modell könnte einen Aufsatz verfassen, ihn mangels konkreter Beispiele kritisieren und den Aufsatz so umschreiben, dass er spezifische Beispiele enthält. Dieser Vorgang würde wiederholt werden, bis der Aufsatz als zufriedenstellend erachtet wird oder ein Stoppkriterium erfüllt ist.

Direktionale Stimulus-Aufforderung

Diese Prompt-Engineering-Technik beinhaltet einen Hinweis oder einen Hinweis, z. B. gewünschte Schlüsselwörter, um das Sprachmodell zur gewünschten Ausgabe zu führen.

Wenn die Aufforderung beispielsweise darin besteht, ein Gedicht über Liebe zu schreiben, kann der Prompt-Engineer Aufforderungen verfassen, die „Herz“, „Leidenschaft“ und „Ewigkeit“ enthalten. Das Modell könnte aufgefordert werden „Ein Gedicht über Liebe schreiben, das die Wörter „Herz“, „Leidenschaft“ und „Ewigkeit“ enthält“. Dies würde das Modell dazu anleiten, ein Gedicht mit diesen Schlüsselwörtern zu verfassen.

Was sind einige der bewährten Methoden für Prompt-Engineering?

Ein gutes Prompt-Engineering setzt voraus, dass Sie Anweisungen mit Kontext, Umfang und erwarteter Reaktion kommunizieren. Als Nächstes stellen wir einige bewährte Methoden vor.

Eindeutige Aufforderungen

Definieren Sie die gewünschte Antwort in Ihrer Aufforderung klar, um Fehlinterpretationen durch die KI zu vermeiden. Wenn Sie beispielsweise nach einer Zusammenfassung eines Romans fragen, geben Sie deutlich an, dass Sie nach einer Zusammenfassung und nicht nach einer detaillierten Analyse suchen. Dies hilft der KI, sich nur auf Ihre Anfrage zu konzentrieren und eine Antwort zu geben, die Ihrem Ziel entspricht.

Angemessener Kontext innerhalb der Aufforderung

Sorgen Sie für einen angemessenen Kontext innerhalb der Aufforderung und beziehen Sie die Ausgabeanforderungen in Ihre Eingabeaufforderung ein, indem Sie sie auf ein bestimmtes Format beschränken. Nehmen wir beispielsweise an, Sie möchten eine Liste der beliebtesten Filme der 1990er Jahre in einer Tabelle haben. Um das genaue Ergebnis zu erhalten, sollten Sie explizit angeben, wie viele Filme aufgeführt werden sollen, und nach einer Tabellenformatierung fragen.

Gleichgewicht zwischen zielgerichteten Informationen und gewünschten Ausgaben

Sorgen Sie bei Ihrer Aufforderung für ein Gleichgewicht zwischen Einfachheit und Komplexität, um vage, unzusammenhängende oder unerwartete Antworten zu vermeiden. Einer zu einfachen Aufforderung fehlt möglicherweise der Kontext, während eine zu komplexe Aufforderung die KI verwirren kann. Dies ist besonders wichtig für komplexe Themen oder domainspezifische Sprachweise, die der KI möglicherweise weniger vertraut sind. Verwenden Sie stattdessen eine einfache Sprachweise und reduzieren Sie die Größe der Eingabeaufforderung, um Ihre Frage verständlicher zu machen.

Experimentieren und die Aufforderung verfeinern

Prompt-Engineering ist ein sich wiederholender Prozess. Es ist wichtig, mit verschiedenen Ideen zu experimentieren und die KI-Eingabeaufforderungen zu testen, um die Ergebnisse zu sehen. Möglicherweise benötigen Sie mehrere Versuche, um die Genauigkeit und Relevanz zu optimieren. Kontinuierliche Tests und Wiederholungen reduzieren die Größe der Eingabeaufforderung und tragen dazu bei, dass das Modell eine bessere Ausgabe generiert. Es gibt keine festen Regeln dafür, wie die KI Informationen ausgibt, daher sind Flexibilität und Anpassungsfähigkeit unerlässlich.

Wie kann AWS Ihre Anforderungen zur generativen KI unterstützen?

Amazon Web Services (AWS) bietet die Breite und Tiefe von Tools für die Entwicklung und Nutzung der generativen KI. Sie können zum Beispiel diese Services nutzen:

  • Amazon CodeWhisperer zum Generieren von Codevorschlägen in Echtzeit anhand Ihrer Kommentare und vorhandenem Code, die von Auszügen bis hin zu vollen Funktionen reichen.
  • Amazon Bedrock zum Beschleunigen der Entwicklung von Anwendungen generativer KI mithilfe von Sprachmodellen über eine API, ohne die Infrastruktur verwalten zu müssen.
  • Amazon SageMaker JumpStart zum Entdecken, Erkunden und Bereitstellen von Open-Source-Sprachmodellen. Sie können beispielsweise mit Modellen wie OpenLLaMA, RedPajama, MPT-7B, FLAN-T5, GPT-NeoX-20B und BLOOM von MosaicML arbeiten.

Wenn Sie lieber Ihre eigenen Modelle erstellen möchten, verwenden Sie Amazon SageMaker. Es bietet verwaltete Infrastruktur und Tools, um die skalierbare, zuverlässige und sichere Modellerstellung, das Training und die Bereitstellung zu beschleunigen.

Beginnen Sie mit Prompt-Engineering in AWS, indem Sie noch heuteein Konto erstellen.

Nächste Schritte in AWS

Für ein kostenloses Konto registrieren

Sie erhalten sofort Zugriff auf das kostenlose Kontingent von AWS.

Registrieren 
Mit der Entwicklung in der Konsole starten

Starten Sie mit der Entwicklung in der AWS-Managementkonsole.

Anmelden