Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

« Vorherige Version anzeigen Version 13 Nächste Version anzeigen »


Definition

Das Konzept "Prompt Engineering" beschreibt die Eingabe von "Prompts" (Eingabebeaufforderungen) in das Eingabefeld. Ziel ist es, Befehle so zu formulieren, dass die KI das gewünschte Ergebnis liefert. Eine sorgfältige Gestaltung der Prompts kann die Leistung und Verständlichkeit von KI-Systemen erheblich verbessern. Der KI-Campus hat in der Veranstaltungsreihe "Prompt Labor" einen Prompt-Katalog initiiert, in diesem Katalog finden Sie ausformulierte Promptbeispiele mit Bezug auf die Lehre (z.B. Begrüßungstext Online-Lernraum, Ablaufplan, Nachrichten an Studierende usw.) (Link zu KI in der Lehre)


Sprachmodelle wie ChatGPT können Schwierigkeiten mit komplexen Eingaben haben. Ein guter Prompt sollte daher Informationen zu folgenden Punkten enthalten:

  • Die Rolle, die übernommen werden soll (zum Beispiel "Du bist ein/e ... und möchtest ...")
  • Die Art des Textes (zum Beispiel "ein Abschnitt einer wissenschaftlichen Veröffentlichung")
  • Das Thema
  • Die Zielgruppe (zum Beispiel "Studierende, Lehrende, Forschende usw.")
  • Der Stil (zum Beispiel "akademisch")
  • Die Länge (zum Beispiel "5 Sätze; 250 Wörter; 2 Absätze usw.")

Textprompting

Wie erzeugen große Sprachmodelle ihre Ausgaben? Große Sprachmodelle wurden mit sehr umfangreichen Textdaten trainiert. Sie wurden darauf trainiert, das nächste Wort aus der Eingabe vorherzusagen. Wenn das Modell groß genug ist, kann es nicht nur die Grammatik menschlicher Sprachen erlernen, sondern auch die Bedeutung von Wörtern, Allgemeinwissen und primitive Logik anwenden.

Wenn man also einem Modell den unvollständigen Satz “Der Hund meines Nachbarn ist” gebt (Eingabe, auch bekannt als Prompt), könnte die Ausgabe “klein” oder “hungrig” vorhersagen, aber wahrscheinlich nicht “blumig”, obwohl es sich bei allen Wörtern um Adjektive handelt. 

Zero Shot - Prompting

Zero-Shot-Prompting ist ein Begriff aus dem Bereich der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Es bezeichnet die Fähigkeit eines Modells, auf einen Eingabeaufforderung (Prompt) zu reagieren, der nicht Teil der Trainingsdaten war, und ein gewünschtes Ergebnis zu erzeugen.

Ein Beispiel für Zero-Shot-Prompting könnte folgendermaßen aussehen:

Angenommen, Sie möchten, dass das Modell eine Geschichte über einen tapferen Ritter erzählt, der einen Drachen besiegt. Anstatt das Modell speziell darauf zu trainieren, Geschichten über Ritter und Drachen zu erzählen, könnten Sie einfach einen Prompt wie den folgenden verwenden:

"Erzähle mir eine Geschichte über einen tapferen Ritter, der einen gefährlichen Drachen besiegt."

Das Modell, das nie explizit auf diese spezifische Aufgabe trainiert wurde, kann nun eine entsprechende Geschichte generieren. Es verwendet sein Verständnis von Sprache und Kontext, das es während des Trainings erworben hat, um auf den Prompt zu reagieren und eine kohärente und relevante Geschichte zu erzeugen. Dies ist ein Beispiel für Zero-Shot-Prompting. Es zeigt, wie vielseitig und flexibel große Sprachmodelle bei der Bewältigung einer Vielzahl von Aufgaben sein können, ohne dass sie speziell auf diese Aufgaben trainiert werden müssen.

Single-Shot oder One-Shot - Prompting

"One-Shot-Prompting" ist ein Begriff aus dem Bereich der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Es bezieht sich auf die Fähigkeit eines Modells, auf einen Eingabeaufforderung (Prompt) zu reagieren, der ein einziges Beispiel enthält, das dem Modell hilft, die gewünschte Aufgabe zu verstehen.

Stellen Sie sich vor, Sie möchten, dass ein Sprachmodell eine bestimmte Aufgabe ausführt, z. B. eine Frage in einer bestimmten Weise beantworten. Anstatt das Modell speziell darauf zu trainieren, diese spezifische Aufgabe auszuführen, könnten Sie dem Modell einen Prompt geben, der ein Beispiel für die gewünschte Aufgabe enthält.

Das Modell kann sich dann an der Struktur und am Beispiel orientieren und erhält wesentliche Hinweise auf die Art und Weise der gewünschten Inhalte². Diese Strategie wird auch als "One-Shot-Prompting" bezeichnet².

Ein Beispiel für One-Shot-Prompting könnte sein: Angenommen, Sie möchten, dass das Modell eine Frage beantwortet, wie "Was ist die Hauptstadt von Frankreich?". Sie könnten dem Modell einen Prompt geben, der so aussieht:


Frage: Was ist die Hauptstadt von Deutschland?

Antwort: Berlin

Frage: Was ist die Hauptstadt von Frankreich?

Das Modell sieht das Beispiel und versteht, dass es erwartet wird, die Frage zu beantworten, und es antwortet entsprechend mit "Paris". Obwohl das Modell nie explizit darauf trainiert wurde, diese spezifische Frage zu beantworten, kann es die Aufgabe aufgrund des bereitgestellten Beispiels erfolgreich ausführen.

Few Shot - Prompting

Bei dieser Methode werden mehrere Beispiele genannt, um die Antwort in eine bestimmte Richtung zu lenken. Möchte man sich beispielsweise ein Gedicht erstellen lassen, so kann man Beispielgedichte vorab mit einfügen.

Chain of Thought - Prompting (CoT - Prompting)

Bei dem CoT - Prompting wird das Sprachmodell nach dem "Gedankengang" der zu generierenden Antwort gefragt. Ziel ist es, eine schrittweise Vorgehensweise zur Lösung einer Aufgabe zu erhalten. Dabei wird in dem Eingabefeld eine Aufforderung der schrittweisen Vorgehensweise gefragt, beispielsweise durch "Erkläre Schritt für Schritt, wie wir vorgehen sollten."

Tree-of-Thought - Prompting (ToT - Prompting)

Diese Methode ist ähnlich wie das CoT - Prompting. Im Unterschied dazu, werden bei dem ToT - Prompting jedoch mehrere mögliche Pfade oder Verzweigungen vorgegeben. Dabei werden mehrere mögliche nächste Schritte aufgeführt, auf die das Sprachmodell jeweils eingehen soll um mehrere Lösungsansätze zu finden. das Prinzip ähnelt einer Baumsuchmethode.

Maieutic - Prompting

Nicht-Text Prompting




  • Keine Stichwörter