Der OMR Education Podcast wird von Rolf Hermann moderiert, der Chefredakteur der OMR Reports ist. In dieser Episode spricht Rolf über das Thema "Prompt Engineering" und hat dazu den KI-Experten Kai Spriessterbach eingeladen. Sie diskutieren, wie man mit künstlicher Intelligenz (KI) arbeitet und was einen guten Prompt ausmacht.
Ein Prompt ist im Grunde die Anweisung, die man einem KI-Modell gibt. Die Aufgabe besteht darin, diese Anweisungen so zu formulieren, dass die KI das gewünschte Ergebnis liefert. Das Thema Prompting wurde mit der Einführung großer Sprachmodelle wie ChatGPT besonders wichtig, da diese Modelle in der Lage sind, eine Vielzahl von Aufgaben zu bewältigen.
Kai erklärt, dass es früher spezialisierte Modelle für spezifische Aufgaben gab, wie z.B. Übersetzungen oder Zusammenfassungen. Mit großen Sprachmodellen hat sich das geändert, da diese theoretisch sehr viel mehr leisten können. Prompting-Techniken haben sich ebenfalls entwickelt und ändern sich weiterhin schnell. Ein guter Prompt muss spezifisch sein und alle notwendigen Informationen enthalten, da das Modell sonst auf Annahmen in den Trainingsdaten zurückgreift.
Die beiden diskutieren verschiedene Prompting-Methoden, darunter "Few-Shot Prompting", bei dem man Beispiele für die gewünschte Antwort gibt, und "Zero-Shot Prompting", bei dem man keine Beispiele liefert. Moderne Modelle sind besser darin geworden, Anweisungen direkt zu verstehen, ohne dass Beispiele erforderlich sind.
Kai stellt das RTF-Framework vor, das für Rolle (Role), Aufgabe (Task) und Format (Format) steht. Er betont jedoch, dass die Rolle in modernen Modellen oft nicht mehr notwendig ist, da das Modell durch die Fachsprache oft schon versteht, was gefragt ist. Der Kontext (Context) ist entscheidend, um sicherzustellen, dass das Modell die richtige Antwort gibt.
Ein weiterer Punkt ist, dass man keine verschiedenen Themen in einem Chatverlauf mischen sollte, um saubere Ergebnisse zu gewährleisten. Auch sollte man darauf achten, dass die KI-Modelle nicht autonom Aufgaben ausführen, ohne dass ein Mensch die Ergebnisse überprüft, da dies zu fehlerhaften oder gefährlichen Situationen führen könnte.