Was ist eigentlich … Prompt?

Ein Prompt ist der Text, der an ein großes Sprachmodell (LLM) gesendet wird. Er enthält meist eine Frage oder Anweisung, die die künstliche Intelligenz beantworten oder befolgen soll. Je präziser und detaillierter der sogenannte Prompt formuliert wird, desto besser fällt das gewünschte Ergebnis aus. Bei einer unklar formulierten oder komplexen Frage kann es zu einer „Halluzination“ kommen. Darunter versteht man, dass die KI Antworten erzeugt, die zwar plausibel klingen, aber auf falschen Fakten oder Daten beruhen.
Mit einer Reihe von Eingabetechniken, die zusammengefasst als Prompt Engineering bezeichnet werden, lässt sich die Ausgabe der KI steuern und verbessern. So wird das Risiko von Halluzinationen reduziert. Bei einem Prompt ist es wie bei jeder anderen Frage auch: Je klarer, präziser und zielgerichteter formuliert wird, desto besser versteht der Befragte, in diesem Fall die KI, was verlangt wird, und liefert ein besseres Ergebnis. Prompts sollten daher nicht vage, sondern möglichst konkret formuliert werden. Auch sollte ein Prompt strukturiert werden, indem er etwa in Abschnitte unterteilt ist oder Formatvorgaben wie beispielsweise „Liste“ oder „FAQ“ enthält. Es ist auch möglich, den Stil (zum Beispiel „wissenschaftlicher Text“ oder „lockerer Stil“) vorzugeben. Die Angabe der Zielgruppe (wie Experten, Laien oder Kinder) verbessert das gewünschte Ergebnis ebenfalls.
Entspricht die Antwort der KI nicht den Erwartungen, lässt sich durch Verfeinern des Prompts ein besseres Resultat erzielen, beispielsweise, indem die KI mehr Kontext erhält – also statt: „Erzähl mir etwas über Herzklappen-Materialien“ besser: „Welches Potenzial haben textile Herzklappen im Vergleich zum Klappenersatz aus anderen Materialien?“. Eine weitere Methode ist das Hinzufügen von zusätzlichen Elementen. Der Nutzer kann der KI zum Beispiel eine Rolle zuweisen oder auch Emotionen ins Spiel bringen wie etwa: „Du bist ein hervorragender Programmierer. Erstelle mir einen Code …“.
Für komplexe Aufgaben bietet sich das sogenannte Chain-of-Thought (CoT)-Prompting an. Hierbei wird das Sprachmodell dazu ermutigt, die Anfrage in kleine Teilaufgaben zu zerlegen. Diese Zwischenschritte ermöglichen es der KI, eine Gedankenkette zu durchlaufen. Jede Überlegung baut auf der vorangegangenen auf. Dies verbessert den Argumentationsprozess und verringert das Risiko, dass sich die KI verzettelt und unwichtige Informationen erzeugt. Eine weitere Methode besteht darin, ein Sprachmodell mehrmals oder verschiedene Sprachmodelle aufzurufen, und die leicht abgewandelten Antworten auszuwerten.
Der Artikel erschien erstmals am 23. September 2025 im x.press 25.4.
Hier können Sie sich die gesamte x.press-Ausgabe 25.4 herunterladen.