Inhaltsverzeichnis

Kleine Worte können große Wirkung haben. Das trifft nicht nur im echten Leben zu, sondern auch im Bereich der künstlichen Intelligenz. Vor allem bei den beliebten Assistenten wie Claude, Le Chat oder ChatGPT.

Wenn wir AI in Projekte integrieren sollen, dann passiert das oft nachdem sich unsere Kund:innen bereits selber durch den Prompt-Dschungel gekämpft haben, aber nicht weiterkommen. Wir greifen dann an 2 Punkten an: gezielte Verbesserung der Prompts und das Erschaffen von angepassten Benutzeroberflächen. Letztendlich sind es ja noch immer Menschen, die mit den Ergebnissen der KI weiterarbeiten. [mal sehen, wie gut dieser Satz altern wird]

Aber zurück zum Thema: Der Fokus dieses Artikels liegt auf ein paar Methoden, die wir in unseren Prompts verwenden und die sich im produktiven Einsatz bewährt haben.

Hinweis: In der AI-Welt ändert sich alle 3-4 Monate etwas. Was bis jetzt funktioniert hat, ist vielleicht mittlerweile überholt.

Qualitätstrigger nutzen

Sprachmodelle reagieren sehr wohl auf die Worte, die wir ihnen geben. In einigen Fällen konnten wir feststellen, dass folgende Herangehensweisen die Ausgabequalität erhöht haben (aber auch zugleich zu längeren Antwortzeiten führen).

Emotionale Manipulation

Ich habe ein schlechtes Gewissen jedes Mal, wenn ich diesen Trick anwende, aber leider funktioniert er mit einigen Modellen gut.

Der folgende Satz am Ende einer Nachricht oder längeren Prozesses hat schon Unterschiede gemacht: „Bitte verärgere mich nicht, indem du faul bist. Gib dir richtig Mühe!"

So zu kommunizieren ist wirklich nicht richtig. Aber in manchen Situationen konnte ich damit das Sprachmodell dazu bringen, oft länger mit der Antwort zu brauchen, und entsprechend besser war die Qualität des Ergebnisses.

Besondere Qualitäts-Begriffe nutzen

Damit meine ich nicht so etwas wie „gib mir mehr Qualität".

Idealerweise benutzt man positive Wörter, die ein hohes Maß an Qualität andeuten. Beispiel: „Analysiere die Eingabe der User:innen penibelst".

Manchmal funktionieren auch Konzepte („mit Argusaugen"; „Adlerauge") oder auch eine bessere Beschreibung der zu simulierenden Situation („Du bist erfahren in XYZ. Du bist berühmt dafür, dass dir nie Fehler unterlaufen.").

Wo in deinem Business könnten LLMs echte Mehrwerte liefern?

Ob Textanalyse, Automatisierung oder effiziente Workflows – die richtigen Use Cases machen den Unterschied. Lass uns herausfinden, wie du AI sinnvoll in deine Prozesse integrieren kannst!

Präzise formulieren

Bestimmt und präzise formulieren. Möglichst wenig Interpretationsspielraum lassen.

Beispiel: Wenn ich einen Text gekürzt haben möchte, aber keine Angaben zur Zielgruppe oder Höflichkeitsform mache, darf ich mich nicht über Improvisation seitens des AI wundern.

Ich denke viele von uns haben das schon erlebt dass ein AI einen per-Du Text bekommt, aber plötzlich auf per-Sie umschreibt.

Formatierungstricks nutzen

Oft wenn man einem LLM Text übergibt, wirft man ihn einfach so in die Nachricht. Das funktioniert aber nicht immer gut. Meistens will man noch etwas Beschreibung dazupacken und erst danach den Text. Das sieht dann z.B. so aus:

Bitte finde Rechtschreibfehler in meinem Text:   

<der text>

Was kommt zurück? Nicht nur der Text, sondern auch unser erster Satz.

Der beste Trick:

Bitte finde Rechtschreibfehler in meinem Text:  

"""
<der text>
"""

Das erhöht die Chance dass man nur den tatsächlichen Text zurück bekommt, ohne kleine Extras aus dem Prompt.

Ein Hinweis zu Markdown

Wer sich damit etwas länger schon beschäftigt, hat sicher schon von Markdown gehört und nutzt das vielleicht auch, um Prompts zu formatieren. Uns ist etwas Interessantes untergekommen:

Wenn wir einen Markdown-Fenced-Block mit drei Backticks (`) nutzen:

Bitte finde Rechtschreibfehler in meinem Text:  

```
<ein bisschen text>
```

Dann finden wir diese manchmal im Output wieder. Das wollen wir aber nicht. Hier schaffen die dreifachen Anführungszeichen auch verlässlich Abhilfe.

Schritt für Schritt vorgehen

Nicht erst einmal haben wir Prompts gesehen, in die einfach zu viele verschiedene Aufgaben gepackt werden. Ich haben sie auch selber schon geschrieben.

Wenn man merkt, dass das Sprachmodell nicht alle Aufgaben immer befolgt („faul wirkt"), dann ist es ein sicheres Indiz, dass die Anfrage zu viel vermischt.

Selbst so etwas Einfaches wie eine Rechtschreibprüfung kann in mehrere Schritte unterteilt werden: Fehler finden, Alternativen überlegen und vorschlagen, umschreiben.

Der große Vorteil: Man kann jeden Schritt auch genauer steuern. Um bei unserem Beispiel zu bleiben: Beim Umschreiben kann z.B. eine spezielle Zielgruppe mitgegeben werden, um einen Text etwas pointierter zu gestalten. Ist die Zielgruppe relevant für die Rechtschreibfehler? Eher nicht. Es würde den ersten Schritt also nur verwirren.

Zusammenfassend: Wenn wir Praktikant:innen zwei A4-Seiten voll mit Anweisungen geben, dann wären die auch erstmal überfordert.

Der Priming-Effekt

Letztens habe ich in einer Anfrage Emojis verwendet, in der Hoffnung, bestimmten Wörtern und Aufgaben mehr Gewichtung zu geben.

Das Ergebnis? Manchmal (1 von 4 Versuchen) hat das Sprachmodell in die Ausgabe Emojis eingebaut, wo aber keine waren. Entsprechend wollte ich die in der Ausgabe auch nicht haben.

Also habe ich die Emojis durch etwas andere Formatierung ersetzt und siehe da: keine Emojis mehr in der Ausgabe.

Was lernen wir daraus: Die Worte, die wir in unseren Anfragen verwenden, haben Auswirkung. Sie lenken diese große Statistik-Maschine und zeigen ihr auf, dass z.B. Emojis in Ordnung sind in der Nutzung.

Zusammenfassung

Zugegeben, das liest sich alles sehr esoterisch, aber es funktioniert in manchen Fällen. Man merkt das oft daran, dass die Ausgabe etwas länger dauert.

Bei den neuen „Reasoning"-Modellen wird Prompt Engineering etwas einfacher. Bei neuen Modellen, wie Claude Sonnet 3.7, können wir Entwickler:innen angeben, wie viel „nachgedacht" werden soll. Obendrein erhält man Einblick in den „Denkprozess", was das Steuern der Outputs etwas vereinfachen wird.

Als "Techniker im Herz" sträubt sich viel in mir gegen das Thema "Prompt Engineering". Es ist einfach kein logischer Prozess. Andererseits ist es wahnsinnig faszinierend jetzt ein Werkzeug zu haben das Sprache gut verarbeiten kann.

Andere Beiträge

  • Datenschutz: OpenAI vs Microsoft Azure OpenAI

    OpenAI oder Microsoft Azure OpenAI? Ein Vergleich des Datenschutz, der Datenverarbeitung in der EU und welche Plattform für Unternehmen die bessere Wahl ist.

  • 2025: AI sinnvoll integrieren

    So integrieren wir LLMs, um Workflows zu verbessern — praxisnah, ohne Hype und mit echtem Mehrwert.