Prompt Engineering und Performance Leadership

Wer sich wie der MBA Performance Leadership mit der Führung der Zukunft beschäftigt, kommt um die Auseinandersetzung mit künstlicher Intelligenz und deren Auswirkungen auf Führung, Mitarbeitende und Unternehmen nicht herum. Aber – welche Rolle genau nimmt künstliche Intelligenz in Zukunft ein, welche Risiken, aber auch Chancen gehen mit ihrer Nutzung einher welche rechtlichen, ethischen und moralischen Aspekte werden dabei berührt? Um Fragen wie diese beantworten zu können, ist es zunächst einmal notwendig zu wissen, wie das, worüber gesprochen wird, überhaupt funktioniert. Genau mit dieser Zielsetzung hat der MBA Performance Leadership mit Eric Vogel einen Experten zu sich eingeladen, der mit den Geheimnissen vor allem des Tools vertraut ist, das derzeit in aller Munde ist: ChatGPT.

Eric Vogel (Foto: privat)

Beruflich ist Eric bei der Advisori FTC GmbH in Frankfurt verortet, wo er das Team „Data Driven Products“ leitet. Sein Fokus liegt unter anderem auf der Integration großer Sprachmodelle in digitale Produkte und dem damit verbundenen Bereich des Prompt Engineering. Dieses ist ein Konzept der natürlichen Sprachverarbeitung, bei der die Aufgabe, die von der KI gelöst werden soll, bereits in die Eingabe eingebettet ist. Ein „Prompt“ ist also, vereinfacht gesagt, das „Futter“, das ein User in Form einer Frage oder eines sonstigen Textes in eine Anwendung wie ChatGPT eingibt. Das Besondere an solchen KI-basierten Sprachmodellen ist, dass wir dort nicht nur in unserer eigenen Sprache etwas eingeben können, sondern ebenfalls in unserer Sprache wieder etwas herausbekommen. Wer mag, kann sich mit ChatGPT buchstäblich unterhalten – im Chat mit einer Künstlichen Intelligenz.

Algorithmisch lässt sich das Prinzip so darstellen: Als Reaktion auf die eingegebenen Texte generiert das Tool Silbe für Silbe die nächst sinnvolle Antwort darauf, ermittelt also in Sekundenschnelle das hierzu am wahrscheinlichsten Passende. Trainiert ist ChatGPT auf Daten bis September 2021. Das Training eines großen Sprachmodells ist sehr aufwendig und teuer, was es erschwert, tagesaktuelle Daten miteinzubeziehen. Diese können aber nachträglich innerhalb der Prompt explizit übergeben werden – ein Prozess, der Knowledge Augmentation genannt wird. Derzeit gibt es ChatGPT in einer kostenfreien (ChatGPT 3.5) und einer kostenpflichtigen (ChatGPT 4) Version. Zu seinem heutigen Vortrag hat Eric beide Versionen am Start.

Was kann ChatGPT konkret?!

Die allereinfachste Anwendung von ChatGPT besteht darin, eine einfache Frage zu stellen – wie zum Beispiel: Was ist Apfelsaft? Was prompt folgt, ist eine nüchterne, scheinbar und manchmal anscheinend faktenbasierte Antwort. Schon eindrucksvoller wird es, wenn die Aufgabe realistischer und „echter“ wird. So probierten die MBA-Studierenden im Folgenden Fragestellungen aus ihrem direkten beruflichen Alltag aus: Gefragt wurde beispielsweise nach branchenspezifischen aufstrebenden Märkten, neuen Produktkategorien oder Lösungen für eine Herausforderung, vor der das eigene Unternehmen gerade steht. Spannend für Wissensarbeiter ist unter anderem die Möglichkeit, einen Beitrag aus einem Fachmagazin in ChatGPT einzuspeisen und sich eine Zusammenfassung dessen geben zu lassen.

Die von ChatGPT generierten Outputs wurden von den Studierenden als teils recht spannend, teils aber auch recht allgemein bewertet. Geht es also noch etwas konkreter? Ja, es geht – wie Eric im weiteren Verlauf zeigte.

Konkretere Ergebnisse lassen sich bereits dadurch erzielen, dass die in das Tool eingegebenen Fragen zuvor klar strukturiert werden. Hier geht es darum, noch genauer festzulegen, wie lang beispielsweise die gegebene Antwort sein soll, wie sachlich oder möglicherweise auch gefühlsbetont sie gewünscht wird oder auch, um was für eine Art von Text es sich handeln soll. Von einem Gedicht im Stile Shakespeares bis zu einem japanischen „Haiku“ ist alles drin. So machte es einen spürbaren Unterschied, ob zum Thema „Apfelsaft“ ein sachlicher oder ein werblicher Text gefordert wird, ob dieser Text beispielsweise aus maximal 50 oder maximal 100 Wörtern bestehen soll. Auch kann von ChatGPT gefordert werden, Apfelsaft aus der Perspektive eines Astronauten beschreiben zu lassen, als Marcus Aurelius oder in der Funktion eines Wissenschaftsjournalisten. „Role Prompting“ wird dieses Verfahren genannt.

Wichtig für dezidiertere Ergebnisse ist es also, sehr konkret in der Eingabe zu sein. Ein weiterer guter Tipp von Eric ist es, dabei außerdem in Teilschritten vorzugehen. Das verdeutlicht er am Beispiel eines Kuchenrezepts: Anstatt schlicht nach einem beliebigen Rezept zu fragen, werden zunächst die Anforderungen beschrieben, beispielsweise, was der Kuchen enthalten soll und was auf keinen Fall. Dieses wird im nächsten Schritt dann noch einmal mehr spezifiziert: Welche weiteren Zutaten können diesen Kuchen jetzt noch verbesondern, welche fünf verschiedenen Rezepte lassen sich daraus kreieren usw.? Gerade im Business-Kontext kann diese Art der Eingabestrukturierung die Chance auf gezielte Nutzbarkeit der Ergebnisse erhöhen.

Eine weitere Möglichkeit, zu zielgenaueren Lösungen zu kommen, besteht darin, das Format, in dem der Text ausgegeben werden soll, vorzugeben. Möglich sind dabei alle textbasierten Formate wie Listen, Aufzählungen oder Tabellen.

Je strukturierter der Prompt, desto dezidierter das Ergebnis

Die Erfolgsformel bis hier hin lautet demnach: Je kenntnisreicher der Umgang mit dem Aufbau der Prompts, desto effektiver verläuft die Interaktion mit ChatGTP. Und: Oft kann man die Ergebnisse aus ChatGPT nicht 1:1 übernehmen, aber man bekommt Anregungen.

Nicht weniger spannend als diese praktischen Anwendungsfelder gestaltete sich das Ausloten der ethischen Grenzen des Tools. So ist es beispielsweise nicht – oder zumindest nicht ohne Weiteres – möglich, einen politisch unkorrekten Text abzufordern. Und auch in anderen Grenzfällen antwortet ChatGPT, dass Aussagen hierzu nicht möglich sind. Dass es vor allem an uns liegt, Rahmen für die Ergebnisse vorzugeben, zeigt sich jedoch daran, dass bereits per „Prompt-Hacking“ versucht wird, die eingebauten Sperren aufzuheben.

Auch in Sachen Quellensicherheit gibt es noch einiges zu tun. So können mit ChatGPT 4 zwar via Web Browsing die erfolgten Antworten noch einmal faktengecheckt werden. Das Problem dabei ist jedoch, dass zwar Internetquellen aufgerufen werden, die User aber nur begrenzte Kontrolle darüber haben, welche Quellen genutzt werden sollen und welche nicht. Und dann ist da natürlich noch die Frage der Datensicherheit, die sich gerade auch im Business-Bereich stellt: Welche Daten will ich zu openAI, dem Entwicklerunternehmen von ChatGPT, in die USA schicken?

Gezeigt hat sich, dass ChatGPT auf jeden Fall ein faszinierendes Medium ist, das unsere Möglichkeiten in vielerlei Hinsicht erweitert – im Rahmen der von Menschenhand gesteckten ethischen, rechtlichen und moralischen Grenzen.

Vielen Dank, Eric, für diesen vielseitigen Hands-on-Vortrag mit den zahlreichen praktischen Tipps und Einblicken in die Geheimnisse von ChatGPT!

Header-Foto: CC-0 Midjourney („an ai prompt engineer thinking about performance“).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert