Prompt-Engineering I
Studenten nutzen seit fast zweieinhalb Jahren die generative KI für ihr Studium. Allerdings regelmäßig mangelhaft. Sie starten den Chatbot und schreiben ohne viel nachzudenken einfache Anweisungen wie „Mach eine Liste zu ...“ oder „Erkläre das …“
Doch diese unspezifischen Anfragen liefern nur mittelmäßige Antworten. Sie gleichen Einheitsgrößen in der Kleiderbranche: passend für viele, aber selten perfekt. Die Antworten der Chatbots sind durchschnittlich und wenig auf das jeweilige Problem zugeschnitten. Leider merken die Anwender nicht, dass sie nur einen Bruchteil des tatsächlichen KI-Potenzials ausschöpfen.
Unspezifische Prompts wirken wie ein Jäger, der blind in die Luft schießt – und dennoch erwartet, dass ihm gerupfte und gebratene Enten vor die Füße fallen. Also:
So funktioniert das nicht. Doch wie dann?
Large Language Models (LLMs) zeigen große Problemlösungsfähigkeiten. Die KI-Effektivität jedoch variiert enorm. Die Effektivität ist abhängig von der Formulierung der Anweisung (Prompts). Sie ist überdies kontingent. Das heißt, die Antworten sind mal so, mal so, abhängig von modellinternen Strukturen und Prozessen. Umständen, die wir nicht erkennen oder nur wenig beeinflussen können.
Die Kunst des Prompt-Engineering – also das gezielte Formulieren von Anweisungen an die KI – hat sich zu einer gefragten Fähigkeit entwickelt. Soziale Medien sind voller Beispiele, und Influencer versuchen mit spezifischen Prompt-Techniken, Follower (und damit Geld) zu gewinnen.
Warum die Formulierung von Prompts entscheidend ist
Doch um das volle Potenzial von KI-Modellen auszuschöpfen, reicht es nicht, diese Techniken zu kopieren. Man muss verstehen, wie die Modelle grundsätzlich funktionieren. Wer KI sinnvoll anwenden will, benötigt daher ein solides Grundwissen
Eine der Grundstrukturen eines effektiven Prompts
Die effektive Nutzung von Chatbots beruht auf einer klaren Struktur:
- Rolle: Wer gibt die Antwort? Die KI erhält eine klare Rolle und weiß, aus welcher Perspektive die Anfrage zu beantworten ist.
- Kontext: In welchem Zusammenhang steht die Anfrage? Der Kontext hilft der KI, die Situation besser einzuordnen.
- Anweisung: Was soll konkret geschehen? Die Anweisung sollte präzise und eindeutig sein.
Ein Beispiel
„Du bist ein Experte für Musikpädagogik. Ich bin mäßig fortgeschritten im Klavierspiel. Wie soll ich vorgehen, damit ich klassische Musikstücke besser auswendig lerne?“
Mehr über das Prompt-Engineering im Folgeblog.
12. März 2025
Die KI kennt sich nicht aus.
(In realiter: Eine Gruppe nachts in Nordnorwegen am Feuer, die auf das Erscheinen von Polarlichtern wartet.)
Wie Hochschulen mit KI überfordert sind –
und warum ihre Regeln scheitern
„Schluss mit absurden KI-Regeln!“1 – dieses Statement von Doris Wessels, Professorin für Wirtschaftsinformatik, schlägt Wellen in netzbasierten Medien2. Wessels berichtet von einem AbsurdKIstan an Hochschulen. Seltsame Regeln für den Einsatz von Chatbots lassen vermuten, dass nicht wenige Hochschulen überfordert sind, selbst mehr als zwei Jahre nach ChatGPT-Einführung.
KI-Nutzung erschüttert das Bildungssystem. Massenhaft und unreflektiert werden Inhalte übernommen, hierzu wurde ein eigener Begriff erfunden: der AI-Giarismus, vermutlich entstanden als Ableitung und Pendant zum Plagiarismus. Betroffen sind beide involvierten Akteure: Studierende und Hochschulen.
Die Unehrlichkeit (Faulheit?) der Studenten trifft auf die mangelnde Bereitschaft der Hochschulen, fundiert und effektiv damit umzugehen. Kein Wunder, dass dies entsprechende Diskussionen in internationalen Konferenzen befeuert3. Wie einfach war der gute alte Plagiarismus.
Hilflosigkeit
Hochschulen schwanken zwischen KI-Verboten und veralteten Regeln, etwa dem Zitieren des Urhebers einer Aussage. Und deshalb sollen nun KI-Programmierer zitiert werden, so eine Hochschule laut Wessels.
Sind KI-Programmierer die Urheber? Soll der Programmierer als Quelle zitiert werden? Nein, sie schreiben die Texte ja nicht. Sie stoßen vielmehr die KI an, verbale Splitter aufgrund statistischer Beziehungen zwischen abstrakten Kategorien zu jonglieren.
Inadäquate Regeln zeugen von Hilflosigkeit. In der realen Welt stößen Zitierende sofort auf die Barriere, dass die Programmierer unbekannt sind. Ist dann ersatzweise Sam Altmann zu nennen, weil er der CEO von OpenAI ist? Unbrauchbare KI-Regeln zeigen, dass klassische Zitierregeln versagen. Gefragt ist eine intelligente Anpassung. Wäre dies nicht gerade von „Hoch“-Schulen und Universitäten zu erwarten? Wo, wenn nicht hier?
Angriff auf das Zitieren, ein Fundament der Wissenschaft
Seit mehreren Jahrhunderten verlangt die Wissenschaft exakte Quellenangaben. KI-Regeln, die auf diesen Vorgaben fußen, offenbaren ein zentrales Warum des Zitierens: Die Wurzel eines Gedankens oder Konzeptes soll lokalisiert werden.
Die kontextuell mitschwingende Gedanken- und Erfahrungswelt des Autors kann erkundet und nachverfolgt werden. Wir erkennen unzureichende Schlussfolgerungen oder implizit getroffene Annahmen. Aussagen können so von der wissenschaftlichen Community relativiert werden. Dadurch steigt der Wahrheitsgehalt eines Gedankens oder Konzepts.
Wir bauen durch Zitieren gesicherte Gedanken- und Ideennetze auf, ohne jedesmal neu bei Adam und Eva anzufangen. Genau das passiert, wenn man die KI unkontrolliert einsetzt. Ein Zurückfallen in eine Zeit, wo alles Geschriebene per se heilig war. Was damals wie heute Konsequenzen hat:
Gefangen im Nebel überzeugend klingender Sätze wissen wir nun nicht, was wahr ist oder nur gut erdichtet.
23. Februar 2025
Blockierendes Geröll in unübersichtlicher Lavahöhle auf Lanzarote
1 Wessels, D. (16.01.2025). Die Zeit. Die Position: Schluss mit absurden KI-Regeln! https://www.zeit.de/2025/03/kuenstliche-intelligenz-studium-hochschulen-regeln.
2 Europa One AI News (16.01.2025). Artificial Intelligence in Higher Education: Ending Absurd AI Rules in German Universities. Criticism of AI Policies in Higher Education. https://oneainews.com/kunstliche-intelligenz-im-studium-ending-absurd-ai-rules-in-german-universities/
3 Mironova, L./Riashchenko, V. et al. (2024). Ethical Concerns in Using of Generative Tools in Higher Education: Cross - Country Study. Environment. Technology. Resources. Rezekne, Latvia. Proceedings of the 15th International Scientific and Practical Conference. Volume II, 444-447, https://vb.kvk.lt/object/elaba:200959443/
Unis ertrinken im KI-Teich
Sie gehen still unter – die Ertrinkenden. Anfangs schlagen sie noch mit den Armen, doch von außen bemerkt es niemand. Wasser füllt die Lunge, sie versinken.
Weissensee in Kärnten
Genauso drohen Hochschulen im Strudel der KI unterzugehen. Sie ignorieren die Entwicklung oder erlassen absurde KI-Regeln1. Verantwortung wird auf Institute oder Dozierende abgeschoben, manche verzichten sogar auf Bachelorarbeiten. Alles unwürdig einer Hochschule.
Dabei erschüttert KI unser gesamtes Privat- und Berufsleben. Doch statt sich aktiv mit den Herausforderungen auseinanderzusetzen, stecken Universitäten den Kopf in den Sand oder treffen Fehlentscheidungen. Wie Verkehrspolizisten, die Autos in die falsche Richtung leiten2.
Sichtbar wurde dieses Dilemma in der Vorbereitung auf das eigentliche Uni-Studium: In Österreich wurde die Verpflichtung zur vorwissenschaftlichen Arbeit (VWA) als Maturabestandteil abgeschafft. Die VWA ist nun eine Option. Das Problem vor die Tür setzen – als wäre es damit gelöst: So einfach macht es sich die nationale Bildungspolitik.
Auch innerhalb der Hochschulen zeigt sich Unsicherheit. Viele setzen neben Plagiatssoftware zusätzlich KI-Erkennungsprogramme ein. Doch diese liefern keine sicheren Ergebnisse, sondern nur Wahrscheinlichkeiten – basierend auf veralteten Trainingsdaten und überholten Modellen. Solche Wahrscheinlichkeiten sind keine verlässliche Grundlage für Urteile. Das wusste man schon in der Antike.
Eine der oft negierten Wurzeln des Begriffes Wahrscheinlichkeit liegt in der Dichtkunst. Beispielhaft zu finden beim griechischen Komödiendichter und Satiriker Aristophanes. KI-Entdeckungssoftware malt – gleich einer Schmierenkomödie – jeden Absatz rot, wenn auch nur die geringste Wahrscheinlichkeit eines KI-Einsatzes auftaucht.
Ein konkretes Beispiel zeigt, wie problematisch diese Software ist: Ein Klient berichtete mir 2024, dass zwei, drei Absätze in seiner Masterarbeit wegen angeblicher KI-Nutzung rot markiert wurden. Dabei war er extrem gewissenhaft gewesen, hatte jede Quelle und jedes Zitat akribisch überprüft. Trotzdem erhielten alle (!) Kandidaten eine schriftliche Verwarnung – unabhängig davon, ob nur zwei Absätze oder viele Seiten durchgehend rot aufgeleuchtet hatten.
Unbelegte Behauptungen einer fehleranfälligen Software dürfen kein Urteil begründen! Hochschulen setzen damit ihren Ruf aufs Spiel. Sie zerstören das Vertrauen der Studierenden. Achtung vor der Institution Hochschule? Ertrunken in den Untiefen universitär-systemischer KI-Inkompetenz.
30. Jänner 2025
PS: Müssen wir uns bald an chinesischen Universitäten einschreiben, um den professionellen Umgang mit KI zu erlernen?
1 Darüber mehr in den Folgeblogs
2 Es gibt hell leuchtende Ausnahmen von KI-kompetenten Dozenten und lohnenden Veranstaltungen. Auch darüber später mehr.