Quelle: Unsplash emiliano-vittoriosi
„Die KI redet mir doch nur nach dem Mund!“
Dieser Gedanke ist vermutlich jedem schon einmal gekommen, der öfter mit einem KI-Sprachmodell, wie beispielsweise ChatGPT, Gemini oder Claude, gearbeitet hat. Besonders dann, wenn man nachhakt, eine Formulierung infrage stellt oder den generierten Text inhaltlich kritisiert. In solchen Momenten reagiert die KI dann häufig zustimmend und korrigiert oder relativiert ihre vorherige Antwort.
Und Tada: Am Ende gibt sie einem recht.
Zumindest meistens.
Besteht man beispielsweise darauf, dass der Eiffelturm in Berlin steht, wird es schwierig. Davon lässt sich die KI nicht so leicht überzeugen. Zu diesem Thema existieren schlicht zu viele eindeutige Informationen im Internet, mit denen das KI-Modell trainiert wurde.
Anders sieht es aus, wenn Informationen fehlen oder widersprüchlich sind. Dann kann die KI keine fundierte Antwort geben. Stattdessen schätzt sie anhand der Fragestellung ab, welche Variante Nutzer:innen vermutlich am meisten überzeugt.
Eine Studie des Massachusetts Institute of Technology in Cambridge zeigt, dass KI in solchen Situationen falsche Inhalte erzeugen kann. Sie erfindet eine vermeintlich passende Antwort. In der Forschung spricht man dann von sogenannten Halluzinationen. Und genau das kann problematisch werden.
Gerade bei ChatGPT fällt dieses “Ja-Sager-Verhalten” besonders auf. Der Grund dafür ist, dass das System so konzipiert ist, dass es in nahezu allen Interaktionen hilfsbereit, höflich und ermutigend auftritt. Dieser positive Ton ist das Ergebnis sogenannter Alignment-Techniken (insbesondere Reinforcement Learning from Human Feedback), mit denen das Modell darauf trainiert wird, Nutzerzufriedenheit zu priorisieren. Das Resultat ist ein KI-Assistent, der kaum widerspricht und dabei auch faktisch falsche Inhalte genieren kann.
So bekommt man für die absurdeste Geschäftsidee, wie beispielsweise labbrigen Toast zu verkaufen, die Antwort:
”Die Idee ist so absurd, dass sie schon wieder gut ist.”
Really?
Man fühlt sich gesehen und bestärkt und genau darin liegt die Falle: Dann fehlt die Korrektur, das konstruktive Störfeuer, das einen wirklich weiterbringt. Als Denkpartner kann KI enorm nützlich sein. Aber wenn sie nur zustimmend zurückspiegelt, wird Selbstkritik zur Komfortzone – und das Hinterfragen der eigenen Position rostet ein.
“Ich will von der KI nicht, dass sie mir recht gibt. Ich will, dass sie ein guter Sparringspartner in meiner Arbeit als PR-Beraterin ist.“
Laura-Marie Buchholz, Junior-Beraterin bei Mashup Communications
Warum wir trotzdem so bereitwillig hineintappen, ist kein Zufall, sondern Psychologie. Der Confirmation Bias zieht uns dorthin, wo es angenehm ist. Wir suchen nach Informationen, die unsere eigene Meinung stützen, und sortieren Widerspruch leichter aus, als wir zugeben würden.
Und ausgerechnet KI kann diesen Effekt zusätzlich verstärken, und das gleich auf mehreren Ebenen:
Genau deshalb warnen Fachleute davor, dass eine allzu zustimmende KI zur digitalen Echokammer der eigenen Ideen werden kann. In einer Dauerschleife der Bestätigung werden Annahmen und Überzeugungen immer wieder zurückgespiegelt.
Das kann nicht nur Kreativität ausbremsen, sondern birgt auch größere Risiken. Wenn ständiger Zuspruch zur Gewohnheit wird, fehlt das Korrektiv: Ungeprüfte Annahmen bleiben stehen und Falschinformationen werden nicht korrigiert. Gleichzeitig verengt sich der Blick. Wenn die KI vor allem das ausformuliert, was in die eigene Deutung passt, geraten andere Erklärungen und Gegenargumente aus dem Bild. So kann aus einer einzigen Perspektive schleichend ein geschlossenes Weltbild werden, weil Alternativen kaum noch vorkommen.
Die entscheidende Frage ist wie wir KI so nutzen, dass sie uns nicht einlullt. Was hilft, ist ein anderer Umgang und ein Aktives mitdenken.
Konkrete Tipps gegen „Ja-Sager“ Mentalität der KI:
💡 Tipp: Stelle keine Suggestivfragen. Lass Raum für Mehrdeutigkeit.
💡Tipp: Reflektiere, ob dein Prompt auf Bestätigung statt auf Erkenntnis zielt.
💡 Tipp: Lass Interpretationsspielräume zu und fordere Alternativen aktiv ein.
💡 Tipp: Formuliere so, dass die KI beschreibt und einordnet.
Option A: Benutzerdefinierte Anweisungen
„Konzentriere dich auf Substanz statt auf Lob. Lass unnötige Komplimente oder oberflächliches Lob weg. Setze dich kritisch mit meinen Ideen auseinander, hinterfrage Annahmen, benenne mögliche Verzerrungen und bringe relevante Gegenargumente ein. Scheue dich nicht vor Widerspruch, wenn er angebracht ist, und sorge dafür, dass jede Zustimmung auf nachvollziehbaren Gründen und Belegen beruht.“
Prompt gegen Komplimente und Lob der KI
Option B: Der “drei Experten” Prompt situativ im Chat
“Kannst du als drei unterschiedliche Expert:innen auftreten, die über folgendes Thema diskutieren: [dein Thema]? Jede Person soll einen anderen Hintergrund in [relevanten Fachgebieten] haben. Lass sie die Vor- und Nachteile von [konkrete Frage oder Problem] diskutieren, verschiedene Ansätze vergleichen und praktische Folgen berücksichtigen. Achte darauf, dass sie aufeinander eingehen und gemeinsam zu einer praktikablen Schlussfolgerung kommen.”
"Drei Experten" Prompt
💡 Tipp: Option A eignet sich als Dauer-Einstellung. Option B ist ideal, wenn du bei einer Entscheidung oder Analyse bewusst mehr Perspektiven willst.
Wer KI im Alltag und in der Arbeit nutzt, muss sich das kritische Denken bewusst erhalten. Gemeint ist vor allem eines: ständig zu klären, was man da gerade liest. Handelt es sich um Informationen, die sich belegen lassen? Oder um eine logische Zusammenfassung ohne direkte Quelle? Ist es eine spekulative Ableitung? Oder schlicht eine Wiederaufnahme von Begriffen und Ideen, die man selbst zuvor eingebracht hat?
Wenn diese Ebenen klar getrennt sind, bleibt Raum für echte Erkenntnis: Unsicherheit wird sichtbar, Alternativen werden wahrscheinlicher und Annahmen lassen sich gezielt prüfen.
Das ist kein Appell gegen KI, sondern für eine Haltung im Umgang mit ihr. Wer Zustimmung nicht mit Qualität verwechselt, Widerspruch aktiv einfordert und die eigene Perspektive nicht automatisch zum Maßstab macht, nutzt KI nicht als Echokammer, sondern als Werkzeug. Und genau dann wird sie wirklich ein guter Sparringspartner.
Dank PR mit Daten hat das Software-Unternehmen ein journalistisch anschlussfähiges Leuchtturmformat etabliert. Eine Fallstudie für…
10 der relevantesten Fachmedien für Bau, Immobilien & Co, sorgfältig ausgewählt für Entscheider:innen in Planung,…
Am 8. Februar ist es wieder so weit: Der Super Bowl LX übernimmt die Bildschirme.…
LinkedIn ist voll von klugen Menschen mit wichtigen Themen. Und trotzdem bleibt erstaunlich viel davon…
Januar ist selten der Monat für große Gesten. Eher für die kleinen Dinge, die hängen…
Wie funktioniert Employer Branding bei TikTok? Aktuelle Beispiele und Tipps, wie ein erfolgreicher Auftritt als…