Stellt euch vor, ihr investiert jahrelang in eine Unternehmenskultur, die sich radikal vom Branchenstandard abhebt. Ihr führt Vertrauensurlaub ein, begrenzt die Projektauslastung auf ein Minimum und sprecht in Podcasts offen darüber, wie man toxische Arbeitsbedingungen überwindet. Auf kununu werdet ihr als Arbeitgeber zu 100 % weiterempfohlen. Und dann das: Eine potenzielle Bewerberin oder ein neuer Kunde fragt eine KI nach euren “Schattenseiten” und bekommt eine Liste eurer eigenen Werte serviert, nur leider ins Gegenteil verkehrt.
Als ich neulich für unser Prompt-Monitoring ChatGPT und Google nach “schlechten Erfahrungen mit Mashup Communications” gefragt habe, gab es eine wilde Überraschung. Während einige Modelle differenziert auf neutrale Quellen und Bewertungsportale verweisen, scheren andere uns ungefiltert über den Agenturkamm.
Noch ironischer: Die Google AI Overviews nutzen ausgerechnet unsere Initiative „Fairgency“ oder unsere “Agency Stories“ – Formate, in denen wir uns aktiv für eine bessere Arbeitswelt einsetzen – als Beleg für angeblich schlechte Bedingungen bei uns. Die KI liest unsere Kritik an der Branche und münzt sie auf uns um.
Was wir bei Mashup Communications gerade erleben ist ein Vorbote für das, was wir synthetische Krisenkommunikation nennen. Es trifft B2B-Hidden-Champions genauso wie B2C-Lovebrands.
Die bittere Ironie? Je mehr man sich mit Content für das Gute einsetzt und Missstände benennt, desto gefährlicher wird es für die digitale Weste.
KIs arbeiten mit Vektoren und semantischer Nähe. Wer auf seine Website schreibt: “Wir kämpfen gegen Lohndumping und Burnout in der Industrie“, dem kann es passieren, dass die KI die Marke mathematisch mit den Begriffen “Lohndumping“ und “Burnout“ verknüpft. Für die statistische Logik der Maschine rücken diese Begriffe eng zusammen.
Die Folge: In der Zusammenfassung einer Google AI Overview oder eines Chatbots wird aus einem leidenschaftlichen Plädoyer gegen schlechte Arbeit plötzlich ein Verurteilter “by proxy”. Die KI erkennt die Nuance der Ablehnung nicht, sie sieht nur die Häufung der Begriffe.
Technisch gesehen gibt es Strategien, um dem entgegenzuwirken. Man könnte versuchen, Markennamen nur noch in positiven Kontexten zu nennen oder Kritik so abstrakt zu formulieren, dass die Maschine sie nicht zuordnen kann.
Aber ganz ehrlich? Das wäre fatal. Dann dürften wir auch nicht diesen Artikel hier verfassen.
Wenn wir anfangen, nur noch für die Maschine zu schreiben, verlieren wir das, was uns ausmacht: unsere Haltung, unser Storytelling und die Fähigkeit, Probleme offen beim Namen zu nennen. Wir können unsere Sprache nicht sterilisieren, nur damit ein Algorithmus uns nicht missversteht.
„Im Zeitalter von Generative AI und GEO wird digitale Reputation zur Frage der Datenbasis: Wenn KI-Modelle Kontext falsch interpretieren, entstehen synthetische Krisen. Deshalb müssen Unternehmen ihre Markenkommunikation so gestalten, dass positive Inhalte, klare Absenderlogik und konsistente Botschaften die KI-gestützte Wahrnehmung aktiv prägen.“
Miriam Schwellnus, Expertin für KI-relevante Kommunikation, Public Relations und Brand Storytelling
In einer Welt, in der die KI synthetische Krisen herbeischwatzen kann, gilt das alte Motto mehr denn je: “Tue Gutes und rede darüber.“ Wir müssen den digitalen Raum so stark mit Love-Content besetzen, dass die statistische Wahrscheinlichkeit für positive Verknüpfungen wieder steigt. Aber wie gelingt dieser Spagat, ohne das Publikum durch Selbstdarstellung abzuschrecken?
Wir treten in eine Ära ein, in der Krisenkommunikation nicht mehr nur auf echte Skandale reagieren muss, sondern auf die Unfähigkeit der KI, Kontext zu verstehen. Wer heute schweigt oder nur defensiv kommuniziert, überlässt die Definition seiner Marke einem halluzinierenden Algorithmus.
Synthetische Krisen entstehen, wenn KI-Systeme falsche oder verzerrte Narrative über ein Unternehmen generieren – ohne reale Grundlage. Sie sind das Ergebnis von Fehlinterpretationen, nicht von tatsächlichen Skandalen.
Talente nutzen KI, um sich über Arbeitgeber zu informieren. Wenn KI falsche negative Aussagen generiert, kann das die Wahrnehmung verzerren und Bewerbungen verhindern – trotz guter realer Bewertungen.
Kunden recherchieren zunehmend über KI. Negative oder verzerrte KI-Antworten zu Produkten oder Unternehmen können Kaufentscheidungen direkt beeinflussen und Vertrauen untergraben.
Unternehmen sollten:
Nein. Reine Optimierung für KI (z. B. Vermeidung kritischer Begriffe) kann Authentizität und Glaubwürdigkeit schädigen. Erfolgreiche Strategien verbinden klare Haltung mit strukturierter, KI-lesbarer Kommunikation.
Wir stellen euch fünf Medien vor, die im Digital B2B Kosmos nicht fehlen dürfen. Ob…
Die besten Storytelling-Kampagnen im April verbindet weniger ihr Thema als ihr klarer Perspektivwechsel: Missing People,…
In ihrer Mashie-Story gibt Laurence persönliche Einblicke über ihren Job bei Mashup und ihr Engagement…
Die 105-jährige Unternehmensgeschichte von Karls ist eine echte Familiensaga, mit zahlreichen Kapiteln voller Krisen, Neuanfängen…
Set-Jetting beschreibt den Trend, zu Drehorten aus Serien und Filmen zu reisen. Am Beispiel von…
KI vs. menschliches Gehirn: KI beschleunigt Recherche, Struktur und Korrektur, ersetzt aber nicht Ideen, Meinung…