NRW-Wahl 2025: Ein Fake-Account mit Michelle-Nolden-Fotos als Lehrstück moderner Desinformation
- Steffen Konrath

- vor 5 Tagen
- 4 Min. Lesezeit
Dieser Beitrag richtet sich an alle, die verstehen müssen, wie moderne Desinformation in Echtzeit funktioniert. Der Fall eines Fake-Accounts im NRW-Wahlkampf 2025 zeigt exemplarisch, wie Identitätsmissbrauch, manipulative Narrative und zeitliche Präzision eingesetzt werden, um Debatten zu verzerren.
Warum dieser Fall wichtig ist: Er verbindet individuelle Täuschung (gestohlene Fotos der Schauspielerin Michelle Nolden) mit systematischen Mustern der Desinformationsanalyse, wie sie auch in der evAI-NRW-Wahlstudie dokumentiert sind.

Ein Fake-Account auf X.com nutzte Fotos der kanadischen Schauspielerin Michelle Nolden und verbreitete polarisierende Narrative im NRW-Wahlkampf
Wie operierte der Fake-Account @GerlachKar90893 im NRW-Wahlkampf?
TL;DR: Der Account postete innerhalb von 48 Stunden 14 extrem polarisierende Tweets und nutzte gestohlene Bilder von Michelle Nolden, um Glaubwürdigkeit zu simulieren.
Belege:
Gestohlene Identität: Das Avatar nutzte Fotos der kanadischen Schauspielerin Michelle Nolden — ein typisches Muster für glaubwürdig wirkende Fake-Profile.
Zeitliche Präzision: Alle 14 Tweets wurden am 03. bzw. 04. Am 04. September veröffentlicht, und damit 11 Tage vor der Wahl, einem bekannten „Peak Window“ für Desinformation.
Aktivitätsprofil: Nur 8 „Following“, 1 "Follower" — ein klassisches Low-Trust-Profil, wie wir bereits in der NRW-Kommunalwahl-Studie als Fake-Signal beschrieben haben.
Hohe Postingfrequenz: 14 Posts in 48 Stunden decken sich mit dem im PDF beschriebenen Muster „Masse + Wiederholung + psychologische Trigger“ .
Narrativ-Alignment: Die Inhalte entsprechen exakt den Clustern aus der NRW-Analyse (Krise, Anti-Establishment, geopolitische Raserei).
„Fake Accounts sind längst kein Randphänomen mehr — sie prägen Wahlkämpfe messbar.“
Sockpuppet-Account, der Desinformation im NRW-Wahlkampf verbreitete

Mit der Similar-Behavior-Clustering-Funktion analysierte Cyabra die Verhaltensmuster in den Online-Diskussionen rund um die NRW-Wahlen. Die Plattform gruppierte Profile automatisch anhand von Posting-Verhalten, Interaktionsgeschwindigkeit, geteilten Narrativen und wiederkehrenden Engagement-Mustern.
Innerhalb dieser Cluster identifizierte Cyabra eine konzentrierte Ansammlung inauthentischer Accounts (in der Analyse rot markiert). Obwohl diese Profile auf den ersten Blick nicht miteinander verbunden schienen, deutete ihr synchronisiertes Verhalten klar auf koordinierte Aktivitäten hin.
Einer der Accounts, der in diesem Cluster sichtbar wurde, war „Karo Gerlach“ – ein Profil, das sich als konservative deutsche Bürgerin präsentierte und politische Kommentare veröffentlichte.
Welche Narrative verbreitete der Account – und warum passen sie in die NRW-Cluster?
TL;DR: Ein Großteil der Tweets verstärkte das Anti-Establishment-Frame, ein zentrales Muster der NRW-Analyse.
Belege:
NRW-Analyse: Vier dominante Cluster (Krise, AfD-Aufstieg, Todesfälle, Anti-Establishment) .
Tweet-Analyse: 9 der 14 Tweets gehören zum Cluster Anti-Establishment/Anti-Regierung (Deutschland) (Details weiter unten).
Zusätzlich: Geopolitische Wutframes (Israel, USA, Palästina), typisch für Accounts, die emotionale Trigger auslösen sollen.
Narrativ-Maschine: Genau diese Mischung beschreibt das PDF als „künstliche Mehrheitserzählung durch Fake Accounts“ (S.2).
Zielmechanismus: Polarisierung statt Information; vollständig konsistent mit der Analyse in der evAI-Studie.
Warum ist der Missbrauch der Identität von Michelle Nolden durch einen Fake-Account ein kritischer Eskalationsfaktor?
TL;DR: Gestohlene Fotos realer Personen, wie die der kanadischen Schauspielerin Michelle Nolden erhöhen die Glaubwürdigkeit und verschleiern die Fake-Natur des Accounts.

Belege:
Menschen reagieren stärker auf echte als auf KI-generierte Bilder: Identitätsmissbrauch erhöht das Vertrauen.
Realweltliche Personen können unfreiwillig in politische Konflikte hineingezogen werden, ohne dass sie davon Kenntnis haben.
Gefahr für Medien & Politik: Fake bleibt länger unentdeckt, weil das Profil „echt“ aussieht.
Im PDF benannte Fake-Signale (S.2): Auffällige Identitätsmerkmale, ungewöhnlich niedrige Netzwerke — alles im Fall erfüllt.
Plattform-Risiko: Solche Fälle beschädigen das Plattformvertrauen und öffentliche Debatten.
Wie verstärken solche Fake-Accounts das zentrale NRW-Narrativ „Wir gegen die da oben“?
TL;DR: Pro- und Anti-AfD-Fake-Accounts bedienen ein identisches Polarisierungsmuster, das ihre Wirkung gegenseitig verstärkt.
Evidence:
Die NRW-Analyse beschreibt: „Pro- wie Contra-AfD-Narrative bedienen das gleiche Polarisierungsmuster des Ausgegrenztseins.“
Jede Attacke dient zur Bestätigung der Opferrolle.
Die Debatte driftet von Inhalten zu Identität („Wir vs. die da oben“).
Tweets des Accounts: extreme, apokalyptische Beschreibungen („Links Grüne Diktatur“, „alles im Arsch“) — klassische Trigger.
Resultat: ein geschlossener Erregungskreislauf, wie im PDF beschrieben.
Welche Relevanz hat der Fall für Kommunikationsleiter:innen, Medien & Politik?
TL;DR: Der Fall Michelle Nolden zeigt, wie niedrigschwellig Fake-Accounts heute operieren — und warum Monitoring zum Pflichtwerkzeug wird.
Belege:
20 % Fake-Anteil in der NRW-Wahlanalyse — über dem Normalwert von 7–9 % (PDF S.3) .
Fake-Profile simulieren Trends, die für Journalisten, Stakeholder oder politische Gegner real wirken können.
Identitätsdiebstahl betrifft zunehmend Unternehmen und CEOs, nicht nur Politiker.
evAI + Cyabra Rapid Response: ermöglicht die Echtzeit-Erkennung solcher Accounts.
Risiko: Unentdeckte Fakes beeinflussen Aktienkurse, Vertrauen und Debatten — bevor Kommunikationsteams reagieren.
FAQ
Sind Fake Accounts nur pro-AfD? Nein. Laut unserer Analyse bedienen Pro- und Contra-Personen oder -gruppierungen die gleichen Polarisierungsmechanismen.
Warum so viel Geopolitik in den Tweets? Emotionale Trigger wirken stärker, eine klassische Desinformationstaktik.
Warum echte Gesichter statt KI-Bilder? Menschen vertrauen echten Fotos mehr; Missbrauch erhöht die Glaubwürdigkeit.
Sind solche Accounts koordinierte Kampagnen? Nicht zwingend — aber sie reihen sich in bekannte Muster ein.
Wie erkennt man solche Accounts? Plötzliche Aktivitätspeaks, extreme Sprache, dünne Netzwerke, unpassende Geografie.
Methods & Data
Desinformations-Detection-Plattform Cyabra
Semantische (Narrativ-)Analyse evAI -> Tweets: 14 Einträge aus GerlachKar90893.csv
Quellen: evAI-Cyabra NRW-Wahlanalyse
Kein Fabrication: Alle Kategorien basieren auf semantischen Clustern aus dem vorliegenden Textmaterial.
Erleben Sie in einer Live-Demo, wie Desinformation in Echtzeit erkannt und neutralisiert werden kann.


