top of page

Bots und Fake-Accounts bei Wahlen: Der Stand der Wissenschaft 2026

  • vor 3 Tagen
  • 6 Min. Lesezeit

Sollte man Bots in Diskussionen rund um Wahlen ernst nehmen? Kurz: Ja. Aber es war mal anders.


Primitive Twitter-Bots der Generation 2017 waren vor allem Lärm. Das hat sich massiv geändert. Die heutige Generation KI-gestützter Agenten funktioniert grundlegend anders. Sie führt personalisierte Einzelgespräche, die Wählerinnen und Wähler nicht als maschinell erkennbar sind, und selbst Fake-Accounts wirken zunehmend verstörend authentisch.


«Ein einziges kurzes Gespräch mit einem KI-Chatbot verschob die Wahlabsicht von Oppositionswählerinnen und -wählern in Kanada und Polen um rund 10 Prozentpunkte.» — Lin et al., Nature 648, 2025

Dieser Beitrag richtet sich an Kommunikationsverantwortliche, Behörden und politische Organisationen, die wissen wollen, was die aktuelle Forschung über den realen Einfluss von Bots und Fake-Accounts auf Wahlen und Abstimmungen aussagt – und was das für die direkte Demokratie in der Schweiz bedeutet.


Wahlen unter Druck: Wie Bots und Fake-Accounts demokratische Abstimmungen verzerren
Wahlen unter Druck: Wie Bots und Fake-Accounts demokratische Abstimmungen verzerren

Sind Bots und Fake-Accounts bei Wahlen wirklich wirksam?


TL;DR: Ja – und der Effekt von KI-gestützten Bots übertrifft die klassische Wahlwerbung um das Vierfache.


Evidenz:


  • Eine vorregistrierte Studie der Cornell University (Lin et al., Nature, Dez. 2025) liess über 2'300 US-Bürgerinnen und -Bürger zwei Monate vor der Präsidentschaftswahl 2024 kurze Gespräche mit einem politisch ausgerichteten KI-Chatbot führen. Ergebnis: Der Pro-Harris-Bot verschob potenzielle Trump-Wähler um 3,9 Punkte auf einer 100-Punkte-Skala. Das entspricht laut den Forschenden dem Vierfachen des Effekts klassischer Wahlwerbespots, gemessen an TV-Spots aus den Jahren 2016 und 2020.

  • Im selben Forschungsprojekt (Science, Rand et al., 2025) verschoben Chatbots die Wahlabsichten von Oppositionswählerinnen und -wählern in Kanada und Polen um rund 10 Prozentpunkte – in Experimenten mit insgesamt über 3'600 Teilnehmenden.

  • Die Wirkung entsteht nicht durch psychologische Manipulation, sondern durch die schiere Menge scheinbarer Fakten, die ein LLM in kurzer Zeit produziert. Werden dem Modell Fakten entzogen, bricht die Überzeugungswirkung dramatisch ein.

  • Eine Studie mit fast 77'000 Teilnehmenden aus Grossbritannien zu über 700 politischen Themen (Rand et al., Science, 2025) bestätigt die Skalierbarkeit dieser Effekte über Kulturräume hinweg.


Warum ist das Argument «zu viele Bots, niemand nimmt sie ernst» überholt?


TL;DR: Das Mengenargument galt für primitive Spam-Bots von 2017 – nicht für personalisierte LLM-Agenten von 2025.


Evidenz:

  • Keller & Klinger (2019, Political Communication, Universität Zürich) analysierten die Twitter-Follower aller sieben deutschen Bundestagsparteien vor und während der Bundestagswahl 2017: Bots machten 7,1 % (vor) bis 9,9 % (während) der Follower aus – aber die aktivsten Bots verbreiteten kaum deutschsprachige politische Hashtags. Direkter Agenda-Setting-Effekt: gering.

  • Dieser Befund beschreibt jedoch eine spezifische Bot-Klasse: Follower-Inflation und Hashtag-Amplifikation – sichtbar und erkennbar, für viele jedoch tatsächlich irrelevant. Heute muss man das allerdings differenzierter sehen, weil Fake-Following auch Accounts herunterstufen kann, was Teil eines Plans sein könnte (z.B. als Qualitäts-Signal auf Instagram).

  • Heutige LLM-basierte Agenten agieren anders: Sie führen kohärente, responsive Einzelgespräche, passen die Argumentation an den Gesprächspartner an und werden in Tests von Menschen überwiegend nicht als Bots identifiziert.

  • Der entscheidende Unterschied: Frühere Bots wirkten durch die Lautstärke (durch die Anzahl der Posts). Neue Agenten wirken durch Qualität (individuelle Überzeugung). Diese Verschiebung macht das Mengenargument strukturell ungültig.



Wer ist besonders anfällig für Desinformation durch Fake-Accounts?


TL;DR: Ausgerechnet politisch engagierte, informierte Bürgerinnen und Bürger sind durch Überzeugungseffekte besonders gefährdet.

Evidenz:

  • Kartal & Tyran (2022, American Economic Review) zeigen in Laborexperimenten, dass Overconfidence – also übertriebenes Vertrauen in die eigene Informiertheit – die Wirkung von Fehlinformationen auf die kollektive Entscheidungsqualität erheblich verstärkt.

  • Der Effekt auf Gruppenebene (Wahlresultat) ist laut Kartal & Tyran deutlich stärker als auf individueller Ebene: Selbst eine moderate Verbreitung von Fake News kann das kollektive Ergebnis merklich verzerren.

  • Wählerinnen und Wähler, die sich als gut informiert betrachten, neigen weniger zur Nachprüfung von Quellen – und sind daher stärker durch scheinbar faktenbasierte Chatbot-Argumente erreichbar.

  • Personen, die Twitter (heute X) häufig für politische Informationen nutzen, engagieren sich nachweislich stärker mit parteiischen Bot-Inhalten (Keller & Klinger 2019).



Wie relevant sind Bots insbesondere für Schweizer Abstimmungen?


TL;DR: Direkte Demokratie und knappe Ergebnisse machen die Schweiz besonders verwundbar – und soziale Medien gewinnen unter jungen Stimmenden rasant an Gewicht.


«Der Effekt politischer KI-Chatbots auf Wahlabsichten ist viermal grösser als der Effekt klassischer TV-Wahlwerbung.» — Cornell University, 2025

Evidenz:

  • Eine Studie der Universität Zürich im Rahmen des DDS-21-Projekts (Fischer et al., 2025) analysierte die Abstimmung über die Umweltverantwortungsinitiative vom 9. Februar 2025: Zwar nutzte insgesamt nur eine Minderheit soziale Medien zur Meinungsbildung – aber rund ein Drittel der jüngsten Altersgruppe informierte sich gezielt über soziale Plattformen. Nur etwa 10 % der Stimmenden nutzten soziale Medien überhaupt nicht.

  • Die UZH-Forschenden warnen ausdrücklich: «Der vermeintlich geringe Einfluss der sozialen Medien darf nicht unterschätzt werden» – da sich Mediengewohnheiten über Generationen hinweg verschieben und die heutige junge Kohorte zukünftig den Kern der Abstimmenden stellt.

  • Schweizer Volksabstimmungen werden regelmässig mit weniger als 5 Prozentpunkten Abstand entschieden (Beispiele: RASA 2016 mit 41,1 % Ja, Transparenz-Initiative 2021 mit 56,4 % Ja, AHV 21 2022 mit 50,5 % Ja). Ein nachgewiesener Chatbot-Effekt von 3,9 bis 10 Prozentpunkten läge in exakt dieser Bandbreite.

  • Wahlkampagnen in der Schweiz sind zudem budgetär eingeschränkt – regulierte und niedrigschwellig einsetzbare Bot-Infrastrukturen können kostengünstigere Kampagnenkanäle darstellen als traditionelle Werbung.



Welche fünf Indikatoren zeigen, ob eine Abstimmung besonders bot-gefährdet ist?


TL;DR: Fünf Faktoren erhöhen das Risiko koordinierter Bot-Kampagnen bei Abstimmungen messbar.


Evidenz:

Rang

Indikator

Warum relevant

1

Hohes gesellschaftliches Polarisierungspotenzial

Emotionale Themen erzeugen mehr organisches Amplifikationsverhalten für Bot-Inhalte

2

Knappes Ergebnis erwartet

Je geringer die Marge, desto stärker der potenzielle Hebeleffekt kleiner Einstellungsverschiebungen

3

Junge Zielgruppe stark vertreten

Höhere Social-Media-Nutzung erhöht die Exposition gegenüber Bot-Inhalten

4

Internationale Interessenlage

Ausländische staatliche oder wirtschaftliche Akteure mit Motiv, das Ergebnis zu beeinflussen

5

Geringe öffentliche Medienkompetenz zum Thema

Tiefes Bewusstsein für KI-generierte Inhalte erhöht Anfälligkeit



Wie unterscheiden sich primitive Bots und KI-Agenten bei Wahlen — und was folgt daraus?


TL;DR: Primitive Bots sind ein Lärmproblem; KI-Agenten sind ein Überzeugungsproblem. Das erfordert grundlegend andere Gegenstrategien.


Evidenz:

Dimension

Primitive Bots (2015–2021)

KI-Agenten (2023–heute)

Wirkungsweise

Follower-Inflation, Hashtag-Amplifikation

Personalisierte Einzelkommunikation

Erkennbarkeit

Oft identifizierbar (Sprache, Posting-Frequenz)

Mehrheitlich nicht als Bot erkennbar

Effektgrösse auf Wahlabsicht

Gering bis moderat

3,9 bis 10 Prozentpunkte (gemessen)

Benötigte Ressourcen

Niedrig (Skripte, API)

Moderat (API-Kosten fallen massiv, skalierbar)

Gegenstrategien

Bot-Detection, Sperren

Medienkompetenz, Verifikationspflicht, Transparenz, Solider Trustaufbau


  • Mont'Alverne et al. (Public Opinion Quarterly, 2024) zeigen anhand von 42 Millionen Klicks während der brasilianischen Präsidentschaftswahl 2022: Die Nutzung von Legacy-Medien schützt vor dem Glauben an Wahldesinformationen, digitale Plattformen allein nicht.

  • Das bedeutet: Glaubwürdige, vertrauensbasierte Informationsquellen sind der stärkste strukturelle Gegenpol zu Bot-Kampagnen – nicht allein technische Sperrmassnahmen.



FAQ


Können Bots eine Schweizer Volksabstimmung allein entscheiden? Nein – aber sie können Ergebnisse um mehrere Prozentpunkte verschieben, was bei knappen Abstimmungen entscheidend ist. Direkte Kausalität für konkrete Abstimmungsergebnisse ist methodisch schwer nachzuweisen.


Ist das Problem auf Social Media beschränkt? Zunehmend nicht. Messenger-Dienste wie WhatsApp, direkte Werbeformate und bald auch Sprachinteraktionen sind neue Kanäle; Forscher beobachten eine plattformübergreifende Koordination.


Was unterscheidet politische Werbung von Bot-Kampagnen rechtlich? In der Schweiz fehlt bislang eine explizite gesetzliche Regulierung für KI-generierte politische Inhalte und Fake-Accounts. Transparenzpflichten für politische Werbung sind im Aufbau.


Sind auch kleine Parteien oder NGOs gefährdet – oder nur grosse Parteien? Gerade kleine Akteure mit polarisierendem Thema sind besonders anfällig, da Gegenkampagnen teurer sind und die Medienkompetenz im Umfeld oft geringer ist.


Helfen Bot-Detection-Tools? Sie verbessern die Lage, sind jedoch kein vollständiger Schutz: Aktuelle LLMs imitieren menschliches Schreibverhalten überzeugend. Die Kombination aus technischer Detektion und Massnahmen zur Medienkompetenz ist die belastbarere Strategie.


Lässt sich der Effekt von Bots empirisch messen? Ja, mit vorregistrierten Experimenten – wie Lin et al. und Rand et al. (2025) gezeigt haben. Die Herausforderung besteht in der externen Validität: Laborbedingungen entsprechen nicht vollständig den realen Abstimmungssituationen.


Was kann meine Organisation konkret tun? Drei Prioritäten: (1) Zielgruppenexposition auf sozialen Plattformen einschätzen, (2) Medienkompetenz-Massnahmen in die Kommunikationsstrategie integrieren, (3) eigene Inhalte mit nachvollziehbarer Quellenangabe versehen.



Methoden & Daten-Anhang

Studie

Methode

N

Land

Veröffentlicht

Lin et al. (2025)

Vorregistriertes RCT, Chatbot-Experiment

2'300 (US), 1'530 (CA), 2'118 (PL)

USA, Kanada, Polen

Nature 648, Dez. 2025

Rand et al. (2025)

Crossover-Experiment, 700+ politische Themen

~77'000

UK

Science, Dez. 2025

Keller & Klinger (2019)

Bot-Detection (Botometer), Twitter-Follower-Analyse

638'674 / 838'026 Accounts

Deutschland

Political Communication 36

Kartal & Tyran (2022)

Laborexperiment + Theoriemodell

n.a. (Laborstichprobe)

Österreich

American Economic Review 112(10)

Mont'Alverne et al. (2024)

42 Mio. Klicks + 4-Wellen-Panelbefragung

2'200 Internetnutzer

Brasilien

Public Opinion Quarterly 88

Fischer et al./DDS-21 (2025)

Nachabstimmungsbefragung UVI

Schweizer Stimmende

Schweiz

UZH, Jun. 2025




Ist Ihre Organisation auf Bot-Kampagnen für die nächste Abstimmung vorbereitet?




bottom of page