top of page

Bilaterale III unter Beschuss: Wie 20 % Fake-Profile den Schweizer Diskurs auf X verzerren

  • vor 5 Tagen
  • 5 Min. Lesezeit

Wer die politische Debatte rund um die Bilateralen III auf X verfolgt hat, konnte den Eindruck gewinnen, die Mehrheit der Schweizerinnen und Schweizer lehne das Abkommen kategorisch ab.


Unsere dreimonatige Analyse auf Basis der Social-Threat-Intelligence-Plattform Cyabra zeigt: Dieser Eindruck ist zumindest teilweise das Ergebnis einer koordinierten Desinformationskampagne.


190 Fake-Profile, rund 20 % aller aktiven Accounts im Diskurs, haben zwischen Juni und August 2025 gezielt negative Narrative verstärkt. Dieser Beitrag fasst die zentralen Ergebnisse zusammen, ordnet sie ein und zeigt, worauf Kommunikationsverantwortliche, Medienschaffende und politische Entscheidungsträger jetzt achten sollten.


 Die Visualisierung aus dem Cyabra-System hebt den wichtigsten Hashtag der Diskussion rund um Bilaterale III hervor. Die beigefügten Beispiele aus X zeigen Fake-Accounts, die die Erzählung mithilfe dieses Hashtags verstärken.
Die Visualisierung aus dem Cyabra-System hebt den wichtigsten Hashtag der Diskussion rund um Bilaterale III hervor. Die beigefügten Beispiele aus X zeigen Fake-Accounts, die die Erzählung mithilfe dieses Hashtags verstärken.

Wie gross ist das Fake-Profil-Problem in der Bilaterale-III-Debatte wirklich?

TL;DR: Jedes fünfte Profil im Bilaterale-III-Diskurs auf X war ein Fake – fast doppelt so viel wie der Normalwert.


Evidenz:


  • Von 936 analysierten Profilen identifizierten wir mit Hilfe der Cyabra-Plattform 190 als gefälscht oder inauthentisch (20 %). Der branchenübliche Basiswert liegt bei 7–10 %.

  • Diese 190 Profile veröffentlichten insgesamt 355 Inhalte (Posts und Kommentare), die über 1.100 Interaktionen (Likes, Kommentare, Shares) von echten Nutzern auslösten.

  • Die potenzielle Reichweite lag bei rund 838.000 Impressionen – das entspricht 35,6 % der geschätzten 2,35 Millionen monatlichen Schweizer X-Nutzer.

  • Impact Ratio: Jedes Fake-Profil erreichte im Durchschnitt mehr als 4.400 echte Nutzer. Das bedeutet: Mit vergleichsweise geringem Aufwand wurde eine massive Verstärkung erzielt.

  • 56 der identifizierten Fake-Accounts wurden inzwischen gelöscht – ein weiteres Indiz für ihre Inauthentizität.


Welche Narrative haben die Fake-Profile verbreitet?

TL;DR: Zwei dominante Erzählungen – institutionelles Misstrauen und Souveränitätsverlust – wurden systematisch in den Diskurs eingespeist.


Evidenz:


  • Narrativ 1 – Misstrauen in Institutionen: Die EU wurde als antidemokratische, neofeudale Macht dargestellt. Wirtschaftsverbände wie Economiesuisse wurden als „Kollaborateure" geframet. Politiker und Befürworter der Bilateralen III wurden als „Landesverräter" bezeichnet.

  • Narrativ 2 – Nationale Identität und Souveränität: Das Abkommen wurde als „Versklavung" der Schweiz dargestellt. Der Begriff „Grundsatzlüge" bezüglich der 15%-Zölle wurde wiederholt verwendet. Formulierungen wie „gefesselt und geknebelt" erzeugten ein Bild existenzieller Bedrohung.

  • Der Hashtag #Unterwerfungsvertrag fungierte als zentraler symbolischer Anker. Er reduzierte eine komplexe Vertragsverhandlung auf eine emotionale Kampfformel: Freiheit versus Unterwerfung.

  • Die hohe Wiederholungsrate nahezu identischer Formulierungen deutet auf ein koordiniertes, skriptbasiertes Vorgehen hin.


Wie sind die Fake-Profile in echte Diskussionen eingedrungen?

TL;DR: Die Fake-Profile waren keine plumpen Bots, sondern mimikryartige Accounts, die sich in authentische Diskussionscluster einbetteten.


Evidenz:

  • Die Profile vermieden typische Bot-Muster (keine automatisierten Massenpostings). Stattdessen verwendeten sie ein „niedriges sprachliches Register" mit ideologischer Konsistenz, aber mit wenig persönlichem Kontext.

  • Sie blieben bewusst im Graubereich: weder eindeutig automatisiert noch eindeutig authentisch. Das machte ihre Erkennung für Durchschnittsnutzer erheblich schwerer.

  • In der Netzwerkvisualisierung der Cyabra-Plattform ist sichtbar, wie rote Knoten (Fake-Profile) sich gezielt in grüne Cluster (authentische Nutzer) eingliederten.

  • Die Strategie: Erst in authentischen Konversationen Glaubwürdigkeit aufbauen, dann schrittweise spaltende Inhalte verstärken. So wurde die Grenze zwischen echter Meinung und koordinierter Manipulation verwischt.


Was unterscheidet diese Kampagne vom „normalen“ Online-Rauschen?

TL;DR: Drei Indikatoren trennen koordinierte Desinformation von organischer Negativität: die Fake-Quote, die Wiederholungsmuster und die gezielte Cluster-Infiltration.


Evidenz:

  • Indikator 1 – Überproportionale Fake-Quote: 20 % versus 7–10 % Baseline. Ein Wert, der statistisch auf koordinierte Manipulation hindeutet.

  • Indikator 2 – Skriptbasierte Wiederholung: nahezu identische Formulierungen über dutzende Accounts hinweg. Organische Kritik ist sprachlich heterogener.

  • Indikator 3 – Cluster-Infiltration: Fake-Profile agierten nicht in isolierten Blasen, sondern infiltrierten gezielt authentische Gesprächsräume. Organische Kritiker tun das in der Regel nicht systematisch.

  • Indikator 4 – Asymmetrischer Impact: 190 Profile erzeugten Reichweite für 838.000 Nutzer. Dieses Verhältnis ist typisch für Amplifikationskampagnen, nicht für Graswurzelbewegungen.

  • Indikator 5 – Löschungen: Seit der Analyse wurden 56 Accounts gelöscht – ein Muster, das bei koordinierten Kampagnen regelmässig beobachtet wird.



Woran erkennt man Desinformationskampagnen? 5 Kriterien für Kommunikationsverantwortliche

TL;DR: Wer den Diskurs über politische Themen beobachtet, sollte fünf Warnsignale systematisch prüfen. Cyabra berechnet die Wahrscheinlichkeit von Fake-Accounts auf der technischen Plattform anhand von über hundert Kriterien.


Evidenz:

  1. Fake-Profil-Anteil über 15 %: Liegt der Anteil inauthentischer Profile deutlich über der 7–10-%-Baseline, ist koordinierte Aktivität wahrscheinlich.

  2. Repetitive Formulierungen: Wenn identische oder nahezu identische Sätze über viele Accounts verbreitet werden, deutet das auf Skripte hin.

  3. Emotionalisierte Hashtags: Vereinfachende, binäre Frames (z. B. #Unterwerfungsvertrag) sind ein bevorzugtes Werkzeug, um komplexe Themen auf Kampfbegriffe zu reduzieren.

  4. Cluster-Penetration: Fake-Profile, die gezielt in authentische Gesprächsgruppen eindringen, statt eigene Blasen zu bilden, sind ein starkes Signal für strategische Manipulation.

  5. Plötzliche Volumenspitzen: Wenn das Diskursvolumen ohne erkennbaren externen Anlass sprunghaft steigt, lohnt sich eine genauere Prüfung der beteiligten Accounts.



Passives Monitoring oder aktive Analyse – was braucht man?

TL;DR: Passives Social Listening reicht nicht aus – wer Desinformation erkennen will, braucht eine aktive Authentizitätsanalyse der beteiligten Profile.


Evidenz:

  • Passives Monitoring (z. B. Brandwatch, Meltwater) erfasst Volumen, Sentiment und Themenverläufe. Es beantwortet die Frage „Was wird gesagt?" – aber nicht „Wer sagt es und ist das Profil echt?" - Auch handelt es sich meist um Topic Mining, nicht um echte semantische Analyse.

  • Aktive Authentizitätsanalyse: Sie prüft Profile auf Verhaltensmuster, Erstellungsdaten, Netzwerkstrukturen und sprachliche Konsistenz. Sie beantwortet die Frage: „Ist dieser Diskursanteil organisch oder manipuliert?"

  • Für Organisationen, die politisch exponierte Themen kommunizieren, empfiehlt sich eine Kombination: Monitoring für den Überblick, Authentizitätsanalyse bei Verdacht auf koordinierte Kampagnen.

  • Kosten-Nutzen-Abwägung: Eine punktuelle Analyse wie unsere vorliegende Studie liefert für einen abgegrenzten Diskurs eine klare Datenbasis. Kontinuierliches Monitoring ist aufwendiger, aber für Organisationen mit regelmässiger öffentlicher Exposition sinnvoller.


FAQ


Wer hat die Analyse durchgeführt? Das auf semantische Analysen spezialisierte Unternehmen evAI Intelligence in Kooperation mit den Experten von Cyabra. Cyabra ist eine auf Social Threat Intelligence spezialisierte Plattform mit Sitz in Tel Aviv und gelistet an der NASDAQ. evAI Intelligence, das zu den Top 540 KI-Unternehmen in Deutschland, hat die Analyse initiiert, begleitet und die strategische Einordnung vorgenommen.


Auf welcher Plattform wurde analysiert? Ausschliesslich auf X (ehemals Twitter). Andere Plattformen wie Facebook, Instagram, TikTok oder Reddit wurden in dieser fokussierten Studie nicht untersucht.


Sind die 20 % Fake-Profile ein hoher Wert? Ja. Der branchenübliche Basiswert liegt bei 7–10 %. Ein Anteil von 20 % ist fast doppelt so hoch und deutet auf koordinierte Manipulation hin.


Wer steckt hinter der Kampagne? Die Analyse identifiziert Fake-Profile und deren Verhaltensmuster. Die Attribution – also wer die Kampagne beauftragt oder gesteuert hat – ist nicht Teil dieser Studie.


Bedeutet das, dass die gesamte Kritik an den Bilateralen III unecht ist? Nein. 746 der 936 analysierten Profile (rund 80 %) waren authentisch. Legitime Kritik existiert. Die Studie zeigt aber, dass ein signifikanter Teil der Negativität künstlich verstärkt wurde.


Wie kann ich die vollständige Liste der Fake-Accounts einsehen? Die detaillierte Liste der identifizierten Fake-Account-Aktivitäten ist auf Anfrage bei Cyabra bzw. über evai.ai erhältlich.


Was kann ich als Kommunikationsverantwortlicher tun? Einen Desinformations-Audit für Ihre Branche oder Ihr Thema durchführen lassen. evai.ai unterstützt Sie bei der Analyse und strategischen Einordnung.


Methoden & Daten


Analysezeitraum: Juni bis August 2025


Plattform: X (ehemals Twitter) - Erweiterung auf weitere Social Media Plattformen möglich.


Durchführung: Unter der Federführung von evAI Intelligence GmbH in Kooperation mit den Experten der Social-Threat-Intelligence-Plattform Cyabra


Stichprobe: 936 Profile, die am Diskurs zu Bilaterale III teilnahmen (Suchbegriffe: #bilateraleiii, bilaterale iii, bilaterale, #bilaterale)


Methodik: Die Cyabra-Plattform setzt proprietäre Machine-Learning-Modelle ein, die anhand „hunderter Parameter" die Authentizität von Online-Profilen bewerten. Analysiert werden u. a. Erstellungsdaten, Posting-Muster, Netzwerkstrukturen, sprachliche Konsistenz sowie Interaktionsmuster. Die strategische Einordnung und die Narrative-Analyse erfolgten durch evAI Intelligence.


Ergebnis: 190 Profile (20 %) wurden als fake oder inauthentisch klassifiziert. 355 Inhalte mit einer potenziellen Reichweite von 838.000 Impressionen und ~1.100 Interaktionen.



Einschränkungen:

  • Die Analyse beschränkt sich auf X. Desinformationsaktivitäten auf anderen Plattformen wurden diesmal nicht erfasst.

  • Die Attribution (wer die Kampagne steuert) ist nicht Teil der Studie.

  • Die Klassifizierung als „inauthentisch" basiert auf Verhaltensmustern, nicht auf verifizierter Identität.



Sie möchten wissen, ob Ihr Thema von koordinierter Desinformation betroffen ist?

evAI führt Desinformationsanalysen mit Hilfe von Cyabra für Organisationen, Verbände und öffentliche Institutionen durch. Unser Kommunikationspartner, die CR Kommunikation AG, erstellt wirkungsvolle, protektive Kommunikationskonzepte, um auf Desinformation zu reagieren.


Kontaktieren Sie uns für eine unverbindliche Ersteinschätzung Ihres Diskursumfelds.



bottom of page