top of page

Polen: Wenn Drohnen Grenzen überschreiten und Desinformation Sicherheitspolitik ins Visier nimmt

Aktualisiert: 2. Okt.

Wie orchestrierte Fake-Accounts das NATO-Dilemma instrumentalisieren. Eine Analyse für Entscheidungsträger in Politik, Sicherheit und in den Medien.


Die russischen Drohnenüberflüge über Polen im September 2025 markieren einen geopolitischen Wendepunkt – und einen Testfall für die digitale Informationssicherheit Europas.


Während der Politikwissenschaftler Herfried Münkler in DIE ZEIT die Operation als „zweite Front“ Putins interpretiert, trifft uns die begleitende Online-Debatte mit ihren Narrativen, aufgeworfenen Zweifeln und gezielten Manipulationen direkt und breitet sich mindestens so schnell aus, wie die Drohnen selbst.


Mit diesem Beitrag wollen wir die Kernfrage beantworten: Wie lassen sich orchestrierte Desinformationskampagnen in sicherheitspolitischen Krisen frühzeitig erkennen und neutralisieren? Wie kann man Fake -Account Cluster enttarnen und damit eine solide Basis für Gegenmassnahmen liefern?


Zusammen mit den Partner Cyabra analysierten wir die dominierenden Narrative, die den Diskurs rund um die Dronen in Polen Anfang September 2025 bestimmten.
Zusammen mit den Partner Cyabra analysierten wir die dominierenden Narrative, die den Diskurs rund um die Dronen in Polen Anfang September 2025 bestimmten.

Warum sind die Drohnenüberflüge über Polen sicherheitspolitisch so brisant?


TL;DR: Die Drohnen markieren eine bewusste strategische Operation Putins, welche die NATO testet, Handlungsgrenzen verschiebt und Europa in ein Dilemma zwingt. #geopolitik


Belege


  • Laut dem ZEIT Journalist Münkler gibt es drei Deutungen für mögliche Motive: Irrflug, Test, Ablenkung – nur die letzten beiden sind plausible strategische Optionen.

  • Faktisch: Mindestens 19 Drohnen durchbrachen polnischen Luftraum, nur 3–4 wurden abgeschossen. → Abwehrkapazität unzureichend.

  • Artikel 4 NATO wurde aktiviert – politischer Ernstfall.

  • Ziel: NATO-Abwehrsysteme binden, Ukraine schwächen.

  • Relevanz: Militärische Operation + politische Signalwirkung.




Welche Narrative dominierten die Online-Konversation?


TL;DR: Drei Haupt-Narrative bestimmten den Diskurs – alle durch Fake-Accounts verstärkt. Die Entdeckung der Narrative ist der erste Schritt zum Aufbau von Gegenmassnahmen, um die Kontrolle über die vermeintlichen Schwerpunkte der nationalen oder internationalen Narrative wieder zu erlangen. #narratives


Drohnen über Polen: Ein Narrativ-Cluster versucht Skepsis zu streuen und der Ukraine Schuld zuzuweisen.
Drohnen über Polen: Ein Narrativ-Cluster versucht Skepsis zu streuen und der Ukraine Schuld zuzuweisen.


Belege


  1. Skepsis & Schuldzuweisung an Ukraine

    • „Beweise fehlen“, technische Zweifel, Verweis auf Przewodów 2022.

    • Ziel: Vertrauen in offizielle Stellen unterminieren.

  2. Regierungskritik an Donald Tusk

    • Vorwürfe „Milliarden verpulvert“, „schwache Verteidigung“.

    • Baut auf öffentliche Sicherheitsängste.

  3. Bagatellisierung & Spott

    • „99 % Fehler“, „Routine“.

    • Lächerlichmachung Polens → Solidarität mit NATO schwächen.



Wie groß war der Anteil von Fake Profilen?


TL;DR: Rund 22 % der aktiven Profile waren Fakes – mehr als doppelt so hoch, weit über den typischen 7–10 % in Online-Konversationen. Diese Fake-Accounts generierten Hunderte von Posts und Kommentaren. #inauthenticity



Belege


  • Cyabra identifizierte 2.899 Profile; davon 22 % fake (vs. Basis 7–10 %).

  • Diese Accounts infiltrierten echte Diskussionen → nicht isoliert, sondern dialogorientiert.

  • Typische Taktik: Wiederholte Phrasen, schnelle Engagement-Spikes, Verbindungen zu pro-russischen Netzwerken.

  • Effekt: Verwischung der Grenze zwischen authentischer Debatte und orchestrierter Manipulation.



Welche Risiken entstehen durch diese Art von Desinformation?


TL;DR: Vertrauensverlust, innenpolitische Polarisierung und sicherheitspolitische Destabilisierung. #risks


Belege:


  • Vertrauen: Unterminierung offizieller Bestätigungen → Bürger zweifeln an Regierung & NATO.

  • Polarisierung: Kritik an Regierung Tusk emotionalisiert → spaltet Gesellschaft.

  • Sicherheitsrisiko: NATO-Kohäsion wird gezielt geschwächt.

  • Kostenfaktor: Einsatz teurer Abwehrwaffen gegen Billigdrohnen → asymmetrische Erschöpfung.



Welche Kriterien sollten Entscheidungsträger bei der Abwehr von Desinformation anlegen?


TL;DR: Frühzeitige Erkennung, Authentizitätsprüfung, Narrative-Tracking und Reaktionsgeschwindigkeit sind entscheidend. #criteria


Belege (Ranking):


  1. Authentizität: Fake-Account-Erkennung (Baseline vs. Anomalien).

  2. Narrativ-Analyse: Welche Themen dominieren, wer verstärkt sie?

  3. Cluster-Tracking: Netzwerkeffekte zwischen Fake- und Real-Accounts.

  4. Sentiment-Überwachung: Negative Peaks als Frühwarnsignal.

  5. Kontextualisierung: Verknüpfung digitaler Narrative mit geopolitischen Ereignissen.

  6. Reaktionsgeschwindigkeit: Von Stunden, nicht Tagen.




Wie hilft unser Service Disinformation Intelligence in solchen Fällen?


TL;DR: evAI kombiniert die technische Datenanalyse zusammen mit unserem Partner Cyabra mit kontextualisierter Intelligence bzw. Semantischer Analyse, um Narrative sichtbar zu machen und Gegenstrategien abzuleiten. #usecase


Belege


  • Echtzeiterkennung von Fake-Clustern, Sentimenttrends und infiltrierten Gesprächen.

  • Narrative-Mapping: Welche Stories drohen Vertrauen, Politik oder Marken zu untergraben.

  • Handlungsempfehlungen: Welche Narrative kontern, wo Gegenrede platzieren, wie Reichweite minimieren.

  • Integration in Kommunikations- und Sicherheitsprozesse.

  • Ziel: Früherkennung = Handlungsspielraum statt Reaktionszwang.



FAQ


  1. Waren die Drohnen eine direkte Kriegsprovokation?→ Nein, aber ein gezielter Test und strategisches Signal.

  2. Warum wird die Ukraine online beschuldigt?→ Narrative-Shift: Ablenkung von einer russischen Verantwortung.

  3. Wie erkennt man Fake-Accounts?→ Musteranalyse: Sprache, Aktivität, Netzwerk, anhand von über 100 Merkmale.

  4. Warum sind negative Peaks wichtig?→ Sie markieren orchestrierte Eskalationen.

  5. Kann Desinformation wirklich die NATO schwächen?→ Ja, indem Vertrauen und Solidarität ausgehöhlt werden.

  6. Hilft rein technischer Schutz?→ Nur teilweise – entscheidend ist die Kombination aus Analyse und Kommunikation.


Methode & Datenanhang


  • Auswertung: Die Analyse erfolgte mit Cyabra Social Intelligence.

  • Die Analyse fokussierte auf X als Plattform. Da es um Polen ging, wurden entsprechend dem Untersuchungsraum auch ausschliesslich polnische Hashtags mit einer Verbindung zu "Dronen" als Filter gesetzt.

  • Es wurde ein Scan von 2.899, am Diskurs beteiligten Profilen im Zeitraum 7.–13. September 2025 durchgeführt.

  • Metriken: Authentizität, Narrative-Clustering, Polarisierung.

  • Mediencoverage: Im Blogpost habe ich mich auf Münkler, „Putins zweite Front“ (DIE ZEIT, 13.09.2025) bezogen.





Prüfen Sie mit evAI Disinformation Intelligence, wie Ihr Unternehmen oder Ihre Institution orchestrierte Narrative frühzeitig erkennen und neutralisieren kann.

bottom of page