EU-Gipfel 2025: Wie Hybride -Kriegsführung-Narrative Europas Sicherheitsagenda unterwanderten
- Steffen Konrath
- vor 6 Tagen
- 3 Min. Lesezeit
Reale Drohnenvorfälle und orchestrierte Online-Kampagnen synchronisierten – ein Lehrstück über digitale Einflussnahme im sicherheitspolitischen Raum. Der Artikel fasst unsere Analyse mit unserem Partner Cyabra zusammen.

Welche Narrative dominierten die Online-Diskussion rund um den EU-Gipfel 2025?
TL;DR: Drohnen und "hybride Kriegsführung" wurden zum Symbol europäischer Verwundbarkeit, ein ideales Einfallstor für Desinformation. Bekannte Politiker rückten das Thema Bedrohung durch Dronen durch ihre Beiträge in das Zentrum des medialen Interesses. #narrative
Belege
Zwischen 22. September und 4. Oktober wurden 7.485 Posts und Kommentare zu Drohnen und Sicherheit rund um den Gipfel erfasst.
Zwei Kommunikationsspitzen: 25. September (nach ersten Drohnenmeldungen rund um den Kopenhagener Airport) und 3. Oktober (letzter Tag und wAbschluss des Gipfels).
Posts von Selenskyj (174 000 Views) und dem schwedischen Premierminister Ulf Kristersson (100 000 Views) verstärkten das Thema Bedrohung durch Dronen eine Woche vor dem Gipfel, identifiziertes es als zentral für regionale Sicherheitsbedenken und verliehen ihm aufgrund ihrer Position politische Glaubwürdigkeit.
Im Kern der Narrative der Fake Accounts beim EU-Gipfel 2025 standen neben Hybrider Kriegsführung die "Schwäche der EU" , "Übergriffe der Regierung", die Verunglimpfung von Ursula von der Leyen und der deutschen Führungsrolle in der europäischen Verteidigungsstrategie. Die Narrative gehen Hand in Hand mit anti-EU Ressentiments und Anti-Establishments Diskursen.
Authentische Diskussionen mischten sich auch in diesem Beispiel mit orchestrierten Falschinformationen, eine klassische „Narrativfusion“ auf der Basis des erhöhten öffentlichen Interesses.
Wie wurde Russland zum Dreh- und Angelpunkt von "Hybride Kriegsführung" rund um den EU-Gipfel 2025?
TL;DR: Die Zuschreibung „russischer Hybridkrieg“ zu Russland beim EU-Gipfel 2025 diente als emotionaler Rahmen, um Misstrauen gegenüber EU-Sicherheitsstrukturen zu verstärken.
Belege
Rund 1.783 Posts verbanden mehrheitlich Russland mit den Drohnenvorfällen.
Russland wurde dabei mit dem Begriff der hybriden Kriegsführung assoziiert.
Häufig verwendete Begriffe: „hybride Kriegsführung“, „Sabotage“, „psychologische Operation“.
Die Tonalität verlagerte sich von „Regionalem Sicherheitsvorfall“ zu „geopolitischer Konfrontation“.
Ergebnis: ein diskursiver Shift von Fakten zu Identität – „wir gegen sie“.
Welche Rolle spielten KI-generierte Inhalte und Fake-Profile?
TL;DR: Fast jeder fünfte Account konnte als Fake Account identifiert werden, und nahezu die Hälfte der Inhalte kam aus generativen Quellen, was ein Indikator für die technische Reife und Modernität der Angriffe ist. #generated
Belege
19 % der X-Profile (656 Accounts) wurden als Fake identifiziert. Über 100 Indikatoren werden dafür zu Rate gezogen.
Die Fake Accounts erzeugten 44 % der KI-generierten Posts und Kommentare, ein substantieller Beitrag.
Themencluster: EU-Schwäche, Regierungsversagen, „lächerliche Sicherheitswarnungen“.
Einzelposts mit niedriger Interaktion erzielten kumulativ über 4 Mio. potenzielle Views – dank algorithmischer Verstärkung.
Wie funktionierte die Falschmeldung über die Verhaftung von „russischen Drohnenpiloten“ in Norwegen?
TL;DR: Wir fanden Posts, die von der Verhaftung russischer Dronenpiloten in Norwegen sprachen, um sich dann zu "korrigieren", dass es deutsche Dronenpiloten waren. Ein Lehrbeispiel für gezielte Framing-Umkehr: von russischer Aggression, dann zum Vorwurf dass es deutsche Dronenpiloten waren, bis zu vermeintlichem EU-Versagen. #norway

Belege
Zwei nahezu identische Posts behaupteten zunächst die Festnahme „russischer Drohnenpiloten in Norwegen“.
Wenige Stunden später „Korrektur“: angeblich „Deutsche Piloten“.
Beide Varianten griffen Ursula von der Leyen persönlich an – Stichwort: „Lüge über Russland“.
Ziel: Institutionelles Vertrauen untergraben, Verantwortung verschieben, interne Spaltung erzeugen.
Welche Muster kennzeichnen diese Form der hybriden Desinformation?
TL;DR: Geschwindigkeit, Kopiermuster und Emotionalisierung sind die strategischen Hebel moderner Einflussoperationen. #patterns
Belege
Echtzeit-Exploitation: Ereignisse werden binnen Stunden narrativ vereinnahmt.
Replikation durch KI: Wiederholte Phrasen und Bildmaterial mit minimaler Variation.
Politische Emotionalisierung: Schuld, Spott und Sarkasmus statt Argumentation.
Fragmentierung: Widersprüchliche Varianten derselben Geschichte erhöhen Verwirrung.
Algorithmische Verstärkung: Hohe Sichtbarkeit trotz geringer organischer Relevanz.
Was bedeutet das für Europas Sicherheitsarchitektur?
TL;DR: Informationssicherheit ist keine Kommunikationsfrage mehr – sie wird Teil der Verteidigungsstrategie.
Belege
Hybride Narrative wirken nicht nur reputationsschädigend, sondern strategisch destabilisierend.
Frühwarnsysteme, die Authentizität und Narrativmuster erfassen, werden zum Kern präventiver Sicherheit.
Kooperationen zwischen Social-Intelligence-Technologien und Analyseplattformen wie die unseres technischen Partners Cyabra sind entscheidend, um Muster zu erkennen, bevor sie eskalieren.
Der Fall EU-Gipfel zeigt: Manipulation kann nicht verhindert werden – aber sie kann sichtbar gemacht werden.
Fazit
Der digitale Diskurs zum EU-Gipfel 2025 demonstriert, wie Realität und Simulation ineinandergreifen, wenn generative KI und politische Agenda aufeinandertreffen. Hybrid-Threat-Narrative verschieben nicht nur Wahrnehmung, sie testen auch Europas strategische Reaktionsfähigkeit. Wer früh erkennt, wie sich Narrative verformen, kann Vertrauen und Sicherheit zugleich schützen.
Frühzeitig erkennen, wenn orchestrierte Netzwerke Narrative verschieben. Erfahren Sie, wie Disinformation Intelligence hilft, Fake-Cluster, Reichweitenmuster und Narrative sichtbar zu machen – bevor Vertrauen erodiert.