DeutschlandMedienParteiStudieWellen

AfD im Wahlkampf: Gefälschte KI-Bilder zielen auf Ihre Emotionen!

Die AfD nutzt KI-generierte Inhalte zur Manipulation im Wahlkampf 2025, indem sie gefälschte Bilder und Videos einsetzt. Experten warnen vor den Gefahren dieser Technologie und fordern Kennzeichnungspflichten.

In der aktuellen Diskussion um den Einsatz von Künstlicher Intelligenz (KI) im politischen Wahlkampf rückt die Alternative für Deutschland (AfD) in den Fokus. Am 21. Februar 2025, nur zwei Tage vor der Bundestagswahl, berichten Medien über die Strategie der Partei, die auf gefälschte Bilder und Videos sowie generierte Nutzerprofile setzt, um Stimmung im Netz zu machen. Laut op-online.de erkennen viele Bürger nicht, dass es sich um KI-generierte Inhalte handelt, was die Notwendigkeit einer Kennzeichnungspflicht unterstreicht.

Die AfD spricht in diesem Kontext von zwei Kategorien KI-generierter Inhalte. Dazu zählen nostalgische Zukunftsvisionen mit Bildern von lächelnden, hellhaarigen Kindern und jungen Frauen sowie dystopische Darstellungen, die ältere Menschen zeigen, die Plastikflaschen sammeln, oder Frauen in Burkas. Norbert Kleinwächter, ein prominent gewählter AfD-Abgeordneter, erklärt, dass diese Inhalte Emotionen verstärken sollen und die Lebensweise der Partei veranschaulichen.

Nostalgie und Dystopie: Emotionalisierung im Wahlkampf

Die Nutzung von KI durch AfD-Funktionäre bildet laut der Berichterstattung eine größere Strategie der partizipativen Propaganda. Hierbei spielt eine „Fan-Armee“ eine entscheidende Rolle, indem sie die Inhalte in sozialen Medien verbreitet. Die Algorithmen, die zur Steigerung der Reichweite eingesetzt werden, sorgen dafür, dass die emotional aufgeladenen Botschaften eine hohe Sichtbarkeit erreichen. Ein Beispiel für die Werbekampagne ist eine KI-generierte Influencerin namens Larissa, die für die AfD Werbung macht.

Eine Studie der Otto-Brenner-Stiftung zeigt alarmierende Ergebnisse: Viele Menschen sind nicht in der Lage, KI-generierte Wahlkampfbilder als Fälschungen zu identifizieren. Emotionale Reaktionen auf diese Inhalte sind ähnlich stark ausgeprägt wie bei authentischen Bildern. Über 80 Prozent der Bevölkerung fordern daher eine Kennzeichnungspflicht für solche Inhalte, während mehr als die Hälfte den Einsatz von KI in politischen Kampagnen als gefährlich erachtet.

Gesellschaftliche und politische Implikationen

Der Einsatz von KI im politischen Raum ist nicht auf die AfD beschränkt. So kursierte am 21. November 2024 ein KI-generiertes Fake-Video über CDU-Chef Friedrich Merz, das große Wellen schlug. Merz äußerte im Bundestag sein Erstaunen über die Verbreitung des Videos, besonders durch einen SPD-Abgeordneten. Dieser, Bengt Bergt, entschuldigte sich daraufhin schriftlich und verwies auf die Notwendigkeit, KI-Inhalte zu kennzeichnen. Dies entspricht den Bestrebungen der EU, die mit dem AI-Act eine Regelung für derartige Inhalte ab 2026 anstrebt, wie tagesschau.de berichtet.

Das Bundesinnenministerium hat mittlerweile eine Früherkennungseinheit für Desinformation eingerichtet, um Hass-Posts und manipulative Inhalte besser zu überwachen. Innenministerin Nancy Faeser betont die Wichtigkeit, technische Veränderungen in Inhalten kenntlich zu machen. Politiker wie Philipp Lorenz-Spreen, ein Computation Social Scientist, warnen, dass Deutschland und die globale Gemeinschaft nicht adäquat auf die Herausforderungen vorbereitet sind, die durch manipulierte Inhalte entstehen.

Insgesamt ist klar, dass der Einsatz von KI im Wahlkampf sowohl Chancen als auch Risiken birgt. Während einige Parteien wie die SPD derzeit keine KI-generierten Inhalte verwenden, erwarten andere, wie die FDP und die Grünen, einen intensiven Einsatz im politischen Wettbewerb.

Referenz 1
www.op-online.de
Referenz 3
www.tagesschau.de
Quellen gesamt
Web: 3Social: 74Foren: 39