Alternative für Intelligenz: So massiv manipuliert die AfD mit KI

Die demokratischen Parteien nutzen kaum Bilder, die mit KI generiert wurden. Die rechtsextreme AfD hingegen setzt in hohem Maße darauf – und kennzeichnet diese nie. Eine Auswertung der Instagram-Accounts der Parteien von Fabian Grischkat.

Wenn eine Kuh Fahrrad fährt, ein Säugling nach Ringo Starr-Manier Schlagzeug spielt oder Donald Trump und Kamala Harris gemeinsam am Strand ein Softeis verspeisen, ist man womöglich Zeuge eines Wunders. Wahrscheinlicher ist hingegen, dass es sich um das Werk künstlicher Intelligenz handelt. Solche, inzwischen häufig täuschend echt aussehenden Kreationen lassen sich kinderleicht erstellen und in kürzester Zeit verbreiten. 

Hier lauert eine Gefahr, die wir in ihrer ganzen Fülle bisher nur erahnen können. Missverstehen Sie mich bitte nicht. Auch ich greife immer häufiger zu KI-Werkzeugen. Etwas anderes ist es, wenn es Parteien tun. In der politischen Kommunikation fühlte sich der Einsatz von KI bisher wie ein Fußballspiel ohne Schiedsrichter an. Dementsprechend wird nach Lust und Laune gefoult. Politische Akteure können ihre Postings in Sekundenschnelle gezielt auf die Emotionen bestimmter Wählergruppen zuschneiden. Häufig werden dabei düstere Bilder gezeichnet und Stereotype bedient. Politische Gegner können so auf hässlichste Art und Weise diffamiert werden.

Wie häufig verwenden Parteien in Deutschland generative KI in sozialen Netzwerken? Und wie transparent werden ihre Beiträge gekennzeichnet? Um das herauszufinden, habe ich mir den Hauptaccount jeder großen Partei (CDU, CSU, SPD, FDP, Grüne, Linke, AfD und BSW) auf Instagram angeschaut. Analysiert wurde das Bild-, Video- und Tonmaterial aller Beiträge, die im Jahr 2024 bis zum 10. Oktober gepostet wurden. Um ein möglichst präzises Ergebnis zu gewährleisten, habe ich zwei verschiedene KI-Detektor-Programme verwendet. Jeder Beitrag wurde somit doppelt überprüft.

Grafik: Fabian Grischkat

Das Ergebnis: Bis auf das BSW haben alle Parteien KI-generierte Inhalte in den vergangenen zehn Monaten veröffentlicht. Die AfD belegt jedoch mit großem Abstand den ersten Platz, mit 89 erfassten Posts. Das sind rund ein Fünftel der Beiträge, die auf ihrem Hauptaccount in diesem Jahr erschienen sind. Als „mit KI erstellt“ gekennzeichnet wurde kein einziger Beitrag. In den meisten Fällen wurden Menschen künstlich erstellt: eine Rentnerin, die Pfandflaschen aus einer Mülltonne zieht, eine weiße Frau, die vor einem schwarzen und einem arabisch gelesenen Mann flieht.

Es folgen die Linke und die FDP, mit jeweils 8 erfassten Posts. Die CSU postete 6 Mal einen Aufruf zu einer Fahrradtour mit Markus Söder, dessen Bild sich in allen Posts als KI-generiert entpuppte. Bei den Grünen, der CDU und der SPD wirkt das Verwenden von KI eher wie ein Zufall.

Ich habe allen Parteien eine schriftliche Anfrage geschickt. Bis zur Fertigstellung dieses Textes habe ich vom BSW und der AfD keine Antworten erhalten. Zu den nicht gekennzeichneten Posts wollte man sich bei CSU und den Linken nicht äußern. Dennoch betonen die Linken, wie auch die Grünen, die Wichtigkeit einer transparenten Kennzeichnung.

Nicht nur in Deutschland waren es die Ewiggestrigen, die das Potenzial Künstlicher Intelligenz als erste erkannten. Im französischen Wahlkampf setzten rechtspopulistische Parteien wie Les Patriotes, Rassemblement National oder Reconquête auf KI-generierte Beiträge. Auch sie verzichteten auf eine angemessene Kennzeichnung. Die Muster und Vorgehensweisen ähneln einander über die Partei- und Landesgrenzen hinweg. Asylsuchende und „nicht assimilierte Staatsbürger:innen“ werden als wütender, barbarischer Mob präsentiert. Dem gegenüber steht die “ethnokulturelle Gemeinschaft“, wie der rechtsextreme Aktivist Martin Sellner sie betitelt, die einen freundlichen und vertrauenswürdigen Eindruck erzeugen soll. Zudem haben KI-Modelle häufig ein grundsätzliches Diskriminierungsproblem: Da Algorithmen aus historischen Daten lernen, spiegeln sie häufig die bestehenden Ungerechtigkeiten unserer Gesellschaft wie Rassismus oder Sexismus wider. 

Expert:innen sprechen von Softfakes, die im Gegensatz zu Deepfakes simpler und kostengünstiger zu erstellen sind. Während bei Deepfakes in der Regel echte Bilder, z.B. die eines Gesichtes, mit einem ebenfalls echten Video zusammengelegt werden, sind Softfakes rein künstlich generiert. Dadurch lassen sich politische Gegner extrem überzeichnet darstellen.

So verbreitete erst kürzlich der Tech-Milliardär und Verschwörungsideologe Elon Musk ein KI-gefälschtes Bild der US-Vizepräsidentin Kamala Harris als kommunistische Diktatorin. Der AfD-Politiker Norbert Kleinwächter machte Anfang 2023 aus dem Bundesgesundheitsminister Karl Lauterbach einen Zombie. Der Frankfurter Allgemeinen Zeitung sagte Kleinwächter dazu, dass solche Bilder der “Illustration politischer Meinung“ dienten und es gewollt sei, dass man Stereotype bediene. Die AfD will also ganz bewusst Hass und Lügen verbreiten und bemüht sich nicht einmal, dies zu verschleiern.

In Brüssel waren deshalb die Sorgen Anfang des Jahres spürbar. Die Europawahl stand bevor. Ihr Ausgang war nicht nur für die Bürger:innen der EU-Mitgliedsstaaten von großer Bedeutung, sondern hat auch einen nicht unerheblichen Einfluss auf die weltpolitische Lage. Um einen fairen Wahlkampf zu garantieren, einigten sich die Parteien des EU-Parlaments zwei Monate vor der Wahl auf einen Verhaltenskodex. Darin verpflichten sie sich, ethische und faire Wahlkampf-Praktiken einzuhalten. In Bezug auf die Transparenz von KI-generierten Medien heißt es darin:

„Der Einsatz von Inhalten, die durch künstliche Intelligenz erzeugt wurden, ist nur zulässig, wenn dies eindeutig gekennzeichnet ist.“


Lediglich eine Fraktion unterzeichnete nicht: die rechtspopulistische „Identität und Demokratie“, kurz ID. Ihr gehörte damals auch die AfD an, bis sie Ende Mai ausgeschlossen wurde.

Im August dieses Jahres trat der Artificial Intelligence Act, kurz „AI Act“, in der EU in Kraft. Mit ihm soll der unregulierten Nutzung von KI ein Riegel vorgeschoben werden. Wird das Gesetz nicht eingehalten, drohen Strafen in Millionenhöhe. So theoretisch, so gut. Die Realität ist aber, wie so oft, deutlich bürokratischer. Rechnet man die Übergangsfristen mit ein, so greift der AI Act in frühestens zweieinhalb Jahren. Die nächste Bundestagswahl findet aber in weniger als einem Jahr statt. Bis dahin setzt man auf die freiwillige Selbstverpflichtung der Entwickler und der Parteien. 

Auf meine schriftliche Nachfrage teilt mir die CSU mit, dass man „manipulative Irreführung mit KI-generierten Bildern“ ablehne. Als positives Beispiel wird mir ein Post von Markus Söder geschickt, in dem, basierend auf seinem Gesicht, Porträts erstellt wurden, die den Stil eines Neunziger-Jahrbuchs imitieren. 

Die Schwesterpartei CDU räumt in ihrer Antwort ein, dass sowohl der AI Act als auch die Vorgaben des deutschen Rechts maßgeblich seien. Des Weiteren heißt es: „Eine Entscheidung, in welchem Umfang wir KI in Wahlkämpfen nutzen werden, ist noch nicht abschließend getroffen.“ Die FDP positioniert sich geringfügig offensiver: „Wir als Freie Demokraten haben beispielsweise im Europawahlkampf KI-generierten Content genutzt und behalten uns eine Nutzung im Bundestagswahlkampf ebenso vor.“ Das BSW und die AfD haben bis zur Veröffentlichung dieses Textes nicht auf meine Anfrage geantwortet.

Allerdings stellte die AfD Anfang des Jahres im Bundestag einen Antrag. Darin fordert sie klare Regeln für den Einsatz von KI im Unterricht. Anders als in der eigenen Kommunikation sollen Wasserzeichen die Inhalte kenntlich machen, die in Bildungseinrichtungen mithilfe künstlicher Intelligenz erstellt wurden. Außerhalb des Klassenzimmers scheint man aber liberaler mit solch einer Kennzeichnungspflicht umzugehen: 14 der 19 Abgeordneten, die den Antrag verfasst haben, verwenden auf ihren Social Media Accounts KI-generierte Inhalte – ohne Kennzeichnung. 

Auch wenn die weitere Entwicklung von künstlicher Intelligenz ungewiss ist, steht eines heute schon fest: Die Grenze zwischen Fake und Wirklichkeit verschwimmt immer mehr. Die EU hat es versäumt, hier rechtzeitig zu intervenieren. Die Folgen könnten zu einer akuten Bedrohung unserer freien, demokratischen Werte und einer aggressiveren Stimmung im nächsten Bundestagswahlkampf führen.

Fabian Grischkat ist Moderator und Journalist aus Berlin. Der 24-Jährige „Newsfluencer“ berichtet über relevante Themen aus den Bereichen Politik, Klimaschutz und Menschenrechte. Im Juli wurde er in Hamburg mit dem Ehren-Pride-Award für seine „Stolzmonat“ Aktion ausgezeichnet. Grischkat hatte den rechten Begriff als Marke angemeldet und durch Shirt-Verkäufe 10.000 € für die queere Bundesstiftung Magnus Hirschfeld gesammelt. Artikelbild: Fabian Grischkat, Photocosmos1

 

Nach oben scrollen