Superwahljahr 2024: KI erobert den Wahlkampf

Roboterhand und Menschenhand berühren sich vor Sonnenaufgang.

Das Jahr 2024 hat die Welt in einen regelrechten Wahlrausch versetzt. In mehr als 60 Ländern, inklusive 27 EU-Staaten wird gewählt. Das betrifft rund 3,6 Milliarden Menschen, also etwa 45 Prozent der Weltbevölkerung. Das Jahr 2024 markiert nicht nur ein Superwahljahr mit bedeutenden politischen Entscheidungen, sondern auch eine Phase, in der digitale Technologien wie künstliche Intelligenz (KI) eine immer wichtigere Rolle im Wahlkampf spielen. 

Die Potenziale sind enorm: KI kann kreative und zielgerichtete Inhalte produzieren, die die Wähler:innen persönlich ansprechen und den Wahlkampf auf ein neues Niveau heben. Doch hinter den Kulissen lauern auch die Schatten von Deepfakes und digitaler Manipulation, die das Vertrauen in demokratische Prozesse untergraben könnten.

Indien - KI überwindet Sprachbarrieren

Ein Blick nach Indien gibt einen Vorgeschmack auf das, was kommen könnte. Premierminister Narendra Modi setzt dort auf innovative KI-Technologie, um Sprachbarrieren zu überwinden und potenzielle Wähler:innen in der größten Demokratie der Welt zu erreichen. Modi erfreut sich im Norden des Landes großer Beliebtheit, doch im Süden stößt er auf Skepsis. Eine mögliche Ursache: Die Sprachbarriere. Seine Reden auf Hindi kommen bei den südlichen Bundesstaaten wie Tamil Nadu, Karnataka und Kerala nicht gut an, wo hauptsächlich Tamil, Kannada und Malayalam gesprochen werden. Reden sind essentiell im politischen Wahlkampf, sie können Nähe zur Wählerschaft erzeugen, sofern sie denn verstanden werden können. 

Modi hat eine Lösung im Rahmen von Künstlicher Intelligenz gefunden. Die KI-gestützte App Bhashini beherrscht 14 indische Sprachen und ist dazu in der Lage, Modis Worte simultan zu übersetzen. Ähnliche Modelle könnten zukünftig für die Wählerbindung aus Sicht von Expert:innen eine größere Rolle spielen. Wäre dieses innovative Tool auch etwas für deutsche Politiker:innen, die für ihren eigenwilligen Dialekt bekannt sind? Oder könnten Deutsche mit Migrationsgeschichte durch Ansprache in ihrer Muttersprache besser erreicht werden?

Eine Frau und ein Mädchen sitzen vor einem TV, in welchem Narendra Modi zu sehen ist.

USA - KI revolutioniert Meinungserfassung

In den USA setzt man in puncto Daten- und Meinungserfassung auf KI-Bots, die die Arbeit Tausender Telefonwahlkämpfer:innen übernehmen. Was bewegt die Wähler:innen? Womit sind sie unzufrieden? Die Kongress-Kandidatin Shamaine Daniels von den Demokraten setzte zuletzt den KI-Bot "Ashley" für ihre Kampagne ein. "Ashley" passt ihre Fragen und Antworten in Telefongesprächen an sämtliche verfügbaren Daten über die angerufene Person an. Die Macher:innen geben an, dass "Ashley" eine unendliche Anzahl von individuellen Einzelgesprächen in bis zu 20 Sprachen gleichzeitig führen kann.

Pakistan - KI-Kampagne aus der Haft

Selbst hinter Gittern entfaltet Künstliche Intelligenz ihre Wirkung. Imran Khan, einstiger Präsident in Pakistan und aktueller Präsidentschaftskandidat, ist wegen mehrerer Vorwürfe – darunter Korruption – zu langjährigen Haftstrafen verurteilt worden. Nun sendet er in Haft niedergeschriebene Reden durchs Land. Seine Stimme und sein Aussehen werden hierfür mit Hilfe Künstlicher Intelligenz technisch imitiert.

An dieser Stelle finden Sie einen externen Inhalt, der den Inhalt ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

Die gefährlichsten Deepfakes

Sogenannte Deepfakes sind Meister der Täuschung. Dabei handelt es sich um künstlich erzeugte Inhalte, die bekannte Persönlichkeiten und Orte so perfekt darstellen, dass sie fälschlicherweise authentisch erscheinen. Tommaso Canetta, stellvertretender Direktor der Europäischen Beobachtungsstelle für digitale Medien (EDM), betont, dass KI-generierte Audios das größte Potenzial für Deep-Fakes bieten. Während bei Texten bereits die Annahme besteht, dass sie von Fremden erstellt wurden, und Videos oft an Qualität vermissen lassen, sind Audios sowohl authentisch als auch leicht zu generieren. 

Dies wurde während der slowakischen Wahlen 2023 deutlich, als Michal Šimečka, Vorsitzender der Fortschrittspartei, Opfer einer Desinformationskampagne wurde. Eine gefälschte Audio-Aufnahme, auf der angeblich zu hören ist, wie er mit einem Journalisten über Wahlmanipulationen spricht, wurde kurz vor der Präsidentschaftswahl online verbreitet. In dem "Gespräch" wurde auch behauptet, dass man den Bierpreis im Land verdoppeln wolle. Ministerpräsident wurde mit kleinem Vorsprung der prorussische Kandidat Robert Fico.

Verhaltenskodex im Europawahlkampf

Diese Beispiele zeigen: Der Einsatz von KI im Wahlkampf kann innovative Lösungen hervorbringen und die Wähleransprache verbessern. Gleichzeitig stehen aber auch Datenschutz, Transparenz und Fairness auf dem Prüfstand. Politische Akteur:innen und Technologieunternehmen suchen derweil nach Wegen, die Chancen von KI zu nutzen, ohne dabei die Integrität demokratischer Prozesse zu gefährden.

In diesem Spannungsfeld hat die Europäische Union zum Beispiel einen KI-Verhaltenskodex für Parteien beim Europawahlkampf entwickelt. Die Unterzeichner:innen verpflichten sich darin, mit künstlicher Intelligenz erzeugte Inhalte eindeutig zu kennzeichnen. Alle Parteien bis auf den rechtspopulistischen Parteienzusammenschluss "Identität und Demokratie", dem auch die AfD angehört, haben den Kodex unterzeichnet. Der Verhaltenskodex ist allerdings keineswegs bindend.

KI-Einsatz - Deutsche Parteienlandschaft

Eine Anfrage des Redaktionsnetzwerk Deutschlands an die deutsche Parteienlandschaft ergibt ein gemischtes Bild bezüglich des Einsatzes von KI im Wahlkampf: Die SPD hat bisher keine generative KI genutzt, betont jedoch die Notwendigkeit transparenter Kennzeichnungen für KI-generierte Inhalte. Die Grünen setzen punktuell KI im Datenmonitoring und in der Social-Media-Erstellung ein, lehnen aber die Nachahmung von Stimmen oder Erscheinungsbildern ohne ausdrückliche Zustimmung der abgebildeten Person ab. Die FDP sieht Chancen für bürgernahe Kommunikation durch KI, verpflichtet sich jedoch zu absoluter Transparenz bei deren Einsatz. Auch Die Linke und CDU gaben an, mit KI erstellte Bildinhalte auf jeden Fall zu kennzeichnen.

Die AfD nutzt regelmäßig generative KI in ihrer Social-Media-Kommunikation, ohne dies immer zu kennzeichnen. Ein AfD-Kreisverband verbreitete etwa ein KI-generiertes Bild einer jungen Frau, die angeblich der Partei beigetreten war. Ein weiteres Bild eines jungen Mannes wurde ebenfalls geteilt und später entfernt. Der AfD-Ortsverband Unteres Filstal verwendete auf Social Media ein KI-generiertes Bild, das fünf Männer vor Wohncontainern zeigt, um Bedenken hinsichtlich der Unterbringung von Geflüchteten zu äußern. Diese kennzeichnungsfreie Verwendung von KI-Inhalte wird jedoch durch den europäischen AI-Act in Zukunft unterbunden.

Mit KI erzeugter Instagram-Post der AfD-Göppingen.

Implikationen des AI-Acts

Mit dem im März verabschiedeten AI-Act legt die Europäische Kommission neue einheitliche Rahmenbedingungen für KI-Systeme fest. Systeme werden je nach ihrer Tragweite für die Gesellschaft in vier Risikostufen eingeteilt. Anbieter von KI-Systemen, die Deepfakes in Form von Bild-, Audio- oder Videoinhalte erzeugen, müssen kennzeichnen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Dabei besteht allerdings die Befürchtung, dass eine solche Kennzeichnung von digital versierten Personen relativ leicht entfernt werden könnte.

Künstliche Intelligenz, die für den Wahlkampf eingesetzt wird, wird als hochriskant eingestuft und muss zukünftig genaue Auskunft darüber geben, mit welchen Daten das System gefüttert wurde und protokollieren, wie die Ergebnisse durch die KI entstehen. Warum? Zum Beispiel ist es oft nicht möglich, herauszufinden, warum ein KI-System gewisse Ergebnisse liefert. So kann es schwierig werden, zu beurteilen, ob jemand ungerechtfertigt benachteiligt wurde. Eine Studie der NGO "Democracy Reporting International" unterstreicht dieses Problem, indem sie belegt, dass Chatbots wie ChatGPT und Co. falsche Antworten zu den unterschiedlichen Positionen von Parteien im Europawahlkampf liefern. Wer also Chatbots heranzieht, um seine Wahlentscheidung zu fällen, kann fehlgeleitet werden. 

Handy mit Chat mit ChatGPT

Selbstkontrolle der Plattformen

Der AI-Act tritt voraussichtlich im Mai 2024 in Kraft und wird zwei Jahre nach seinem Inkrafttreten anwendbar sein. Social-Media-Plattformen reagieren jedoch bereits selbständig auf künstliche Intelligenz im Wahlkampf. Meta, der Betreiber von Facebook und Instagram, gab bekannt, dass KI-Inhalte auf den Social-Media-Plattformen automatisch gekennzeichnet werden sollen. Eine hauseigene Technologie soll zum Einsatz kommen, um mit KI erstellte Beiträge anhand deren Metadaten automatisch zu erkennen. Anschließend werden die Beiträge mit der Kennzeichnung "Made with AI" versehen. Die neuen Kennzeichnungen sollen im Mai eingeführt werden. Zum Juli will Meta dann den bisherigen restriktiveren Umgang mit KI-Inhalten aufgeben. Neben Meta haben weitere große US-Techunternehmen wie Microsoft, Google und OpenAI Maßnahmen zur Kennzeichnung KI-generierter Inhalte beschlossen.

OpenAI, der Hersteller von ChatGPT, plant, Wasserzeichen in seinen Bildgenerator Dall-E zu integrieren und den Einsatz von ChatGPT zur Erstellung von Texten für politische Kampagnen zu untersagen. OpenAI räumt jedoch gleichzeitig die Grenzen dieses Ansatzes ein und verweist auf die Leichtigkeit, mit der Metadaten entfernt werden können. Google plant ebenfalls einen Strategiewechsel im Kampf gegen Deepfakes: Statt nur nachträglich Desinformation zu erkennen, möchte der Konzern bereits im Voraus darüber informieren, welche Falschinfos in Zukunft auftauchen könnten, und das mit einer Videokampagne vorab kommunizieren.