06.10.2025
StartAIDeepfakes & Co. im Wahlkampf: Diese Regeln gelten leider (noch) nicht

Deepfakes & Co. im Wahlkampf: Diese Regeln gelten leider (noch) nicht

Published on

Berlin – Der Wahlkampf zur Bundestagswahl 2025 hat begonnen und pünktlich flammt die Debatte um KI-generierte Inhalte wieder auf. Wir geben einen Überblick, was in der im August 2024 in Kraft getretenen KI-Verordnung zukünftig geregelt ist und welche Risiken aktuell bestehen, bis die entsprechenden Regelungen Anwendung finden.

KI-Systeme, die eingesetzt werden, um das Ergebnis einer Wahl, eines Referendums oder des Abstimmungsverhaltens natürlicher Personen zu beeinflussen, gelten zukünftig als Hochrisiko-Systeme. Anbieter solcher Systeme müssen dann zahlreiche Pflichten erfüllen in Bezug auf Transparenz, Sicherheit, Dokumentation und Risikomanagement. Diese Regelungen gelten jedoch erst ab August 2026, kommen also für die Bundestagswahl 2025 viel zu spät.

Die Transparenzpflichten in Artikel 50 sehen vor:

  1. Grundsätzlich müssen Anbieter von KI-Systemen sicherstellen, dass Nutzende wissen, dass sie mit einem KI-System interagieren – sofern es einen direkten Kontakt gibt, wie beispielsweise mit einem Chatbot, der auf einer Webseite Besucher*innen Fragen beantwortet. Ein System, das nur im Hintergrund zum Einsatz kommt, zum Beispiel als Werkzeug zur Organisation von E-Mails, muss unter Umständen nur den Beschäftigten einer Organisation angekündigt werden.
  2. Werden KI-generierte Inhalte veröffentlicht oder in Umlauf gebracht, müssen sie maschinenlesbar als solche gekennzeichnet werden und als künstlich erzeugt oder manipuliert erkennbar sein. Die rechtliche Verantwortung dafür liegt beim Anbieter des Systems, also der Organisation, die das System entwickelt und auf den Markt gebracht hat. Betreibende eines KI-Systems müssen sicherstellen, dass diese Kennzeichnung auch tatsächlich erfolgt. Das gilt auch für Sprachinhalte, wie zum Beispiel Anrufe. Betreiber eines KI-Systems sind diejenigen Organisationen, die ein KI-System für ihre Zwecke verwenden.
  3. Bei Inhalten, bei denen es sich offensichtlich um Kunstwerke, Kreativwerke, Satire oder Fiktion handelt, ist offenzulegen, wenn KI zum Einsatz kam. Die Offenlegung kann so erfolgen, dass der Genuss des Werks nicht beeinträchtigt wird. Eine kleine Anmerkung an einem Bildrand ist also ausreichend.
  4. Künstlich generierte Textinhalte, die der öffentlichen Information dienen, müssen nur dann gekennzeichnet werden, wenn keine menschliche, natürliche Person den Text redaktionell bearbeitet hat und die redaktionelle Verantwortung übernimmt.
  5. Die Kennzeichnung muss eindeutig sein und beim ersten Kontakt mit dem Inhalt erkennbar sein.
  6. Bei gekennzeichneten Inhalten diese Kennzeichnung zu entfernen und sie dann weiterzuverbreiten, verletzt die Transparenz-Anforderungen.

KI-Systeme, die lediglich als Werkzeuge zur Organisation, Optimierung oder Strukturierung politischer Kampagnen dienen, gelten nicht als Hochrisiko-Systeme.

Diese Regeln gelten jedoch erst ab August 2026. Aktuell schützen strafrechtliche Regelungen die Persönlichkeitsrechte von Personen, die in Online-Formaten dargestellt werden. Eine speziell auf Deepfakes zugeschnittene Vorschrift zum Persönlichkeitsschutz existiert derzeit im Strafgesetzbuch noch nicht.

Kilian Vieth-Ditlmann, stellvertretender Leiter des Policy- & Advocacy-Teams, ordnet ein: „Die KI-Verordnung kommt für den Bundestags-Wahlkampf 2025 leider zu spät. Die ersten Verbote greifen zwar ab dem 2. Februar 2025. Dazu gehören unter anderem Datenbanken zur Gesichtserkennung. Die Transparenzpflichten der Verordnung gelten jedoch erst ab August 2026. Und auch dann wird es nicht ausbleiben, dass in der Praxis Inhalte auch ohne erkennbare Kennzeichnung weiterverbreitet werden und es auch Ausnahmen für die Kennzeichnungspflicht gibt. Das so genannte KI-Büro der EU-Kommission, das für die KI-Verordnung zuständig ist, wird Praxisleitfäden erarbeiten. Wann sie in Deutschland zur Anwendung kommen, ist derzeit unklar, zumal die Neuwahl die Umsetzung der KI-Verordnung in Deutschland weiter verzögern wird. Wir unterstützen den Ansatz, dass Parteien sich für den Wahlkampf auf Regeln einigen, wie mit KI umgegangen werden soll.“

Oliver Marsh, Head of Tech Research bei AlgorithmWatch, ergänzt: „Wir konnten weltweit bisher keinen offensichtlichen Einfluss von KI-generierten Inhalten auf Wahlergebnisse beobachten. Wir sehen jedoch, dass Plattformen nicht genügend gegen Falsch- und Desinformationen tun. Dazu gehören auch im politischen Kontext frauenfeindliche oder andere diskriminierende Deepfakes. Es ist wissenschaftlich schwer nachweisbar, ob – und wenn ja welchen – Einfluss diese Entwicklungen auf die politische Meinungsbildung haben. Ein kritischer Medienkonsum, die Suche nach weiteren Quellen und ein starker, auch öffentlich-rechtlicher Journalismus sind die beste Vorsorge vor ungewollter Beeinflussung.“

Untersuchungen von AlgorithmWatch zeigen, dass Chatbots, wie ChatGPT und Copilot von Microsoft, Skandale über Politiker*innen erfinden und falsche Informationen zu Wahlen, zum Beispiel falsche Wahltermine, angeben.

Wenn immer mehr Menschen Chatbots wie Suchmaschinen nutzen, um sich vor und über Wahlen zu informieren, kann dies den Zugang zu verlässlichen Informationen und die politische Meinungsbildung beeinträchtigen. Tech-Unternehmen müssen hier ihrer Verantwortung gerecht werden und dafür sorgen, dass Chatbots zu demokratiesensiblen Themen nicht antworten. Denn sie können nicht dafür garantieren, dass ihre Antworten korrekt sind.

More like this

< recent >

< most read >

< icymi >