PLS-Panel auf der re:publica: Politische Meinungsbildung in Zeiten generativer KI

Täuschend echt wirkende Fotos oder Videos erstellen und verbreiten – dank generativer Künstlicher Intelligenz (KI) und Empfehlungsalgorithmen so einfach wie nie. Was bedeutet das für den demokratischen Diskurs, etwa im Vorfeld von Wahlen? Gefährden KI-generierte Inhalte das Vertrauen der Bürgerinnen und Bürger in Medien und Politik? Können sie Wahlentscheidungen beeinflussen? Und birgt KI auch Chancen für die Demokratie? Auf der re:publica 2024, die Ende Mai in Berlin stattfand, diskutierten ExpertInnen der Plattform Lernende Systeme dazu auf einem Panel.

Panel auf der re:publica (v.l.n.r.): Jessica Heesen, Christoph Neuberger, Christina Badde, Christoph Bieber

Im Superwahljahr 2024 sind weltweit mehr als zwei Milliarden Menschen zu Wahlen aufgerufen – etwa zur Wahl des Europäischen Parlaments, der Regierung in drei ostdeutschen Bundesländern und des US-Präsidenten. Für die politische Meinungsbildung spielen das Internet und soziale Medien eine wichtige Rolle. Welche Meldungen den Nutzenden ausgespielt werden, wird zunehmend durch KI-Algorithmen beeinflusst. Hinzu kommt: Seit dem Durchbruch von ChatGPT und weiterer generativer KI-Systeme lassen sich gefälschte Bilder und Videos – so genannte Deep Fakes – so überzeugend und einfach wie nie erstellen. Die Möglichkeiten für Manipulation und Desinformation sind damit drastisch gestiegen.

Ob KI-Systeme die Wahlentscheidung von BürgerInnen beeinflussen, lässt sich empirisch noch nicht belegen – dafür ist die technologische Entwicklung zu rasant und es für die Forschung aktuell noch schwierig, Zugang zu relevanten Daten der Internet-Plattformen zu erhalten, so Christoph Neuberger, Professor für Publizistik- und Kommunikationswissenschaft an der Freien Universität Berlin, Direktor des Weizenbaum-Instituts und Mitglied der Plattform Lernende Systeme. Zu beobachten sei jedoch, dass KI-generierte Inhalte oft Triggerthemen aufrufen und zur Polarisierung von Meinungen beitragen.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Wem trauen wir künftig noch?

Echt wirkende manipulierte Bilder oder Video-Aufnahmen von PolitikerInnen oder NachrichtensprecherInnen können für Unsicherheit bei BürgerInnen sorgen und das Vertrauen in mediale Inhalte untergraben, ergänzte Christoph Bieber, Professor für Politikwissenschaft am Center for Advanced Internet Studies (CAIS) und Mitglied der Plattform Lernende Systeme. Schaden verursachten Deep Fakes auch in Form von Mehraufwand, da mediale Inhalte aufgrund der Möglichkeiten von generativer KI stets einer genauen Prüfung unterzogen und gegebenenfalls richtiggestellt werden müssten.

Was tun gegen KI-unterstützte Desinformation? Technologische Tools können nur bedingt unterstützen, die Entwicklung gleicht einem Hase-und-Igel-Rennen. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI an der Universität Tübingen und Co-Leiterin der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme forderte eine Kennzeichnungspflicht für synthetisch erzeugte Inhalte, um das Vertrauen in klassische Medien zu stärken, schränkte allerdings ein: Daran halten werden sich nur die Gutwilligen. Die Medienkompetenz der BürgerInnen muss daher weiter gestärkt werden, so Christoph Bieber. Flankierend dazu plädierte Christoph Neuberger für Institutionen und Intermediäre, die die BügerInnen unterstützen, gut gemachte Desinformation zu erkennen.

Gefragt: Eine positive Vision von KI

Bei allen Herausforderungen bietet KI aber auch Chancen für den demokratischen Diskurs, so eine Erkenntnis der Diskussion. Mit Hilfe von KI-Algorithmen ließen sich etwa Hassbotschaften im Netz aufspüren, die Wahlprogramme von politischen Parteien oder der öffentliche Diskurs zu komplexen Themen verständlich zusammenfassen. Für JournalistInnen seien KI-Tools ein zunehmend wichtiges Werkzeug bei investigativen Recherchen.

Künstliche Intelligenz ist eine Technologie, die bleiben wird und die es daher zu gestalten gilt. Jessica Heesen wies darauf hin, dass für die Entwicklung von KI-Tools interdisziplinäre Ansätze nötig sind, die von vornherein auch ethische Aspekte berücksichtigen, so genanntes „Ethics by Design“. Als Gesellschaft müssen wir uns fragen: Was kann die Technologie beitragen, um Werte wie Wahrheit, Wahrhaftigkeit, Gleichheit und Zusammenhalt zu stärken?, so Christoph Neuberger. Hierfür gelte es, eine positive Vision anzustoßen.

Die Paneldiskussion auf der re:publica fand im Rahmen des vom Bundesministeriums für Bildung und Forschung (BMBF) ausgerufenen „Wissenschaftsjahres 2024 – Freiheit“ statt. Moderiert wurde die Diskussion von Christina Badde.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück