Wie verändert KI die Gesellschaft?
Prof. Dr. Jessica Heesen, Leiterin der Forschungsgruppe Medienethik, Technikphilosophie und KI am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen.
Dank generativer KI ist es einfach wie nie, Texte, Bilder oder Videos nach individuellen Vorgaben zu erzeugen. Das eröffnet enorme Möglichkeiten – und Risiken.
1. Wie wirkt sich KI auf gesellschaftliche Entscheidungsprozesse aus?
Jessica Heesen: Künstliche Intelligenz wird zur Unterstützung verschiedenster Entscheidungsprozesse unterschiedlicher gesellschaftlicher Relevanz genutzt. Im Kleinen – wenn es zum Beispiel darum geht, Schülerinnen und Schüler optimal auf unterschiedliche Grundschulen zu verteilen. Große, strukturell bedeutsame Entscheidungsprozesse betreffen etwa, was wir in den Sozialen Medien zu sehen bekommen oder wie Verkehrsströme gelenkt werden. Nehmen algorithmische Entscheidungssysteme direkt Einfluss auf die politische Steuerung, spricht man von Algorithmic Governance. Beispiele sind die vorhersagende Polizeiarbeit (Predictive Policing), Anwendungen für die Gesundheits-, Energie- und Wasserversorgung in Smart-City-Konzepten oder Systeme für die automatisierte Grenzkontrolle. Bei all diesen Anwendungen sollen KI-Systeme insbesondere durch Mustererkennung den Menschen entlasten und seine Entscheidungen unterstützen – nicht aber ersetzen. Das ist ein wichtiger Punkt. Menschliche Aufsicht und Entscheidungshoheit müssen in rechtlicher und ethischer Perspektive stets gewahrt werden. Oft aber werden in der Praxis Entscheidungen aus Zeitnot, mangelnden Kompetenzen und falschem Vertrauen ganz an KI-Systeme delegiert.
2. Welche Fähigkeiten sollten Menschen haben, um KI-Inhalte zu erkennen und kritisch einzuordnen?
Jessica Heesen: Auch hier muss die riesige Spannbreite von KI-Anwendungen betrachtet werden. Wir sehen im Moment einerseits einen Boom von KI-generierten Bild- und Videoinhalten, die vor allem in Sozialen Medien wie TikTok genutzt werden. Hier ist von AI Spam und AI Slop die Rede, weil diese Inhalte billig gemacht und nur auf schnelle Klickzahlen ausgelegt sind. Solche Inhalte haben einen indirekten Effekt auf Demokratie, weil sie öffentliche Kommunikationsangebote verramschen und Aufmerksamkeit mit maschinellen Inhalten ohne Relevanz binden. Andererseits sehen wir KI-generierte Zusammenfassungen in Suchmaschinen, die – wenn sie denn richtig sind – es einfacher oder sogar barrierefrei möglich machen, Wissen kompakt und niedrigschwellig zugänglich zu machen. Bei sinnvollem wie auch fragwürdigem KI-Content müssen wir uns jedoch immer bewusst machen, dass er auf Inhalten beziehungsweise Daten beruht, die ursprünglich von Menschen erzeugt und erdacht wurden. Mehr und mehr könnte dieser Datenfundus durch KI-Inhalte abgelöst werden, aus denen sich wiederum generative KI im Internet bedient. Dadurch geht die Verifizierbarkeit der Inhalte verloren und ihre Faktentreue wird zunehmend fragwürdig. Ein Beispiel für eine rekursive Nutzung von KI-generierten Inhalten durch KI war 2023 die systematische Falschdarstellung von Pfauenküken, die ihren Weg in etablierte Suchmaschinen fand.
3. Fake News und Deepfakes zu erstellen und zu verbreiten ist mit KI einfach wie nie. Was macht das mit unserer Gesellschaft?
Jessica Heesen: Die Verbreitung von Desinformation ist eine ernste Bedrohung der Demokratie. KI-Anwendungen im Social-Media-Bereich können sogar Formen der hybriden Kriegsführung unterstützen. Das können absichtlich gestreute, durch KI manipulierte Ton- und Videoaufnahmen sein, die als vermeintliche Beweise dienen, oder auch künstlich erzeugte Meinungsführer in textbasierten Foren. Menschen sind noch daran gewöhnt, Videos und Tonaufnahmen großen Glauben zu schenken. Aber die Zeiten, als man seinen Augen trauen konnte oder meinte, eine Stimme sei unverwechselbar, sind vorbei. Auch wenn von Bildern und bekannten Stimmen eine starke Suggestionskraft ausgeht, müssen wir mit der Möglichkeit rechnen, dass sie durch KI manipuliert oder erzeugt wurden. Aber nicht nur offensichtliche KI-Fälschungen sind ein Problem, sondern auch die Nutzung von KI für Personalisierungen und Microtargeting. KI perfektioniert die digitalen Überwachungsinfrastrukturen, die ohnehin durch die Plattformökonomie grundgelegt sind, und ermöglicht das gezielte Ausspielen bestimmter Inhalte an Personen, die dafür besonders empfänglich sind. Das kann zu passgenauer und erwünschter Information führen, aber auch zu einer manipulativen und selektiven Auswahl von Inhalten.
4. Wie lässt sich erreichen, dass Bürgerinnen und Bürger mehr von KI profitieren, als dass sie ihnen schadet?
Jessica Heesen: Ich betrachte KI-Anwendungen für die Kommunikation als Medien. Das heißt unter anderem, sie zeigen nur einen bestimmten Ausschnitt der Realität und können Falschinformationen verbreiten. Sie können aber auch genutzt werden, Informationen besser zu vermitteln und einen Beitrag zur öffentlichen Verständigung zu leisten. Zentral für solch eine demokratische Nutzung wäre, dass KI für die Infrastrukturen der öffentlichen Kommunikation in den Händen ihrer Nutzerinnen und Nutzer läge. Die demokratische Funktion von Medien besteht in der Unterstützung der Informationsverbreitung, der Meinungsbildung und der Verständigung nach anerkannten Qualitätsstandards. Das bedeutet für KI in der öffentlichen Kommunikation, dass Formate und Inhalte unterstützt werden, die relevante Inhalte, Gruppen und Initiativen für das Gemeinwohl priorisieren. Im Moment ist es so, dass Inhalte, die besonders hohe Werbeeinnahmen in ihrem Umfeld erzielen, bevorzugt werden. Die momentane Infrastruktur für KI kann verglichen werden mit einem Straßennetz, das großen US-Unternehmen gehört, die damit sehr viel Geld verdienen. Wir dürfen darauf fahren, aber sie bestimmen über die Wege ans Ziel, die Ampelschaltungen und die Geschwindigkeit. Das würden wir als Gesellschaft niemals dulden, aber in Bezug auf die Online-Kommunikation haben wir diese Zustand leider als normal akzeptiert.