AI Act
Der Artificial Intelligence Act (AI Act) ist eine 2024 verabschiedete Verordnung der Europäischen Union (EU). Sie regelt die Entwicklung und den Einsatz von KI-Systemen und schafft damit einen verbindlichen Rechtsrahmen in der EU. Ziel ist es, vertrauenswürdige KI zu gestalten, die entsprechend europäischer Wertvorstellungen eingesetzt wird. So sollen KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sein. Gleichzeitig soll die Verordnung KI-Technik und -Forschung innerhalb der EU wettbewerbsfähig halten und Innovationen fördern. Weltweit ist der AI Act das erste transnationale KI-Regelwerk seiner Art.
Algorithmen
Ein Algorithmus ist eine genaue Berechnungsvorschrift für einen Computer, eine Aufgabe zu lösen. Eine besondere Klasse von Algorithmen sind Lernalgorithmen: Dabei handelt es sich um Verfahren des maschinellen Lernens, die aus Beispieldaten (Lerndaten oder Trainingsdaten) ein Modell abstrahieren, das auf neue Beispieldaten angewendet werden kann.
Autoencoder
Ein Autoencoder ist ein Verfahren von generativen KI-Systemen, das aus zwei Hauptteilen besteht: Der Encoder verwandelt ein Bild in einen kompakten Vektor, der Decoder rekonstruiert daraus das Originalbild oder erzeugt ein neues Bild. Der Vektor ist viel kleiner als das ursprüngliche Bild, was den Autoencoder zwingt, wichtige Merkmale effizient zu speichern. Autoencoder werden verwendet, um Bilder zu komprimieren und neue Bilder zu erzeugen.
Automation Bias
Automation Bias bezeichnet die menschliche Tendenz, Algorithmen und deren Empfehlungen und Entscheidungen ein Übermaß an Vertrauen entgegenzubringen und gegenüber menschlichen Einschätzungen den Vorrang zu geben. Diese Voreingenommenheit ist besonders ausgeprägt in Umgebungen, in denen Entscheidungen durch computergestützte Systeme begleitet werden, etwa in der Luftfahrt, der medizinischen Diagnose und bei Finanzprognosen.
Deep Learning
Deep Learning ist eine Methode des maschinellen Lernens in künstlichen neuronalen Netzen. Diese umfassen mehrere Schichten – typischerweise eine Eingabe- und Ausgabeschicht sowie mehr als eine „versteckte“ dazwischenliegende Schicht. Die einzelnen Schichten bestehen aus einer Vielzahl künstlicher Neuronen, die miteinander verbunden sind und auf Eingaben von Neuronen aus der jeweils vorherigen Schicht reagieren. Angewendet wird Deep Learning bei der Bild-, Sprach- und Objekterkennung sowie dem verstärkenden Lernen.
Deepfake
Deepfakes sind täuschend echt wirkende Bild-, Audio- oder Videoaufnahmen, die mithilfe von Deep Learning – also dem maschinellen Lernen mit tiefen neuronalen Netzwerken – erzeugt oder so manipuliert werden, dass Inhalte oder auftretende Personen verfälscht werden. Die Methoden sind vielfältig: Personen können in einen beliebigen Kontext gesetzt werden, Stimmen imitiert oder neu erschaffen werden, gehaltene Reden lippensynchron abgeändert werden. Mit der technologischen Entwicklung wird es zunehmend schwierig, Deepfakes unmittelbar als solche zu erkennen. Der Begriff ist ein englisches Kofferwort aus den Begriffen „Deep Learning“ und „Fake“.
Desinformation
Desinformation meint die Verbreitung von irreführenden und falschen Informationen, mit dem Ziel, Menschen vorsätzlich zu täuschen oder zu beeinflussen. Dabei kann es sich um frei erfundene, aus dem Zusammenhang gerissene, zugespitzte oder lückenhafte Informationen handeln. Neben Texten können mit Hilfe von KI auch Bilder und Videos gefälscht werden. Desinformation kann von einzelnen Akteuren ausgehen oder eine Strategie von Staaten sein, um in die politischen Prozesse anderer Staaten einzugreifen.
Diffusionsmodelle
Ein Diffusionsmodell ist ein KI-Verfahren zur Generierung von synthetischen Bildern. Im Training wird dazu ein Bild zufällig minimal verändert. Es entsteht ein kleines, zunächst kaum wahrnehmbares Rauschen – eine Störung bei Farbkontrast oder Helligkeit. Dieser Schritt wird so lange wiederholt, bis aus dem Bild ein ungeordnetes Rauschen entstanden ist. Diesen Prozess lernt das Modell dann umzukehren: Es generiert ein neues – synthetisches – Bild, indem es das Rauschen Schritt für Schritt wieder entfernt.
Diskriminierung
Diskriminierung meint die Ungleichbehandlung und gesellschaftliche Benachteiligung auf Grundlage von kategorialen Unterscheidungen. Diese basieren auf Gruppenzuschreibungen wie Geschlecht, Religion oder ethnischer Zugehörigkeit und können sowohl direkt als auch indirekt erfolgen. Diskriminierung ist ein komplexes System sozialer Beziehungen und umfasst neben individuellen Vorurteilen auch institutionelle und strukturelle Mechanismen, die Benachteiligung hervorrufen.
Expertensysteme
Ein Expertensystem ist ein Computerprogramm, das Wissen zu einem speziellen Gebiet repräsentiert, anreichert und daraus zu einem konkreten Problem automatisch Schlussfolgerungen ziehen kann. Dazu muss das Expertenwissen in Form von Fakten und Regeln (Wenn-dann-Aussagen) formalisiert und eingegeben werden. Als symbolische KI sind die meisten Expertensysteme logikbasiert und gelten im Allgemeinen als nachvollziehbarer als andere Formen der KI.
Face-Reenactment
Beim Face-Reenactment lassen sich in Videodateien Mimik, Kopf- und Lippenbewegungen einer Person verändern. Das Gesicht selbst bleibt erhalten. Zu einem vorgegebenen Text werden passende, synthetisch erzeugte Lippenbewegungen und Gesichtsausdrücke erstellt. Dafür wird von einer ausgewählten Person aus einem Videostream ein 3D-Modell erstellt. Dieses Gesichtsmodell kann mithilfe eines zweiten Videostreams einer anderen Person kontrolliert werden. So können einer Person durch Unterlegung einer passenden Audiospur täuschend echte Aussagen in den Mund gelegt werden, die sie in der Realität nie getätigt hat.
Face-Swapping
Face-Swapping ist ein Verfahren zum Gesichtstausch in einer Bild- oder Videodatei. Neuronale Netze lernen dabei aus einem Gesichtsbild die wichtigsten Mimik- und Beleuchtungsinformationen kodiert auszulesen und daraus ein entsprechendes Gesichtsbild zu erzeugen. Mit diesem wird das Gesicht einer anderen Person in Bildern oder Videos ersetzt.
Fake News
Fake News sind Falschnachrichten in Form von Text, Fotos oder Videos. Sie werden häufig über elektronische Kanäle, bevorzugt über soziale Medien, verbreitet. Erkennbar sind sie beispielsweise an reißerischen Überschriften oder fehlenden Urheber- und Quellenangaben.
Generative Adversarial Networks (GAN)
Generative Adversarial Networks (GANs) sind Algorithmen, bei denen zwei neuronale Netze, der Generator und der Diskriminator, miteinander konkurrieren. Der Generator erstellt Bilder aus Zufallsrauschen und der Diskriminator bewertet, ob diese Bilder echt oder künstlich sind. Dieser Vorgang wird so lange wiederholt, bis der Diskriminator die generierten Bilder nicht mehr als solche erkennen kann.
Generative KI
Generative KI-Systeme werden mit großen Datensätzen trainiert und sind in der Lage, Inhalte wie Text, Programmcode, Videos oder Bilder zu erzeugen. Sie stützen sich dabei auf große Rechenleistung und spezielle Algorithmen, die unter anderem auf dem so genannten Transformer-Modell basieren. Bekannte generative KI-Systeme sind ChatGTP (Open AI), Gemini (Google) und LLaMA (Meta).
Halluzinieren
Von Halluzinieren spricht man in der KI, wenn ein Sprachmodell falsche Informationen erzeugt. Diese erscheinen oft plausibel, da sie flüssig und kohärent in Texte eingebettet sind. Zu falschen Informationen kommt es, weil Sprachmodelle kein Verständnis für die zugrunde liegende Realität haben, sondern ihre Ergebnisse allein auf Basis von Wahrscheinlichkeiten erzielen – selbst wenn sich aus den Trainingsdaten keine korrekte Antwort ableiten lässt.
Künstliche Intelligenz
Künstliche Intelligenz (KI) ist ein Bereich der Informatik, der darauf abzielt, Computersystemen kognitive Fähigkeiten wie Lernen, Planen und Problemlösen zu vermitteln. Der Begriff wurde 1956 geprägt. Ziel moderner KI-Systeme ist es, Maschinen, Roboter und Softwaresysteme zu befähigen, abstrakt beschriebene Aufgaben und Probleme eigenständig zu bearbeiten und zu lösen, ohne dass jeder Schritt vom Menschen vorab programmiert wird. Dabei sollen sich die Systeme auch an veränderte Bedingungen und ihre Umwelt anpassen können.
Maschinelles Lernen
Maschinelles Lernen ist eine grundlegende Methode der Künstlichen Intelligenz (KI). Sie zielt darauf, dass Maschinen ohne explizite Programmierung eines konkreten Lösungswegs automatisiert sinnvolle Ergebnisse für eine gestellte Aufgabe liefern. Spezielle Algorithmen lernen dabei aus vorliegenden Beispieldaten Modelle, die dann auch auf neue, zuvor noch nicht gesehene Daten angewendet werden können. Dabei werden drei Lernstile unterschieden: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen. Maschinelles Lernen mit großen neuronalen Netzen wird als Deep Learning bezeichnet.
Microtargeting
Microtargeting meint, Medieninhalte adressatengerecht zuzuschneiden und über entsprechende Kanäle auszuspielen. Generative KI verleiht dieser Form der Verbreitung von Inhalten eine neue Dynamik und ermöglicht – etwa im politischen Kontext – eine noch spezifischere Ansprache von Zielgruppen.
Misinformation
Misinformation meint die Verbreitung von irreführenden und falschen Informationen ohne die bewusste Absicht der Manipulation oder Täuschung. Dies unterscheidet sie von Desinformation. In der Praxis ist es oftmals jedoch kaum zu bestimmen, ob eine böse Absicht des Absenders bestand oder nicht.
Sorgfaltspflicht
Die Einhaltung der journalistischen Sorgfaltspflicht bei der Berichterstattung ist eine wichtige rechtliche Anforderung. Besonders relevant ist sie, wenn die Berichterstattung die Persönlichkeitsrechte Dritter betrifft. Im Rahmen der Sorgfaltspflicht sind Journalistinnen und Journalisten für Inhalt, Herkunft und Wahrheitsgehalt von Nachrichten verantwortlich. Dies bedeutet unter anderem, dass unbestätigte Meldungen oder Gerüchte, deren Wahrheitsgehalt nicht zweifelsfrei feststellbar ist, als solche gekennzeichnet werden müssen.
Text-to-Speech
Im Text-to-Speech-Verfahren wird zu einem vorgegebenen Text mittels KI ein Audiosignal erzeugt, das sich sowohl für Menschen als auch für eine automatische Spracherkennung wie die Stimme einer vorher definierten Person anhört.
Voice Conversion
Voice-Conversion ist ein KI-basiertes Verfahren, bei dem ein Audiosignal zu einem manipulierten Audiosignal konvertiert wird. Dieses hat den gleichen semantischen Inhalt wie das Ursprungssignal, unterscheidet sich jedoch in der Charakteristik des Sprechenden. Im Idealfall gleicht es der Person, die als Zielperson ausgewählt wurde.
Meinungsbildung
Künstliche Intelligenz & die demokratische Gesellschaft
Wie wirkt sich KI auf gesellschaftliche Entscheidungsprozesse aus?
Wie wir uns eine Meinung bilden, ist wesentlich für eine Demokratie. Diese lebt davon, dass sich Bürgerinnen und Bürger mit ihren Vorstellungen vom Zusammenleben einbringen und dieses mitgestalten. Medien nehmen dabei – neben Freunden und Bekannten – eine herausragende Stellung ein. In den vergangenen Jahren haben sich Meinungsbildungsprozesse immer weiter auf digitale Plattformen verlagert. Dort stehen geprüfte Fakten nahezu gleichberechtigt neben persönlichen Blog-Beiträgen und Verschwörungserzählungen. Während für traditionelle Massenmedien Regeln gelten, die sicherstellen sollen, dass sie ihre einflussreiche Rolle gemäß den Interessen der Gesellschaft erfüllen – etwa sorgfältig und ausgewogen zu berichten – greifen diese bei digitalen Plattformen nicht. Stattdessen gilt: KI-Algorithmen erkennen, was uns interessiert – und passen entsprechend an, welche Inhalte wir zu sehen bekommen. Das kann dazu führen, das Nutzende nur mehr einen Teil des Informationsangebots wahrnehmen.
Wie lässt sich mit KI Meinung machen?
Die Möglichkeiten der sozialen Plattformen fördern den freien Meinungsaustausch. Sie können jedoch auch genutzt werden, um die öffentliche Meinung gezielt zu beeinflussen. Seit jeher haben politische Akteure versucht – vor allem im Vorfeld von Wahlen – die Meinungsbildung durch falsche oder irreführende Informationen zu lenken. Im Zeitalter der Künstlichen Intelligenz bieten sich jedoch ganz neue Möglichkeiten:
- KI-Algorithmen können genutzt werden, um Diskussionen in sozialen Netzwerken zu polarisieren. So manche Weltanschauung kann damit weiter verbreitet scheinen als sie tatsächlich ist.
- Mit Hilfe von generativen KI-Tools wie ChatGPT, Dall-E oder Midjourney ist es einfach wie nie, Textinhalte und täuschend echte Bilder oder Video-Sequenzen zu einem beliebigen Thema zu erstellen. Böswilligen Akteuren eröffnet dies die Möglichkeit, auf überzeugende Weise Falschinformationen (Fake News) und realistische Medieninhalte (Deepfakes) zu erstellen und massenhaft über soziale Plattformen oder Messengerdienste zu verbreiten. Mit fortschreitender Technologie sind die mittels KI erstellten oder manipulierten Beiträge immer schwerer als solche zu erkennen.
Hinzu kommt:
- Das Phänomen des Automation Bias verstärkt die Gefahr von Täuschungen und falschen Entscheidungen. Es ist ein psychologischer Effekt, dass Menschen Algorithmen und deren Empfehlungen und Entscheidungen ein Übermaß an Vertrauen entgegenbringen und gegenüber menschlichen Einschätzungen den Vorrang zu geben.
- Bisweilen erfinden generative Systeme Inhalte, wenn etwa ihre Datenbasis keine geeigneten oder veraltete Quellen enthält. Dieses sogenannte Halluzinieren ist den großen Sprachmodellen wie ChatGPT oder Gemini immanent, denn sie funktionieren allein auf Basis von Daten und Wahrscheinlichkeiten. Ein Verständnis für Inhalte oder ein Wissen darüber, worüber sie keine Auskunft geben können, haben sie nicht.
Wahlberechtigt? Oder doch nicht?
Ich lebe in Deutschland und habe am 8. Mai 2008 Geburtstag. Darf ich bei der Europawahl am 9. Juni wählen?*
ChatGPT: Da Du in Deutschland lebst und am 8. Mai 2008 geboren wurdest, bis Du im Jahr 2024 voraussichtlich mindestens 16 Jahre alt. In Deutschland liegt das Mindestwahlalter für die Europawahl bei 18 Jahren. Daher wirst Du leider nicht berechtigt sein, bei der Europawahl am 9. Juni 2024 zu wählen. Du müsstest 18 Jahre alt sein, um an dieser Wahl teilnehmen zu können.
Eine Halluzination mit weitreichenden Folgen: Für die Europawahl im Juni 2024 waren in Deutschland bereits Bürgerinnen und Bürger ab 16 Jahren wahlberechtigt. Diese im Jahr 2022 durch den Gesetzgeber beschlossene Neuerung war ChatGPT allerdings nicht bekannt. Die Antwort war somit fehlerhaft und hätte in diesem Falle womöglich eine Teilnahme an der Europawahl verhindert.
*Anfrage an GPT 3.5 am 12.04.2024
All das kann die freie und individuelle Meinungsbildung bedrohen. Im Global Risk Report 2024 des World Economic Forum (WEF) rangiert KI-generierte Misinformation und Desinformation an zweiter Stelle der globalen gesellschaftlichen Risiken (hinter Extremwetter-Ereignissen). Tendenz in den kommenden Jahren: steigend.
Kann die freie Meinungsbildung mit KI unterstützt werden?
KI ist eine Technologie, die bleiben und sich weiterentwickeln wird. Sie ermöglicht auch Werkzeuge, mit denen sich Manipulationen aufdecken und Informationen vergleichen lassen. Derartige KI-Tools unterstützen Unternehmen, Medienschaffende, aber auch Polizei und Justiz bereits in ihrer täglichen Arbeit. Viele weitere Anwendungen sind denkbar, in ihre Entwicklung investieren Unternehmen und Regierungen viel Geld. Einige dieser Tools sind auch für die Öffentlichkeit zugänglich und helfen, sich eine differenzierte Meinung zu bilden. Einige Beispiele:
- Aufspüren von Falschinformationen: Das österreichische Startup Factinsect bietet mit seinem gleichnamigen KI-Tool eine sekundenschnelle Überprüfung einer Aussage oder einer Webseite an. Das Detektionssystem listet dabei die Quellen auf, die zu dem Ergebnis geführt haben. Oft sind darunter die Factchecker-Seiten etablierter Medien, auf denen sie geprüfte und widerlegte Aussagen veröffentlichen.
- Umfassende Informationen zu einem Thema: Die App DeepNews durchsucht täglich hunderttausende Artikel und filtert die wichtigsten Themen des Tages oder der Woche heraus. Dazu zeigt sie weitere Berichte aus verschiedenen Quellen an. So können verschiedene Perspektiven zu einem Thema wahrgenommen werden. Das KI-Tool kann auch unterscheiden zwischen hochwertigen Inhalten und Clickbait – also Überschriften, die nur Spektakuläres versprechen, den versprochenen Inhalt aber nicht liefern.
- Analyse von Wahlprogrammen: Qualitativ hochwertige und regulierte Chatbots haben das Potenzial, die Bürgerinnen und Bürger im Vorfeld von Wahlen mit personalisierten Informationen zu versorgen. Passgenaue Antworten auf individuelle Fragen wären eine große Unterstützung für eine informierte Wahlentscheidung.
- Seriöse Quellen: Um Suchergebnisse besser einzuordnen, durchforstet Google mithilfe von KI das Internet in Sekundenschnelle nach Erwähnungen zu dieser Quelle. Das können Wikipedia-Artikel sein, aber auch Warnungen vor ebenjener Quelle. Über die drei Punkte neben den Suchergebnissen können sich Nutzende die „Informationen zu dieser Quelle“ anzeigen lassen.
- Erkennen KI-generierter Texte: KI-Detektoren analysieren Texte und geben an, wie wahrscheinlich es ist, dass diese von einer KI generiert wurden. Sie werden vor allem von Bildungseinrichtungen eingesetzt um (Abschluss-)Arbeiten zu überprüfen. Sie können aber auch eingescannte Dokumente und Briefe analysieren.
Quelle KI-generiertes Bild: www.this-person-does-not-exist.com || Quelle Echtes Bild: www.freepik.com
Ist das real oder ein Deepfake?
„Ich bin nicht Morgan Freeman und das, was Sie sehen, ist nicht real“, sagt Morgan Freeman – oder besser: ein sehr gutes Deepfake von ihm. Das KI-generierte Bild des US-amerikanischen Schauspielers übernimmt die Lippenbewegungen, die Betonung und die Mimik einer sogenannten Quellperson. Für das Video des niederländischen Filmemachers und KI-Künstlers Bob de Jong wurde eine besondere Methode angewendet: Nicht nur das Gesicht, sondern der ganze Kopf zweier gänzlich verschiedener Personen wurde getauscht.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
KI-generierte und -manipulierte Filme zählen aktuell zu den beeindruckendsten Ergebnissen generativer KI. Und mit bloßem Auge lassen sie sich oft kaum als solche erkennen. Die Verfahren, die dahinter stehen, funktionieren auf Basis komplexer neuronaler Netze sowie von Trainingsdaten der Zielperson.
KI und die demokratische Gesellschaft
Weitere Informationen zum Thema Deepfakes finden Sie auf dieser Seite.
Die Gefahren der Manipulation und Irreführung liegen auf der Hand: Personen des öffentlichen Interesses wie Politikerinnen und Politikern können beliebige Worte in den Mund gelegt werden, um sie zu diskreditieren oder ihnen politische Meinungen unterzuschieben. Eine besondere Form der Diskreditierung oder Erpressung sind Deepfake-Pornos, also mithilfe von KI gefälschte pornografische Fotos oder Videos. In 99 Prozent der Fälle sind Frauen Opfer solcher Fakes.
Können Deepfakes auch hilfreich sein?
Technologie für sich ist weder gut noch böse – entscheidend sind Zweck und Absicht, mit der sie genutzt wird.. Das gilt auch für das Erstellen und Bearbeiten von Medieninhalten mittels KI: In vielen Bereichen haben sich bereits nützliche und unterhaltsame Einsatzmöglichkeiten eröffnet. Mit großer Dynamik erscheinen neue Produkte, Initiativen und Experimente, die zeigen: Deepfakes können auch eine Bereicherung für die Gesellschaft sein.
Unterstützung bei polizeilichen Ermittlungen
Tausende ungeklärte Verbrechen, so genannte Cold Cases, liegen in den Akten der Polizei. In den Niederlanden hat die Polizei mithilfe von Deepfake solch einen Fall neu aufgerollt: Anhand von Fotografien und Tonbandaufnahmen wurde eine Filmsequenz erstellt, in der ein Deepfake eines ermordeten 13-jährigen Jungen auftritt. Familie und Freunde des getöteten Jungen bitten die Öffentlichkeit um Hinweise zur Aufklärung des Mordes.
Geschichte lebendig werden lassen
Auch in der Archäologie könnten Deepfakes helfen, anschauliche Porträts zu generieren, wo bisher nur antike Statuen oder Beschreibungen Auskunft gaben. Von vielen historischen Personen liegen zudem Bild- und Tonaufnahmen vor. Mit der Deepfake-Technologie ist es möglich, plausible Interviews und Gespräche mit ihnen zu führen – auf Basis ihrer eigenen Daten, wie Schriften oder Biografien.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Ungeahnte Möglichkeiten für Filmschaffende
In Film und Fernsehen sind Deepfakes als Gestaltungsmittel einsetzbar und ergänzen bisherige digitale, visuelle Effekte. In einem Werbe-Spot der Jeans-Marke Denim wird die Technologie besonders kreativ angewandt: Ein Mann läuft durch ein Labyrinth, das sein Leben symbolisiert und altert beim Gehen immer weiter.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Gefragt: Faktencheck und Medienkompetenz
KI-generierte wie auch klassisch erzeugte Fake News verbreiten sich vor allem in den sozialen Medien rasend schnell. Dort werden sie oft ungeprüft geteilt. Viele Medien haben darauf mit Formaten zur Faktenprüfung reagiert: Indem sie mit journalistischer Expertise dem Wahrheitsgehalt von Meldungen und Bildern nachgehen, bemühen sie sich, das Vertrauen in ihre Seriosität und eine wahrhaftige Berichterstattung zu festigen und die Medienkompetenz der Nutzenden zu stärken. Hier eine Auswahl an journalistischen Angeboten der Faktenprüfung:
Die Veränderungen der Medienlandschaft durch Künstliche Intelligenz führen dazu, dass im Umgang mit Medien neue Kompetenzen nötig werden: ein Verständnis über Funktionsweise und Auswirkungen von KI-Anwendungen sowie ein Bewusstsein für Technologien wie Algorithmen. Nur so lassen sich Medieninhalte einordnen, bewerten und hinterfragen. Medienkompetenz meint immer stärker auch Technologiekompetenz. Und: Medienkompetenz gilt als Schlüssel zur Stärkung der Demokratiekompetenz. Diese wiederum stärkt die Widerstandsfähigkeit gegenüber manipulativen Einflüssen.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Wem trauen wir künftig noch?
Angesicht der Überzeugungskraft von KI-generierten Medieninhalten drängt sich die Frage auf: Was glauben wir im politischen und gesellschaftlichen Diskurs künftig noch? Und wem trauen wir? Fragen, deren Antworten entscheidend sind für eine funktionierende Demokratie. Und sie erhalten eine neue Brisanz, wenn potenziell jedes online veröffentlichte Bild oder Video und jeder Text mit Hilfe von KI manipuliert sein kann. Auf lange Sicht kann so das Vertrauen in politische und journalistische Institutionen untergraben werden. Mehr dazu im Interview mit Prof. Dr. Christoph Neuberger, Direktor des Weizenbaum Instituts und Mitglied der Plattform Lernende Systeme.
Eine effektive Förderung von Medienkompetenz muss praxisorientierte und didaktisch gut aufbereitete Angebote enthalten, Fallbeispiele und die Möglichkeit, mit KI-Tools in Kontakt zu kommen.
Ein Workshop für junge Menschen von 14 bis 21 Jahren, das als Multi-Player-Online-Spiel umgesetzt und pädagogisch begleitet wird. Die Teilnehmenden lösen Aufgaben und Rätsel zur fiktiven Social-Media-Plattform F00, die Fragen rund um Empfehlungsalgorithmen adressieren. Das Angebot wird von „Mediale Pfade“, einem Berliner Verein für Medienbildung umgesetzt. Eine (unbegleitete) Demo-Version gibt’s hier: Topia - F00 Festival Solo
Jugendliche in schulischen Einrichtungen erstellen Erklärvideos zu Themen, die sie persönlich begeistern und übernehmen dabei verschiedene Rollen der Medienproduktion. Die Teilnehmenden werden sensibilisiert für die Funktionsweise von Video-Plattformen und die Reflektion von Medienproduktion und -rezeption. Angeboten wird das Projekt von der Landesvereinigung Kulturelle Jugendbildung Baden-Württemberg e.V. YourStory · LKJ (lkjbw.de)
Ein Forschungsprojekt, das gemeinsam mit AlgorithmWatch und mehreren Universitäten und Hochschulen umgesetzt wird. 2023 wurde zur TikTok- und Youtube-Datenspende aufgerufen, um die Funktionsweise intransparenter Algorithmen erforschen zu können. Das Projekt ist nun in der Analysephase. Die DataSkop-App kann weiterhin genutzt werden, um Einblicke in das eigene Nutzungsverhalten zu bekommen. www.dataskop.net
Auch KI-Tools können Medienkompetenz vermitteln. Hier einige Beispiele:
- Automatisierte Lernplattformen: KI-basierte Learning Management Systeme (LMS) erstellen maßgeschneiderte Lernpfade, die individuell auf die Bedürfnisse und Fähigkeiten der Lernenden zugeschnitten sind. So können verschiedene Lernziele wie die Erkennung von Fehlinformationen fokussiert werden.
- KI-gestützte Chatbots oder virtuelle Assistenten bieten die Möglichkeit, Faktenchecks durchzuführen und zielgerichtete Informationen bereitzustellen. Diese interaktiven Anwendungen fördern selbstgesteuertes Lernen und bieten einen unkomplizierten Zugang zu relevanten Inhalten.
- Analysewerkzeuge für Medieninhalte können für eine automatische Analyse verwendet werden und so Fehlinformationen, Hassrede oder unangemessene Inhalte identifizieren. Solche Werkzeuge können Mediennutzenden helfen, fundiertere Entscheidungen über die Inhalte zu treffen, denen sie im Internet begegnen.
- Personalisierte Auswahl und Zusammenfassung von Nachrichten: KI kann dafür eingesetzt werden, Nachrichten nach individuellen Interessen und Präferenzen zu sammeln und zusammenzufassen und Nutzerinnen und Nutzern eine personalisierte Auswahl bereitzustellen. Dies fördert eine ausgewogene Informationsaufnahme und unterstützt dabei, verschiedene Perspektiven und Quellen einzubeziehen.
- Spiele und Simulationen: KI kann in Serious Games und Simulationen integriert werden, um realitätsnahe Situationen zu schaffen, in denen Medienkompetenz getestet und verbessert wird. Ein Serious Game verfolgt ernsthafte Ziele jenseits der reinen Unterhaltung wie etwa Bildung, Training, Gesundheitsförderung oder Bewusstseinsbildung.
Welche Regelungen schützen vor Manipulation durch KI?
Auf europäischer Ebene gibt es bereits einige Regelungen und unternehmerische Selbstverpflichtungen, mit denen die Manipulation von Medieninhalten durch KI begrenzt werden soll. Auch die Beschneidung der Machtkonzentration großer Plattformen und Tech-Konzerne ist ein wichtiges Anliegen.
Eine Maßnahme, die aus der Verpflichtung zum Verhaltenskodex für Desinformation heraus entstanden ist, ist die Prebunking-Kampagne, die Google gemeinsam mit lokalen Partnern im Vorfeld der Europawahlen gestartet hat. Prebunking bezeichnet eine Kommunikationstechnik, mit der sich typische Merkmale von falschen oder manipulierten Nachrichten erkennen lassen, wie eine besonders emotionale Sprache oder die Sündenbock-Methode.
Eine weitere Aktion ist die Reihe Hit Pause von Youtube, die in kurzen animierten Video-Clips zu mehr Achtsamkeit in der Kommunikation auf Social Media-Plattformen aufruft.