AI Act
Der Artificial Intelligence Act (AI Act) ist eine 2024 verabschiedete Verordnung der Europäischen Union (EU). Sie regelt die Entwicklung und den Einsatz von KI-Systemen und schafft damit einen verbindlichen Rechtsrahmen in der EU. Ziel ist es, vertrauenswürdige KI zu gestalten, die entsprechend europäischer Wertvorstellungen eingesetzt wird. So sollen KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch, unparteiisch und unter menschlicher Kontrolle sein. Gleichzeitig soll die Verordnung KI-Technik und -Forschung innerhalb der EU wettbewerbsfähig halten und Innovationen fördern. Weltweit ist der AI Act das erste transnationale KI-Regelwerk seiner Art.
Algorithmen
Ein Algorithmus ist eine genaue Berechnungsvorschrift für einen Computer, eine Aufgabe zu lösen. Eine besondere Klasse von Algorithmen sind Lernalgorithmen: Dabei handelt es sich um Verfahren des maschinellen Lernens, die aus Beispieldaten (Lerndaten oder Trainingsdaten) ein Modell abstrahieren, das auf neue Beispieldaten angewendet werden kann.
Autoencoder
Ein Autoencoder ist ein Verfahren von generativen KI-Systemen, das aus zwei Hauptteilen besteht: Der Encoder verwandelt ein Bild in einen kompakten Vektor, der Decoder rekonstruiert daraus das Originalbild oder erzeugt ein neues Bild. Der Vektor ist viel kleiner als das ursprüngliche Bild, was den Autoencoder zwingt, wichtige Merkmale effizient zu speichern. Autoencoder werden verwendet, um Bilder zu komprimieren und neue Bilder zu erzeugen.
Automation Bias
Automation Bias bezeichnet die menschliche Tendenz, Algorithmen und deren Empfehlungen und Entscheidungen ein Übermaß an Vertrauen entgegenzubringen und gegenüber menschlichen Einschätzungen den Vorrang zu geben. Diese Voreingenommenheit ist besonders ausgeprägt in Umgebungen, in denen Entscheidungen durch computergestützte Systeme begleitet werden, etwa in der Luftfahrt, der medizinischen Diagnose und bei Finanzprognosen.
Deep Learning
Deep Learning ist eine Methode des maschinellen Lernens in künstlichen neuronalen Netzen. Diese umfassen mehrere Schichten – typischerweise eine Eingabe- und Ausgabeschicht sowie mehr als eine „versteckte“ dazwischenliegende Schicht. Die einzelnen Schichten bestehen aus einer Vielzahl künstlicher Neuronen, die miteinander verbunden sind und auf Eingaben von Neuronen aus der jeweils vorherigen Schicht reagieren. Angewendet wird Deep Learning bei der Bild-, Sprach- und Objekterkennung sowie dem verstärkenden Lernen.
Deepfake
Deepfakes sind täuschend echt wirkende Bild-, Audio- oder Videoaufnahmen, die mithilfe von Deep Learning – also dem maschinellen Lernen mit tiefen neuronalen Netzwerken – erzeugt oder so manipuliert werden, dass Inhalte oder auftretende Personen verfälscht werden. Die Methoden sind vielfältig: Personen können in einen beliebigen Kontext gesetzt werden, Stimmen imitiert oder neu erschaffen werden, gehaltene Reden lippensynchron abgeändert werden. Mit der technologischen Entwicklung wird es zunehmend schwierig, Deepfakes unmittelbar als solche zu erkennen. Der Begriff ist ein englisches Kofferwort aus den Begriffen „Deep Learning“ und „Fake“.
Desinformation
Desinformation meint die Verbreitung von irreführenden und falschen Informationen, mit dem Ziel, Menschen vorsätzlich zu täuschen oder zu beeinflussen. Dabei kann es sich um frei erfundene, aus dem Zusammenhang gerissene, zugespitzte oder lückenhafte Informationen handeln. Neben Texten können mit Hilfe von KI auch Bilder und Videos gefälscht werden. Desinformation kann von einzelnen Akteuren ausgehen oder eine Strategie von Staaten sein, um in die politischen Prozesse anderer Staaten einzugreifen.
Diffusionsmodelle
Ein Diffusionsmodell ist ein KI-Verfahren zur Generierung von synthetischen Bildern. Im Training wird dazu ein Bild zufällig minimal verändert. Es entsteht ein kleines, zunächst kaum wahrnehmbares Rauschen – eine Störung bei Farbkontrast oder Helligkeit. Dieser Schritt wird so lange wiederholt, bis aus dem Bild ein ungeordnetes Rauschen entstanden ist. Diesen Prozess lernt das Modell dann umzukehren: Es generiert ein neues – synthetisches – Bild, indem es das Rauschen Schritt für Schritt wieder entfernt.
Diskriminierung
Diskriminierung meint die Ungleichbehandlung und gesellschaftliche Benachteiligung auf Grundlage von kategorialen Unterscheidungen. Diese basieren auf Gruppenzuschreibungen wie Geschlecht, Religion oder ethnischer Zugehörigkeit und können sowohl direkt als auch indirekt erfolgen. Diskriminierung ist ein komplexes System sozialer Beziehungen und umfasst neben individuellen Vorurteilen auch institutionelle und strukturelle Mechanismen, die Benachteiligung hervorrufen.
Expertensysteme
Ein Expertensystem ist ein Computerprogramm, das Wissen zu einem speziellen Gebiet repräsentiert, anreichert und daraus zu einem konkreten Problem automatisch Schlussfolgerungen ziehen kann. Dazu muss das Expertenwissen in Form von Fakten und Regeln (Wenn-dann-Aussagen) formalisiert und eingegeben werden. Als symbolische KI sind die meisten Expertensysteme logikbasiert und gelten im Allgemeinen als nachvollziehbarer als andere Formen der KI.
Face-Reenactment
Beim Face-Reenactment lassen sich in Videodateien Mimik, Kopf- und Lippenbewegungen einer Person verändern. Das Gesicht selbst bleibt erhalten. Zu einem vorgegebenen Text werden passende, synthetisch erzeugte Lippenbewegungen und Gesichtsausdrücke erstellt. Dafür wird von einer ausgewählten Person aus einem Videostream ein 3D-Modell erstellt. Dieses Gesichtsmodell kann mithilfe eines zweiten Videostreams einer anderen Person kontrolliert werden. So können einer Person durch Unterlegung einer passenden Audiospur täuschend echte Aussagen in den Mund gelegt werden, die sie in der Realität nie getätigt hat.
Face-Swapping
Face-Swapping ist ein Verfahren zum Gesichtstausch in einer Bild- oder Videodatei. Neuronale Netze lernen dabei aus einem Gesichtsbild die wichtigsten Mimik- und Beleuchtungsinformationen kodiert auszulesen und daraus ein entsprechendes Gesichtsbild zu erzeugen. Mit diesem wird das Gesicht einer anderen Person in Bildern oder Videos ersetzt.
Fake News
Fake News sind Falschnachrichten in Form von Text, Fotos oder Videos. Sie werden häufig über elektronische Kanäle, bevorzugt über soziale Medien, verbreitet. Erkennbar sind sie beispielsweise an reißerischen Überschriften oder fehlenden Urheber- und Quellenangaben.
Generative Adversarial Networks (GAN)
Generative Adversarial Networks (GANs) sind Algorithmen, bei denen zwei neuronale Netze, der Generator und der Diskriminator, miteinander konkurrieren. Der Generator erstellt Bilder aus Zufallsrauschen und der Diskriminator bewertet, ob diese Bilder echt oder künstlich sind. Dieser Vorgang wird so lange wiederholt, bis der Diskriminator die generierten Bilder nicht mehr als solche erkennen kann.
Generative KI
Generative KI-Systeme werden mit großen Datensätzen trainiert und sind in der Lage, Inhalte wie Text, Programmcode, Videos oder Bilder zu erzeugen. Sie stützen sich dabei auf große Rechenleistung und spezielle Algorithmen, die unter anderem auf dem so genannten Transformer-Modell basieren. Bekannte generative KI-Systeme sind ChatGTP (Open AI), Gemini (Google) und LLaMA (Meta).
Halluzinieren
Von Halluzinieren spricht man in der KI, wenn ein Sprachmodell falsche Informationen erzeugt. Diese erscheinen oft plausibel, da sie flüssig und kohärent in Texte eingebettet sind. Zu falschen Informationen kommt es, weil Sprachmodelle kein Verständnis für die zugrunde liegende Realität haben, sondern ihre Ergebnisse allein auf Basis von Wahrscheinlichkeiten erzielen – selbst wenn sich aus den Trainingsdaten keine korrekte Antwort ableiten lässt.
Künstliche Intelligenz
Künstliche Intelligenz (KI) ist ein Bereich der Informatik, der darauf abzielt, Computersystemen kognitive Fähigkeiten wie Lernen, Planen und Problemlösen zu vermitteln. Der Begriff wurde 1956 geprägt. Ziel moderner KI-Systeme ist es, Maschinen, Roboter und Softwaresysteme zu befähigen, abstrakt beschriebene Aufgaben und Probleme eigenständig zu bearbeiten und zu lösen, ohne dass jeder Schritt vom Menschen vorab programmiert wird. Dabei sollen sich die Systeme auch an veränderte Bedingungen und ihre Umwelt anpassen können.
Maschinelles Lernen
Maschinelles Lernen ist eine grundlegende Methode der Künstlichen Intelligenz (KI). Sie zielt darauf, dass Maschinen ohne explizite Programmierung eines konkreten Lösungswegs automatisiert sinnvolle Ergebnisse für eine gestellte Aufgabe liefern. Spezielle Algorithmen lernen dabei aus vorliegenden Beispieldaten Modelle, die dann auch auf neue, zuvor noch nicht gesehene Daten angewendet werden können. Dabei werden drei Lernstile unterschieden: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen. Maschinelles Lernen mit großen neuronalen Netzen wird als Deep Learning bezeichnet.
Microtargeting
Microtargeting meint, Medieninhalte adressatengerecht zuzuschneiden und über entsprechende Kanäle auszuspielen. Generative KI verleiht dieser Form der Verbreitung von Inhalten eine neue Dynamik und ermöglicht – etwa im politischen Kontext – eine noch spezifischere Ansprache von Zielgruppen.
Misinformation
Misinformation meint die Verbreitung von irreführenden und falschen Informationen ohne die bewusste Absicht der Manipulation oder Täuschung. Dies unterscheidet sie von Desinformation. In der Praxis ist es oftmals jedoch kaum zu bestimmen, ob eine böse Absicht des Absenders bestand oder nicht.
Sorgfaltspflicht
Die Einhaltung der journalistischen Sorgfaltspflicht bei der Berichterstattung ist eine wichtige rechtliche Anforderung. Besonders relevant ist sie, wenn die Berichterstattung die Persönlichkeitsrechte Dritter betrifft. Im Rahmen der Sorgfaltspflicht sind Journalistinnen und Journalisten für Inhalt, Herkunft und Wahrheitsgehalt von Nachrichten verantwortlich. Dies bedeutet unter anderem, dass unbestätigte Meldungen oder Gerüchte, deren Wahrheitsgehalt nicht zweifelsfrei feststellbar ist, als solche gekennzeichnet werden müssen.
Text-to-Speech
Im Text-to-Speech-Verfahren wird zu einem vorgegebenen Text mittels KI ein Audiosignal erzeugt, das sich sowohl für Menschen als auch für eine automatische Spracherkennung wie die Stimme einer vorher definierten Person anhört.
Voice Conversion
Voice-Conversion ist ein KI-basiertes Verfahren, bei dem ein Audiosignal zu einem manipulierten Audiosignal konvertiert wird. Dieses hat den gleichen semantischen Inhalt wie das Ursprungssignal, unterscheidet sich jedoch in der Charakteristik des Sprechenden. Im Idealfall gleicht es der Person, die als Zielperson ausgewählt wurde.
Wahlen
Künstliche Intelligenz & die demokratische Gesellschaft
Verändert KI demokratische Wahlen?
Demokratische Wahlen bilden den Kern einer freien Gesellschaft. Ihre Ergebnisse bilden die Grundlage für politisches Handeln, für Macht- und Mehrheitsverhältnisse. In ihnen manifestieren sich die Menschen- und Bürgerrechte jeder und jedes Einzelnen. Die Integrität von Wahlen zu wahren, ist deshalb eine der wichtigsten Aufgaben für demokratische Gesellschaften. Die Wahlen im Jahr 2024 waren die ersten demokratischen Wahlen, in denen KI-Einsatz beobachtbar war – vor allem im Bereich der Meinungsbildung im Wahlkampf.
Generative KI hat das Potenzial, Prozesse rund um die Organisation von Wahlkampf und der Kommunikation mit Bürgerinnen und Bürgern zu erleichtern und zu beschleunigen. Doch KI-generierte Inhalte können im Wahlkampf auch zu Des- und Missinformation führen – eine erhebliche Gefahr für demokratische Gesellschaften. Eine Umfrage des Weltwirtschaftsforums (WEF) zeigt, dass die Beeinflussung von Wahlen durch KI-gesteuerte Desinformation als eine der weltweit größten Gefahren empfunden wird.
Welche Herausforderungen entstehen durch generative KI?
Generative KI ist ein Meilenstein in der Entwicklung von Künstlicher Intelligenz. Der leichte Zugang zu Sprachmodellen und Bild-Generatoren hat die Nutzung von KI-Systemen zu einem Massenphänomen jenseits von Forschung und Industrie gemacht. Klar ist, dass diese Technologien mehr sind als harmloser Zeitvertreib. Sie machen gesellschaftliche, ethische und rechtliche Diskurse nötig. Im Umfeld von Wahlen ergeben sich einige Herausforderungen:
Ein qualitatives Problem von Sprachmodellen ist das sogenannte „Halluzinieren“ – die unkorrekte Vermischung von Inhalten oder die Erfindung von Quellen. Solche Fehler entstehen, da Sprachmodelle basierend auf Wahrscheinlichkeiten immer und recht eloquent eine Antwort liefern – auch wenn ihre Datenbasis nicht ausreichend Informationen zur Anfrage enthalten.
Skandal! Aber welcher?
In welchen Skandal war Aiwanger zuletzt verwickelt?*
Hallo, das ist Bing. Freut mich, Ihnen zu helfen. Aiwanger war zuletzt in einen Skandal um ein Flugblatt verwickelt, das er im Juli 2023 an seine Parteimitglieder verschickt hatte. Das Flugblatt enthielt falsche und irreführende Informationen über die Corona-Impfung und die Impfpflicht. Dies löste eine politische Krise in der schwarz-orangen Koalition aus, die kurz vor der Landtagswahl stand. Aiwanger musste sich einem Zwischenausschuss des Parlaments stellen, der seine Rolle in der Affäre untersuchte.
Anlässlich der Landtagswahlen 2023 in Bayern befragten die Nichtregierungsorganisationen AlgorithmWatch und AI Forensics den KI-basierten Chatbot der Microsoft-Suchmaschine Bing zu politischen Themen. Viele Antworten wahren irreführend, falsch oder tendenziös. So wurde eine Affäre um Bayerns Vize-Regierungschef Hubert Aiwanger und antisemitische Flugblätter in seiner Schulzeit inhaltlich falsch wiedergegeben.
*Anfrage an Bing im Oktober 2023
Täuschungs- und Manipulationsversuche mithilfe von Deepfakes sind besonders brisant. In Indien, Pakistan und Südafrika sind im Vorfeld der Wahlen 2024 viele Deepfakes verbreitet worden, bevorzugt auf den Social Media-Plattformen TikTok, Instagram und X. In den Clips riefen Prominente aus der Unterhaltungsbranche – auch bereits verstorbene – vermeintlich zur Wahl einer bestimmten Partei auf oder diskreditierten eine andere. Besonders beliebt sind Deepfakes von US-Präsidentschaftskandidat Donald Trump. In Deutschland wurde im November 2023 ein gefälschtes Video von Bundeskanzler Olaf Scholz verbreitet, in dem er ein Verbotsfahren gegen die AfD ankündigt. Weitere aufgedeckte Deepfakes gibt es hier.
Inzwischen gibt es erste Archive für den Einsatz von Deepfakes im Umfeld von Wahlkampagnen: Die Initiativen „The Wired AI Elections Project“ und „2024 AI Election Tracker“ sammeln Beispielfälle für die missbräuchliche Nutzung generativer KI.
Deepfakes im Umfeld von Wahlen
Gefälschte Nachrichten und Desinformation können einen direkten Einfluss auf die individuelle Wahlentscheidung nehmen – und zumindest auf lange Sicht das Vertrauen Einzelner in politische und journalistische Institutionen untergraben. KI-generierte Inhalte werden von einigen Parteien aber auch für den Wahlkampf genutzt.
Wie können KI-Systeme im Wahlkampf unterstützen?
Wahlkämpfe sind auch eine Frage des finanziellen Budgets. Wahlplakate, Werbung in Radio, Fernsehen oder Kino und Give-aways an Wahlkampfständen kosten Geld. In Deutschland ist der Wahlkampf als staatspolitische Aufgabe anerkannt und die Parteien erhalten dafür Unterstützung in Form von Geld und kostenfreien Sendeplätzen im Rundfunk für Wahlwerbung. Über Spenden und Mitgliedsbeiträge werden die restlichen Kosten gedeckt. Die Höhe dieser Zuwendungen kann stark variieren. Das Idealbild eines fairen und gleichberechtigten Wahlkampfes aller politischer Akteure ist also nur bedingt realisiert.
KI-Systeme haben das Potenzial, Prozesse im Wahlkampf zu verschlanken und zu beschleunigen, sodass Parteien verfügbare Ressourcen effektiver einsetzen und die Kommunikation mit den Bürgerinnen und Bürgern verbessern können. Abgesehen vom Einsatz von KI-Sprachmodellen enthalten die verfügbaren Anwendungen zur Organisation von Wahlkämpfen nur wenige automatisierte Verfahren.
Potenziale für KI-Tools
- Zuverlässig regulierte und qualitativ hochwertige Chatbots und Wahlempfehlungs-Apps könnten Wählerinnen und Wähler individuell mit gewünschten Informationen zu den Wahlprogrammen der Parteien versorgen. Dies kann den Zugang zu politischen Inhalten verbessern und Politikverdrossenheit entgegenwirken.
- Apps zur besseren Organisation von Wahlkämpfen bietet mittlerweile fast jede Partei an. Mit KI-Unterstützung könnten diese Anwendungen ergänzt werden, zum Beispiel um automatisierte Auswertungen und Identifizierung von Regionen und Zielgruppen, die für eine Partei besonders erfolgversprechend sind.
- Wahlprognosen: KI-Systeme könnten auch zur Entwicklung und Verbesserung von Wahlprognosen eingesetzt werden. Die Auswertung von Daten und Ermittlung von Mustern und Zusammenhängen gehört zu den Stärken lernender KI-Systeme. Repräsentative Daten aus Befragungen im Vorfeld von Wahlen könnten zu differenzierteren Analyse und genaueren Prognosen führen.
- KI-Sprachmodelle werden bereits in vielen Parteiverbänden eingesetzt, um Inhalte von Wahlprogrammen in einen bestimmten Stil, in mehrere Sprachen oder in so genannte Einfache Sprache zu übersetzen. Relevante Inhalte aus Parteiprogrammen können so in mehreren Versionen für verschiedene Zielgruppen erstellt und über Social Media-Plattformen gezielt an diese verbreitet werden. Dieses so genannte Microtargeting ist nicht unproblematisch: Wahlwerbung sollte im öffentlichen Raum stattfinden, um im politischen Diskurs auch Widerspruch und Korrektur zu ermöglichen und damit zur Meinungsbildung der Wählerinnen und Wähler beizutragen.
- Ein wesentliches Element von Wahlkämpfen sind persönliche Gespräche mit Wählerinnen und Wählern, etwa am Infostand, an der Haustür, in den USA auch per Telefon. Die ehrenamtlichen Wahlhelferinnen und -helfer wurden 2024 dabei erstmals von KI-Systemen unterstützt: Die synthetisch generierte Stimme „Ashley“ rief im US-Wahlkampf tausende Menschen an, um für die Kandidatin Shamaine Daniels zu werben. Ashley wies am Anfang des Gespräches selbst darauf hin, dass sie eine KI sei – ihre Stimme klang auch nicht menschlich. Das System kann in 20 Sprachen auf die jeweilige Person zugeschnittene Gespräche führen.

Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Wie verändert KI den Wahlkampf?
Weltweit kommen im Vorfeld politischer Wahlen bereits KI-generierte Medieninhalte zum Einsatz. Oft ist verändertes Bild-, Video- oder Audio-Material nicht als solches gekennzeichnet. Echte und manipulierte Inhalte zu unterscheiden, wird mit fortschreitender Technologie immer schwieriger. Was können Bürgerinnen und Bürger gegen diese Unübersichtlichkeit tun? Prof. Dr. Christoph Bieber, Professor am Institut für Digitalisierungsforschung in Bochum (CAIS) und Mitglied der Plattform Lernende Systeme, gibt einen Überblick.
Wie lassen sich demokratische Wahlen sichern?
Es muss im besonderen Interesse von Demokratien sein, Entwicklungen, die die freie Gesellschaft bedrohen, aufmerksam zu beobachten und ihnen mit geeigneten Maßnahmen zu begegnen. An vorderster Stelle steht die Stärkung von KI- und Medienkompetenzen. Eine KI-kompetente Öffentlichkeit ist weniger anfällig für die Manipulation durch gefälschte Nachrichten, Bilder und Texte. Expertinnen und Experten empfehlen, entsprechende Angebote gezielt zu fördern. Auch die schulische Bildung stehe in der Pflicht. Auch Journalistinnen und Journalisten und andere Medienschaffende müssen für den Umgang mit generativer KI befähigt werden: zur aktiven Nutzung von generativer KI als Werkzeug journalistischer Arbeit sowie zur Quellenkompetenz, wenn es um die (Weiter-)Verbreitung von textlichen Nachrichten, Bildern oder Videos geht. Folgende rechtliche und technische Maßnahmen wurden bisher in Bezug auf die Beeinflussungsmöglichkeiten durch generative KI getroffen.
Rechtliche Maßnahmen
KI-Systeme, die dazu verwendet werden können, Wahlen oder Wahlverhalten zu beeinflussen, werden in der europäischen KI-Verordnung – dem Artificial Intelligence Act (AI Act) als Hochrisiko-KI eingestuft. Systeme mit dieser Klassifikation haben gewisse Auflagen, wenn sie im Umfeld von Wahlen zum Einsatz kommen. Ausgenommen sind Tools, deren Einsatzzweck rein organisatorischer oder logistischer Natur ist.
Mit dieser Verordnung verpflichtet die Europäische Union „sehr große“ Online-Plattformen und Suchmaschinen zu Risikoprüfungen und effektiven Maßnahmen, um identifizierte Risiken zu reduzieren. Darunter fallen Plattformen ab 45 Millionen Nutzerinnen und Nutzern pro Monat. Die Betreiber müssen zum Beispiel die Verbreitung von Falschinformationen bekämpfen und KI-generierte Inhalte kennzeichnen. Auch große Sprachmodelle können in diesem Zusammenhang als Lieferanten für Informationen bewertet werden, wodurch auch für sie die Anforderungen des DSA gelten – zusätzlich zu denen des AI Acts.
Die deutsche Verordnung kann als Grundlage dafür dienen, Accounts oder Bots, die in einem relevanten Ausmaß politische Falschinformationen verbreiten, zu sperren oder ihre Reichweite zu begrenzen. Das stellt allerdings einen Eingriff in die Meinungs- und Redefreiheit dar und muss immer begründet und rechtsstaatlich abgesichert werden, um einem Missbrauch, beispielsweise in Richtung einer staatlichen Zensur unliebsamer Meinungen, konsequent vorzubeugen.
Technische Maßnahmen
Kryptographische Herkunftsnachweise sind digitale Signaturen, die die Authentizität und Integrität von Inhalten sicherstellen. Wer gezielt Desinformation betreiben will, vermeidet die Nutzung derartiger Herkunftsnachweise natürlich. Diese können somit nur dazu dienen, die Echtheit verlässlicher Inhalte zu bestätigen und weniger dazu, gezielt verbreitete Falschinformationen aufzudecken. Wasserzeichen können sowohl für den Menschen erkennbar als auch für ihn unsichtbar, aber für Maschinen lesbar sein. Bei Bedarf könnten durch Wasserzeichen erkannte Inhalte dann entfernt werden. Dafür müssen Wasserzeichen fälschungssicher und unlöschbar, plattformübergreifend verfügbar sein und mit externen Fact-Checker-Initiativen geteilt werden.
KI-basierte Systeme zur biometrischen Gesichtserkennung können helfen, Deepfakes von (prominenten) Personen aufzudecken, indem sie Unregelmäßigkeiten in der Erstellung erkennen. Systeme zur Stimmerkennung identifizieren Frequenzen und Artefakte, die im Klang einer echten Stimme nicht vorhanden sind. Und auch in Videos können KI-Systeme Inkonsistenzen wie unregelmäßige Lippenbewegungen oder unscharfe Übergänge zwischen originalen und manipulierten Bildern erkennen. Aufdecken lassen sich Deepfakes mit KI-Technologien nur an bereits bekanntem Material. Angreifende können also ihre Systeme für die Zukunft so anpassen, dass existierende Detektionsverfahren nicht mehr funktionieren. Es entsteht ein Wettlauf der KI-Technologien.
Führende Anbieter von generativer KI versuchen, ihre Produkte weniger nutzbar beziehungsweise anfällig für Missbrauch zu designen. Dazu bauen sie beispielsweise Schranken in Bildgeneratoren ein, die verhindern sollen, dass Bilder von politischen Persönlichkeiten erstellt werden.
Authentifizierungsprotokolle könnten weiterentwickelt und vermehrt eingesetzt werden, um sicherzustellen, dass Gesprächspartner in virtuellen Besprechungen und Veranstaltungen menschlich sind und dass es tatsächlich diejenigen Personen sind, für die sie sich ausgeben. Es müssen Umsetzungen gefunden werden, die einfach zu implementieren und auch einfach zu nutzen sind. Weitere Forschung ist nötig, um diese Methoden fälschungssicher zu gestalten.