Fachtagung der Akademie für Politische Bildung in Tutzing: Verbessert KI unsere Gesellschaft?

Im Bereich Künstliche Intelligenz (KI) sind mit den Erfolgen von generativer KI zuletzt große Durchbrüche gelungen. Welche Konsequenzen für Gesellschaft, Wirtschaft oder Medien damit verbunden sind, darüber diskutierten Fachleute und Gäste Mitte Januar bei einer zweitägigen Tagung an der Akademie für politische Bildung Tutzing. Die Veranstaltung fand in Kooperation mit acatech und der Plattform Lernende Systeme statt.

Podiumsgespräch mit den PLS-Mitgliedern Gitta Kutyniok (LMU München) und Andrea Martin (IBM), dem PLS-Co-Vorsitzenden Jan Wörner (acatech), moderiert von Andreas Kalina (Akademie für Politische Bildung Tutzing, 2.v.l.). ©: acatech

Die Veröffentlichung von ChatGPT Ende 2022 markierte einen Meilenstein in der KI-Entwicklung – und katapultierte das Thema in die breite Öffentlichkeit. Seither wird lebhaft und bisweilen auch recht dystopisch diskutiert, welche Richtung KI dem Leben der Menschen geben wird. Jan Wörner, Co-Vorsitzender der Plattform Lernende Systeme und acatech Präsident, warb bei der Eröffnung der Tagung „Künstliche Intelligenz verbessert Gesellschaft?!“ an der Akademie für Politische Bildung in Tutzing für Besonnenheit: Die KI-Debatte müsse unaufgeregter geführt werden, denn auch diese Technologie werde keine neue Wirklichkeit erschaffen. Wichtig sei, nüchtern zu analysieren und realistische Szenarien zu diskutieren, um die Innovationskraft von KI nicht im Voraus zu stark einzubremsen.

Was bedeutet KI für die Gesellschaft?

Digitaljournalist Richard Gutjahr skizzierte in seiner Keynote, worauf die jüngsten Durchbrüche im KI-Bereich gründen. Die Verfügbarkeit immer größerer Datenmengen aus Internet und Smartphones sowie der Zuwachs der Rechenleistung von Computern hätten den sogenannten Ketchup-Moment herbeigeführt: Nach einigem Schütteln einer Ketchupflasche kämen zunächst nur einige Tröpfchen heraus, plötzlich aber ein riesiger Schwung. Mit ChatGPT und anderen Anwendungen generativer KI sei im übertragenen Sinn nun eine große Menge Ketchup auf dem Teller gelangt – wie damit umgehen? KI biete enorme Möglichkeiten, berge aber auch Gefahren für die Gesellschaft, so Gutjahr – von Desozialisierung durch künstlich erzeugte virtuelle Freunde über die massenhafte Verbreitung von Fake News bis hin zu Datendiktaturen. Wichtig sei, die digitale Bildung – auch für Ältere – und die Gewaltenteilung zu stärken.

Andrea Martin, Leiterin des IBM Watson Center Munich und Mitglied der Plattform Lernende Systeme, rückte in ihrem Vortrag das wirtschaftliche Potenzial von KI in den Mittelpunkt. KI könne dabei helfen, den Kundenservice zu optimieren, dem Management bessere Grundlagen für Entscheidungen bereitstellen oder Lieferketten resilienter machen. Ziel müsse es sein, mithilfe von KI menschliche Intelligenz zu erweitern und dies zu kommunizieren, damit die Menschen Vertrauen in die Technologie entwickeln könnten.

Wie jede erfolgreiche Innovation sei auch Künstliche Intelligenz ein Versprechen für ein Mehr an Effizienz, Effektivität, Komfort, Resilienz und Gerechtigkeit, so acatech Präsidiumsmitglied Ortwin Renn in seinem Impuls. Ebenso könne KI – wie jede Technik – auch negative Tendenzen verstärken, etwa eine gesellschaftliche Polarisierung. Eine Regulierung der Technologie sei daher nötig.

Künstliche Intelligenz und Medienwandel

Christoph Neuberger (Weizenbaum Institut / Plattform Lernende Systeme), ©: acatech

In drei parallelen Workshops konnten die Tagungsteilnehmenden im Anschluss tiefer in ausgewählte Themen eintauchen – beispielsweise zur Rolle von KI im journalistischen Alltag. Geleitet wurde der Workshop von Christoph Neuberger (Weizenbaum Institut / Plattform Lernende Systeme) und Gudrun Riedl (Bayerischer Rundfunk). In einer Podiumsdiskussion, moderiert von Andreas Kalina (Akademie für Politische Bildung in Tutzing), warb acatech Präsident Jan Wörner am Ende des ersten Tagungstages noch einmal dafür, Chancen und Risiken von KI realistisch zu bewerten und KI-Anwendungen von unabhängiger Stelle überprüfen und zertifizieren zu lassen.

Den zweiten Seminartag eröffnete Gitta Kutyniok (LMU München / Plattform Lernende Systeme) mit einem Vortrag über Generative KI. Beim Trainieren von KI, so die Mathematikerin, seien die Fortschritte weiterhin groß, doch es blieben einige Baustellen. Häufig lasse sich noch beobachten, dass generative KI-Systeme „halluzinieren“, also Ergebnisse liefern, die nicht durch Trainingsdaten gerechtfertigt zu sein scheinen und objektiv falsch sind. Darüber hinaus seien Urheberrechtsfragen nicht geklärt.

In weiteren Vorträgen thematisierten Theresa Züger (Alexander von Humboldt Institut für Internet und Gesellschaft) und Lorena Jaume-Palasí (The Ethical Tech Society) die Aspekte Gemeinwohlorientierung von KI sowie algorithmische Diskriminierung. In anschließenden Workshops stand das Thema Regulation von KI und verschiedenen Perspektiven im Mittelpunkt. Anhand zweier Anwendungsfälle aus dem Bereich „Smart City“ demonstrierte Christoph Bieber (Center for Advanced Internet Studies / Plattform Lernende Systeme) in dem von ihm geleiteten Workshop die Komplexität der ethischen Perspektive. Wichtig sei ein organisatorischer Rahmen für Debatten, etwa ethische Beratungsgremien, die politische Entscheiderinnen und Entscheider im Vorfeld von Abstimmungen unterstützen können, so Bieber.

Wie kann KI Verbraucher rechtlich unterstützen?

Jan-Frederik Arnold, CEO und Geschäftsführer Flightright GmbH, sprach in seinem Beitrag über die Nutzung von Künstlicher Intelligenz in der Rechtsberatung zu Verbraucheransprüchen bei Flugverspätungen. Die Flightright GmbH berechnet mithilfe von KI die Wahrscheinlichkeit für eine Entschädigungszahlung durch die Airline. Dafür werde aus der hauseigenen Datenbank eine Vielzahl von strukturierten Daten genutzt: Beispielsweise Daten zum Flug und Wetter sowie Daten von der Flugverkehrskontrolle. Darüber hinaus gebe es Pilotprojekte mit großen Sprachmodellen, um aus eingereichten Dokumenten relevante Daten herauszufiltern. Derzeit werden alle Ergebnisse der KI zusätzlich von einem Menschen geprüft, so Jan-Frederik Arnold.

Die Schlussrunde widmete sich der Frage, wie KI in Zukunft in unserem Rechtswesen sicher und vertrauenswürdig zum Einsatz kommen kann. Frauke Rostalski hob hervor, wie wichtig es sei, Urteile anonymisiert zu veröffentlichen, damit diese ausgewertet werden können, um Vergleichbarkeit zu schaffen. Außerdem sei erforderlich, dass sich Richterinnen, Richter und Staatsanwaltschaften die erforderlichen Kompetenzen aneigneten. Stefan Schifferdecker ergänzte, dass für die Entwicklung entsprechender Werkzeuge viel Geld benötigt werde. Dazu sollten sich alle Bundesländer zusammenschließen, damit die Umsetzung nicht an zu begrenzten Mitteln scheitere. Jan-Frederik Arnold betonte nötige Kooperationen von Justiz und Legal Tech-Unternehmen bei der Entwicklung und Schaffung von Schnittstellen sowie gemeinsam genutzten Standards.

Wie können wir digitale Ethik bei KI mitdenken?

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Interview mit Christoph Bieber, Center for Advanced Internet Studies (CAIS) / Plattform Lernende Systeme.

Wie gehen Digital-Redaktionen mit den Herausforderungen der KI um?

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Interview mit Gudrun Riedl, Redaktionsleiterin BR24 Digital, Bayerischer Rundfunk.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück