3 Fragen an

Jessica Heesen

Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen.

3 Fragen an Jessica Heesen

Verantwortung in der Technologie-Entwicklung: Wie kommt Ethik in die KI?

Künstliche Intelligenz verspricht viele nutzbringende Anwendungen. Inwieweit diese tatsächlich realisiert werden, hängt maßgeblich davon ab, ob die Menschen Vertrauen in die Technologie setzen. Ethische Werte und Prinzipien spielen – zumindest in Europa – für die Entwicklung von Künstlicher Intelligenz (KI) daher eine zentrale Rolle. Einer aktuellen Umfrage des Bitkom zufolge wünscht sich eine große Mehrheit der Deutschen eine sichere KI und verlangt, dass KI-Systeme besonders gründlich geprüft und erst nach Zulassung in Geräten genutzt werden können. Welche Herausforderungen ergeben sich für die verantwortungsbewusste Entwicklung und Anwendung von KI-Systemen? Nach welchen Kriterien sollen diese umgesetzt werden? Und was können Unternehmen tun, um KI diskriminierungsfrei anzuwenden? Antworten darauf liefert ein Leitfaden, den die Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme unter Leitung von Jessica Heesen erstellt hat. Er greift den in der KI-Strategie der Bundesregierung formulierten Ansatz „Ethics by, in and for Design“ auf und will Entwicklerinnen und Entwicklern, Anbietern, Nutzern und Betroffenen von KI-Systemen eine Orientierung geben.

1

Frau Heesen, welchen Prinzipien sollte eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen folgen?

Jessica Heesen: Auf prinzipieller Ebene soll die KI-Entwicklung der Gesellschaft dienen und nicht dazu führen, dass neue technische oder wirtschaftliche Zwänge entstehen, die ethische Normen des Zusammenlebens verletzen oder positive Entwicklungen beschränken. Das ist damit gemeint, wenn in vielen politischen Dokumenten und Reden von „KI für den Menschen“ die Rede ist. Und das hat auch schon der Philosoph Theodor W. Adorno 1953 zum Ausdruck gebracht: „Es gibt keine technologische Aufgabe, die nicht in die Gesellschaft fällt”. Technikentwicklung beschränkt sich somit nicht auf die technische Lösung an sich, sondern ist elementarer Baustein einer menschenwürdigen Gesellschaft. Dementsprechend muss sich die Entwicklung von KI als eine der modernen Schlüsseltechnologien an Leitwerten wie Diskriminierungsfreiheit, Schutz der Privatheit, Zuverlässigkeit oder Transparenz orientieren.

Generell ist es wichtig, die Handlungsroutinen und Handlungsempfehlungen, die durch KI-Systeme vorgegeben werden, nicht als alternativlos („Sachzwang“) anzuerkennen. Wie in andere technische Produkte auch, sind in KI-Software bestimmte, veränderbare Zwecke und Präferenzen „eingeschrieben“, die bestimmten Gruppen und Individuen nutzen, anderen aber schaden können.

2

Was bedeutet das konkret für die Entwicklung und Anwendung von KI?

Jessica Heesen: Wir müssen hier zwei Ebenen unterscheiden: Zum einen die Handlungsmöglichkeiten von Einzelnen oder Gruppen bei der Nutzung von KI und zum anderen die politischen und rechtlichen Rahmenbedingungen, die für einen wertorientierten und sicheren Einsatz von KI gesetzt werden.

So lassen sich etwa algorithmische Entscheidungssysteme mit KI-Komponenten dazu nutzen, um über Sozialleistungen zu entscheiden. Die Vereinten Nationen sprechen hier – durchaus kritisch – von einem „Digital Welfare State“ KI-Systeme können zum Beispiel – wie in Indien bereits praktiziert – über die Vergabe von Lebensmittelgutscheinen entscheiden. Oder aber potenziellen Sozialbetrug aufspüren. Die Nutzung eines Programms namens SyRI, mit dem das niederländische Sozialministerium Menschen identifizierte, die möglicherweise zu Unrecht Arbeitslosen- oder Wohngeld bezogen hatten oder dies künftig tun könnten, wurde mittlerweile gerichtlich untersagt.

Klar ist: Bei der Verwendung derart sensibler KI-Entscheidungssysteme ist ein hohes Verantwortungsbewusstsein gefragt. Die Verwaltungsangestellten vor Ort müssen die Funktionsweisen zumindest in groben Zügen verstehen, interpretieren und gerecht anwenden. Dazu gehört, sich in der Rolle des „menschlichen Letztentscheiders“ auch gegen die Entscheidung eines KI-Systems stellen zu können. Die Behörde wiederum muss beim Einkauf eines solchen Systems auf Zuverlässigkeit und Diskriminierungsfreiheit achten. Die Entwicklerinnen und Entwickler stehen u. a. in der Verantwortung, die Trainingsdatenqualität sicherzustellen und die Systeme geregelt nach diskriminierenden Faktoren zu untersuchen.

3

Welche Implikationen ergeben sich daraus für eine mögliche Regulierung von KI-Systemen?

Jessica Heesen: Der Regulierungsbegriff umfasst ein ganzes Spektrum von Möglichkeiten, um KI-Systemen eine Form zu geben, die eine Gesellschaft technisch voranbringt, zugleich aber im Einklang steht mit den Wertvorstellungen liberaler Rechtsstaaten. Deshalb betont die EU-Kommission immer wieder den Stellenwert einer wertorientierten Entwicklung von KI. Generell gibt es dafür verschiedene Ansätze: Schwache Regulierungsformen sind beispielsweise Ethikkodizes von Fachgesellschaften oder Unternehmen. Starke Regulierungsformen sind rechtliche und staatliche Vorgaben in Form von Zertifizierungen von KI. In all diesen unterschiedlichen Regulierungsformen sind ethische Wertvorstellungen grundlegend und müssen in einem weiteren Schritt für die die jeweiligen Anwendungskontexte ausformuliert werden.

Die Plattform Lernende Systeme hat einen Ethik-Leitfaden entwickelt, der für Entwicklerinnen und Entwickler, Anbieter, Nutzer und Betroffene einen ethisch reflektierten Entwicklungs- und Anwendungsprozess von KI-Systemen skizziert. Er benennt Prinzipien wie Selbstbestimmung, Gerechtigkeit und Schutz der Privatheit, aus denen die Kriterien für die Regulierung von KI-Systemen großteils hervorgehen. Wir möchten damit eine Beitrag zur öffentlichen Diskussion leisten und eine Impuls für weiter Debatten geben.

Das Whitepaper „Ethik-Briefings – Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen“ der Plattform Lernende Systeme finden Sie hier zum kostenlosen Download.

Das Interview ist für eine redaktionelle Verwendung freigegeben (bei Nennung der Quelle © Plattform Lernende Systeme).

Zurück