Recht und Ethik

Mojito_mak/iStock

Gefragt: Neue Regelungen und ein offener Diskurs

Wie nahezu alle technischen Innovationen werfen auch Lernende Systeme neue rechtliche Fragen auf, die in einen juristischen Rahmen gefasst werden müssen. Sie betreffen etwa die Haftung oder den Umgang mit persönlichen Daten. Was es aus ethisch-moralischer Sicht bedeutet, menschliche Kontrolle an Maschinen abzugeben, ist ebenfalls zu bewerten.

Mit der Einführung Lernender Systeme gehen neue Chancen, aber auch Risiken einher. Dafür müssen möglicherweise neue rechtliche Regelungen gefunden oder bestehendes Recht angepasst werden. Übernehmen Lernende Systeme mehr und mehr Aufgaben von den Menschen, stellen sich beispielsweise neue Fragen im Haftungsrecht. Die Systeme besitzen selbst keine Rechtspersönlichkeit. Die Adressaten rechtlicher Regelungen sind natürliche und juristische Personen. Jedoch lassen sich Fehlfunktionen Lernender Systeme nicht immer zweifelsfrei auf menschliches Verhalten zurückführen. Denn die Systeme lernen auch im Betrieb dazu und nicht immer ist nachvollziehbar, wie ein bestimmtes Lernergebnis entstanden ist.

Weitere Fragen betreffen den Datenschutz und die Privatheit (Privacy) der Menschen – also die Fähigkeit zu steuern, wann sie wie viele Informationen über sich preisgeben oder verbergen. Viele Anwendungen und Fortschritte im Bereich Lernender Systeme beruhen darauf, aus großen Mengen an Daten – darunter auch personenbezogene und personen-beziehbare – neue Informationen zu gewinnen oder die Systeme mit diesen Daten zu trainieren. Lernende Systeme unterstützen die Menschen, etwa bei Kaufentscheidungen oder durch Assistenzsysteme am Arbeitsplatz. Sie können potenziell aber auch zur Überwachung eingesetzt werden oder durch die Kombination unterschiedlicher Datensätze Informationen über Individuen enthüllen, die diese nicht preisgeben möchten.

Übernehmen Lernende Systeme Aufgaben oder Entscheidungen mit gesellschaftlichen oder ethischen Dimensionen, dann werden auch die zuvor an die Menschen gestellten gesellschaftlichen und ethischen Anforderungen auf sie übertragen. Jedoch sind die Systeme nicht von sich aus in der Lage, moralische Entscheidungen zu treffen oder ihre Entscheidungen nach moralischen Maßstäben zu beurteilen. Die ethischen Anforderungen richten sich deshalb an den Prozess der Programmierung und den Einsatz Lernender Systeme. Dazu kommen die Anforderungen nach Fairness und Diskriminierungsfreiheit von KI-Entscheidungen und die Fragen, wie diese Kriterien formal gefasst werden können. KI-Entscheidungen könnten beispielsweise Personen diskriminieren, ohne dass die Entwickler der Systeme dies beabsichtigt haben. Hier geht es auch um die Frage, mit welchen Mitteln die Gesellschaft den Einsatz Lernender Systeme mitgestalten kann.

Mit Fragen zu diesen Themen beschäftigt sich in der Plattform Lernende Systeme die AG 3 unter der Leitung von Jörn Müller-Quade (KIT Karlsruhe) und Eric Hilgendorf (Universität Würzburg).