Kontrolle und Verantwortung: Wann Künstliche Intelligenz vertrauenswürdig ist

Ein Expertenbeitrag von von Armin Grunwald, Leiter des Büros für Technikfolgenabschätzung im Bundestag und Mitglied der Plattform Lernende Systeme

Fahrzeuge sicher durch den Verkehr lotsen, Krebszellen erkennen, komplexe Klimadaten auswerten – die Potenziale von Künstlicher Intelligenz (KI) lassen sich kaum bestreiten. Trotz einer positiven Grundhaltung gegenüber der Technologie, die jüngst eine Umfrage des TÜV-Verbands feststellte, bereiten ihre Risiken vielen Menschen Sorgen. Wie KI vertrauenswürdig eingesetzt werden kann, wird in der Europäischen Union aktuell diskutiert. Der Vorschlag der EU-Kommission zur Regulierung von KI greift indes zu kurz. Denn vertrauenswürdige Künstliche Intelligenz braucht mehr als Verordnungen und Verbote.

Armin Grunwald, Leiter des Büros für Technikfolgenabschätzung im Bundestag, Professor für Technikphilosophie am Institut für Philosophie des KIT und Mitglied der Plattform Lernende Systeme

KI kann vielfältig eingesetzt werden. Ebenso breit gefächert wie ihre Einsatzmöglichkeiten sind die Risiken, die von KI-Systemen ausgehen können. So stellt eine Fehlfunktion eines KI-Systems im Gesundheitswesen eine Gefahr für Menschenleben dar, während ein System für Musikempfehlungen im schlimmsten Fall unseren guten Geschmack beleidigt. Der Vorschlag der Europäischen Kommission trägt diesem unterschiedlich hohen Gefahrenpotenzial, der sogenannten Kritikalität von KI-Systemen, Rechnung. Je nach Höhe der Risiken kann ein KI-System verboten werden, muss vor seiner Markteinführung bestimmte Anforderungen erfüllen oder unterliegt keinerlei Vorgaben.

Der Regulierungsentwurf sieht vor, die Risiken von KI-Systemen anhand festgelegter Kriterien zu beurteilen. Dieser Kriterienkatalog weist aber einige Schwachstellen auf. Die Plattform Lernende Systeme hat diese in einem Whitepaper herausgearbeitet und Kriterien ergänzt. Die höchste Priorität muss immer der Schutz von Menschenleben und weiteren Rechtsgütern wie der Umwelt haben. Zudem ist der Umfang der Handlungsfreiheit des Menschen entscheidend. So müssen KI-Anwendungen, die schwer umgangen werden können – etwa aufgrund von mangelnder Pluralität des Dienstangebotes oder weil sie aus gesundheitlichen Gründen notwendig sind –, höhere Hürden nehmen als KI-Anwendungen, bei denen sich das Individuum schlicht dagegen entscheiden kann. Kurz: Die Diabetes-App muss besser geschützt sein als Spiele-Apps.

Bei der Beurteilung der Risiken eines KI-Systems muss zusätzlich der Anwendungskontext in den Blick genommen werden: Dasselbe KI-System kann in einem Zusammenhang ein hohes Risiko aufweisen, während es in einem anderen unbedenklich ist. Es macht einen Unterschied, ob Gesichtserkennung beim Erstellen eines Fotobuchs zum Einsatz kommt oder ob ein totalitärer Staat die Technologie nutzt. Die Kritikalität eines KI-Systems hängt davon ab, wie, wo, wann und von wem es eingesetzt wird. Nur innerhalb dieses Kontextes lassen sich mögliche Risiken in der Theorie nachvollziehbar beurteilen. Eine solche Einzelfallbetrachtung lässt der aktuelle KI-Gesetzentwurf der EU-Kommission nicht zu.

Und selbst wenn zur Einschätzung der Risiken auch der Anwendungskontext herangezogen wird – die frühzeitige Beurteilung kann nicht die mögliche Dynamik der späteren realen Nutzung vorwegnehmen. Diese ist oft unvorhersehbar, schon allein deshalb, weil die menschliche Kreativität häufig die angenommenen Anwendungsszenarien übersteigt– im positiven Sinne, wenn neue erwünschte Anwendungen und Innovationen entdeckt werden, aber auch im negativen Sinne, wenn KI-Systeme für unethische Aktionen missbraucht oder zweckentfremdet werden. Daher ist eine niedrige Kritikalität nur ein Hinweis auf ein zunächst anzunehmendes geringes Schadenspotential, aber keine Garantie, dass dies auch so bleibt.

Überraschungen und Einfallsreichtum erleben wir auch bei der praktischen Nutzung konventioneller IT. Hier verfügen wir aber zumindest in Teilen über belastbares Wissen über die Gefahren und Risiken. Zu KI-Anwendungen ist dieses Wissen meist (noch) nicht vorhanden. Daten aus der Zukunft gibt es nicht und so treten Annahmen an die Stelle einer auf empirischen Daten beruhenden Risikobeurteilung. Hinzu kommt, dass KI im Gegensatz zu konventioneller IT ständig dazulernt. Jegliche Risikobeurteilung für KI-Systeme muss daher auch das Risiko des nicht-intendierten Lernens (sprich: das Lernen unerwünschter Effekte) beachten. Dieser Gefahr kann man zum Beispiel technisch entgegentreten, indem Leitplanken in das System einprogrammiert werden, die das Lernen des Systems von vornherein begrenzen.

Die Chancen von Künstlicher Intelligenz für Gesellschaft und Wirtschaft sind groß. Diese Chancen werden die Menschen aber nur nutzen, wenn sie der Technologie vertrauen. Die Regulierung von KI-Systemen, wie sie die EU vorsieht, ist ein wichtiger Baustein für einen verantwortungsvollen und vertrauenswürdigen Einsatz von KI. Die exakte Beurteilung der Risiken von KI-Anwendungen ist im Vorfeld aber schwierig. Neben dem regulatorischen Rahmen bedarf es deshalb einer Art KI-TÜV, der die Systeme regelmäßig überprüft, niedrigschwelliger Beschwerdemöglichkeiten für die Verbraucherinnen und Verbraucher sowie klarer Haftungsregeln. Die Menschen müssen wissen, dass es Menschen und Institutionen gibt, die für das jeweilige System die Verantwortung übernehmen. Vertrauen entsteht, wenn die Systeme über ihre Zulassung hinaus verlässlich und nachweisbar ihren Dienst tun und Menschen dafür geradestehen.

Beitrag erschienen in:

Tagesspiegel Background Digitalisierung
Februar 2022

Zurück