Vertrauenswürdige KI aus Europa: EU will weltweit Ethik-Standards setzen

Künstliche Intelligenz (KI) ist ein bedeutender Faktor für Wirtschaftswachstum und Produktivitätssteigerungen. Ihr Einsatz muss aber den europäischen Grundwerten und -rechten entsprechen. Notwendig ist ein gemeinsames Vorgehen der europäischen Staaten, um sich im globalen Wettbewerb mit vertrauenswürdiger KI aus Europa zu positionieren. Die High Level Expert Group on AI hat im Auftrag der EU-Kommission im Dezember ihren Entwurf für europäische Ethikrichtlinien veröffentlicht. Die Richtlinien flankieren den Koordinierten Plan für Künstliche Intelligenz, den die EU-Kommission Ende vergangenen Jahres vorlegte. Noch bis zum 1. Februar können Interessierte die Ethikrichtlinien im öffentlichen Konsultationsverfahren kommentieren.

Eric Hilgendorf, Leiter der AG 2 der Plattform Lernende Systeme

Ziel der Richtlinien ist eine verantwortungsbewusste Entwicklung und Umgang mit KI in Europa. Nur so könnten die Menschen KI vertrauen und nur dann könne das volle Potenzial der Technologie für Wirtschaft und Gesellschaft ausgeschöpft werden. „Die Vorschläge der High-Level Expert Group der EU-Kommission verbinden den Schutz der europäischen Verbraucher einerseits mit den berechtigten Forschungs- und Innovationsbedürfnissen der Unternehmen andererseits. Beide Anliegen benötigen sowohl ethische Reflexion als auch konkrete regulatorische Anpassungen. Diese rechtspolitische Diskussion müssen wir in Deutschland und ganz Europa jetzt führen“, sagt der Würzburger Strafrecht-Professor Eric Hilgendorf, Leiter der Arbeitsgruppe Recht und Ethik der Plattform Lernende Systeme und Mitglied der High Level Expert Group on AI.

Richtlinien für faire, nachvollziehbare und sichere KI

Eine vertrauenswürdige KI muss den Menschenrechten und europäischen Grundrechten entsprechen sowie ethischen Prinzipen und Werten wie Wohltätigkeit, Autonomie des Menschen, Fairness und Erklärbarkeit.  Die Expertengruppe fordert Unternehmen und Organisationen auf, die Ethikrichtlinien in ihre eigenen Verhaltenskodizes und Leitlinien aufzunehmen und so ihren Beitrag zu vertrauenswürdiger KI zu leisten. Laut den Autoren sollen Organisationen die Verantwortlichkeiten klären für den Fall, dass das KI-System einen Fehler begeht. Zu erklären, warum ein KI-System eine bestimmte Entscheidung getroffen hat, ist eine große technische Herausforderung, die weiterer Forschung bedarf. KI-Systeme sollten aber nach Ansicht des Expertengremiums zumindest ihre Entscheidungsprozesse dokumentieren, um nachvollziehbar zu machen, wie es zu einer Handlung oder Vorhersage kam. Vertrauenswürdige KI bedeutet auch, dass ihre Entscheidungen Menschen nicht diskriminieren. Häufig lernen KI-Systeme Vorurteile jedoch bereits beim Training, ohne dass die Programmierer dies beabsichtigt haben. Die High Level Expert Group schlägt vor, Design- und Entwicklungsteams bereits entsprechend gemischt zusammenzusetzen, so dass sie die Diversität der Gesellschaft repräsentieren. Gleichzeitig sollte auf eine hohe Qualität der Trainingsdaten geachtet werden.

KI-Systeme kommen in sicherheitskritischen Anwendungsfeldern zum Einsatz, etwa in der Energieversorgung, der Medizin oder dem Verkehrssystem. Sie müssen deshalb robust und widerstandsfähig gegenüber Störungen, gezielten Angriffen oder unerwarteten Ereignissen sein und auch dann wesentliche Leistungen aufrechterhalten, wenn einzelne Komponenten ausfallen. Die Sicherheit der KI-Systeme sollte deshalb sorgfältig und regelmäßig getestet werden.

Koordinierter Plan der Mitgliedsstaaten

Die Entwicklung einer ethischen und vertrauenswürdigen KI ist einer von vier Schlüsselbereichen im Koordinierten Plan für Künstliche Intelligenz, den die EU-Kommission Anfang Dezember vorlegte, und zu dem die High Level Expert Group im März 2019 nach Abschluss der öffentlichen Konsultation der Kommission ihre finalen der Ethikrichtlinien vorlegen wird. Das gemeinsame Vorgehen soll die Wirkung der Investitionen auf EU-Ebene und nationaler Ebene maximieren, Synergien in der gesamten EU fördern und die weltweite Wettbewerbsfähigkeit der EU als Ganzes erhalten. Bis Ende 2020 sollen mindestens 20 Mrd. EUR sowie in den darauf folgenden zehn Jahren über 20 Mrd. EUR jährlich an öffentlichen und privaten Investitionen in die Forschung und Innovation im Bereich der KI fließen.

Ergänzend zu nationalen Investitionen wird die Kommission im Jahr 2020 1,5 Mrd. EUR investieren. Diese Investitionen will die EU unterstützen durch eine neue öffentlich-private Partnerschaft zur Förderung der Zusammenarbeit zwischen Wissenschaft und Industrie bei KI in Europa, durch einen neue KI-Ausbaufonds für Start-ups und Innovatoren sowie durch die Vernetzung von weltweit führenden Zentren für KI zu Digitale Innovationszentren (Digital Innovation Hubs). Neben der Steigerung der Investitionen nennt die EU Kommission die Verfügbarkeit von mehr Daten als weiteren Schlüsselbereich ihrer Pläne. Sie will gemeinsame europäische Datenräume schaffen, um den nahtlosen Datenaustausch über Grenzen hinweg beispielsweise im Gesundheitswesen zu ermöglichen. Zur Förderung von Talenten und Kompetenzen wird die Kommission gemeinsam mit den europäischen Ländern fortgeschrittene Studiengänge im Bereich der KI durch spezielle Stipendien unterstützen.

Hintergrund

Der „Koordinierte Plan für Künstliche Intelligenz“ entstand im Rahmen der europäischen „Strategie für Künstliche Intelligenz“, die die EU Kommission im April 2018 veröffentlichte. In der Folge wurde die High-Level Expert Group on Artificial Intelligence, von der EU-Kommission im Juni 2018 ins Leben gerufen. Die 52 Mitglieder aus Wissenschaft, Gesellschaft und Wirtschaft beraten die Kommission bei der Umsetzung ihrer KI-Strategie. Ihre Ethikrichtlinien werden nach der öffentlichen Konsultation in die Strategie einfließen.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück