Regulierung von Künstlicher Intelligenz: EU-Kommission will einheitliches Konzept

Die Europäische Kommission legte heute ihren Legislativvorschlag zur Regulierung von Künstlicher Intelligenz (KI) vor. Der Entwurf sieht dabei eine strengere Überwachung und Zertifizierung von riskanten KI-Systemen vor und will damit ein einheitliches europäisches Konzept für Künstliche Intelligenz schaffen. Risikoreiche KI-Systeme sollen bestimmte Mindestanforderungen erfüllen. Für sie sind Konformitätsanforderungen vorgesehen, die die Hersteller selbst überprüfen oder die durch sogenannte benannte Stellen kontrolliert werden. Für alle nicht risikoreichen KI-Anwendungen wird die Etablierung eines Codes of Conduct empfohlen.

Unter die risikoreichen KI-Systeme fallen nach dem Vorschlag der EU-Kommission unter anderem Anwendungen in kritischer Infrastruktur, die beispielsweise bei der (Straf-)Verfolgung von Personen oder bei der Gesichtserkennung eingesetzt werden können. Sogenanntes „Social Scoring“, also das Bewerten des Verhaltens von Menschen, Anwendungen, die Menschen manipulieren und ihnen so Schaden zufügen können, sowie generelle Überwachung durch KI bleiben grundsätzlich verboten.

Einrichtung einer Datenbasis und Erleichterungen für Start-ups

Risikoreiche KI-Anwendungen sollen zukünftig in einer EU-Datenbank erfasst und veröffentlicht werden. Ebenso sieht der Entwurf Maßnahmen für die Stärkung der Innovationsfähigkeit insbesondere für mittelständische Unternehmen vor. Nachvollziehbarkeit und Überwachung der KI-Systeme durch den Menschen sowie die Neutralität von Trainingsdaten sollen gewährleistet werden.

Post-Market Monitoring und Einführung eines „European Artificial Intelligence Board“

Auch nach der Markteinführung sollen laut Entwurf die entsprechenden KI-Systeme laufend auf ihre Konformität mit den geltenden Regelungen überprüft werden. Zudem soll ein europäischer KI-Ausschuss die Kommission bei ihrer Aufgabe unterstützen, risikoreiche KI-Systeme als solche zu definieren, die Anwendung der Verordnung überwachen und Best Practice-Beispiele aus den Mitgliedstaaten sammeln. Unterstützt werden soll der Ausschuss von einer durch die Kommission ernannte Expertengruppe. Die Gesetzesinitiative der Europäischen Kommission wird nun den entsprechenden EU-Institutionen zur Lesung und Änderung vorgelegt.

Stimmen aus der Plattform Lernende Systeme zum Vorschlag der EU-Kommission

Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik der Universität Tübingen, bewertet die Verordnung als einen sinnvollen Versuch Rahmenbedingungen für die zukünftige Entwicklung von KI zu setzen. Siebegrüßt die einschlägige Differenzierung zur Erfassung und zum Umgang mit biometrischen Daten oder zum Social Scoring und die Überwindung von Regulierungshürden für Start-Ups. Die klassischen Probleme der Digitalisierung wie die Gefahr der Manipulation oder Sicherheitsfragen ließen sich jedoch nicht allein durch Regulierung lösen. In dem Entwurf werde beispielsweise der Begriff „Manipulation“ so weit gefasst, dass auch etablierte Geschäftsmodelle von sozialen Medien unter diesen Begriff fallen können.“ Nachgebessert werden könne die Verordnung unter anderem im Verbraucherschutz sowie bei der Einschätzung des Risikoklassen der KI-Systeme, die eine Zertifizierung erfordern:

„Wichtige Punkte wie Nachhaltigkeit oder Diskriminierungsfreiheit gehören zum Beispiel nicht zu den Kriterien, die für Zertifizierungen durch Dritte eingelöst werden müssen. Die Liste der Prüfverfahren, die durch Selbstregulierung vollzogen werden können, ist sehr lang. Echte Zertifizierungen als Prüfungen durch unabhängige Dritte sind nur auf Infrastrukturrisiken und biometrische Datenerfassungen bezogen.“

Grundsätzlich positiv über die Regulierung einiger Technologien äußert sich auch Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft der Universität Paderborn:

Im Entwurf wird die Gefahr manipulativer Nutzung und die weitreichende Nutzbarkeit der Technologien, insbesondere zu Überwachungszwecken, genannt. Meines Erachtens ist das auch nötig, weil die Technologien noch viel zu neu sind, um sie zuverlässig dort einzusetzen, wo hohe Risiken im Spiel sind. Viele der Fehler und Diskriminierungen, die regelmäßig in Presse und Wissenschaft auftauchen, sprechen dafür, dass hier noch einiges an Arbeit nötig ist.“ Kritisch betrachtet er aber die Forderung der EU-Kommission nach neutralen fehlerfreien Daten: „Das ist natürlich unmöglich. Es ist wichtig, sich um hochqualitative Daten zu kümmern, aber dazu gehört auch das Wissen, dass Daten nie neutral sein können. Sie sind immer eine bestimmte Perspektive auf die Welt. Zu einer sinnvollen Praxis, die sich um Datenqualität kümmert, gehört meines Erachtens die Forderung nach Prozessen, um mit dieser unvermeidlichen Perspektivität der Daten umzugehen."

Kristian Kersting, Professor für Maschinelles Lernen der Technischen Universität Darmstadt, begrüßt das Bemühen der EU-Kommission, KI als Werkzeug sicherzustellen, das im Dienst der Menschen steht. Er weist allerdings auf die Schwierigkeiten der Regulierung von KI hin:

„Weil die Regulierung von intelligentem Verhalten so schwierig, ja sogar mit dem Lösen von KI selbst gleichzusetzen ist, wäre eine explizit adaptive Regulierung besser gewesen. Der Innovationszyklus ist in der KI extrem kurzlebig. Außerdem würde eine adaptive Regulierung zeigen, dass man das Pferd nicht von hinten aufzäumen kann. Regulierung und Innovation würden in den Dialog treten.“

Die ausführlichen Statements von Jessica Heesen, Tobias Matzner und Kristian Kersting entstanden auf Basis einer Entwurfsfassung des Legislativvorschlags der EU-Kommission. Sie wurden am 16.04. 2021 vom Science Media Center veröffentlicht. https://www.sciencemediacenter.de/alle-angebote/rapid-reaction/details/news/eu-will-kuenstliche-intelligenz-regulieren/

Zurück