Der AI Act der EU

Die Europäische Union (EU) entwickelt ein gemeinsames Regelwerk, das zu einer vertrauenswürdigen KI beitragen soll. Hierfür hat die Europäische Kommission 2021 einen Vorschlag vorgelegt: der Artificial Intelligence (AI) Act. Diesen habe die Mitgliedsstaaten der EU sowie Wirtschafts- und zivilgesellschaftliche Akteure 2022 kommentiert. Aktuell laufen Verhandlungen zwischen den EU-Institutionen, sodass die Regeln für KI noch 2023 beschlossen werden können.

Der erste KI-Regulierungsprozess für Europa

Ziel des AI Acts der EU ist es, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen. Ein ausdifferenziertes Regelwerk soll verpflichtende Vorgaben für die Entwicklung und Anwendung von risikoreichen KI-Systemen machen. So werden technische wie auch ethische Standards vorgeschrieben, um die Grundrechte der EU-Bürgerinnen und -Bürger zu schützen und zugleich den Wirtschaftsstandort Europa global zu stärken.

Diese Regeln gelten als der erste transnationale Versuch, KI mit verbindlichen und gemeinsam ausgehandelten Normen zu gestalten. Was bereits in vielen anderen Bereichen existiert – beispielsweise in der Medizintechnik oder der Regulierung von Impfstoffen, soll nun auch für die KI geschaffen werden: verbindliche Regeln für eine vertrauenswürdige Technik. Damit nimmt die EU eine Vorreiterrolle zugunsten der europäischen Gesellschaft und Wirtschaft ein. Durch die rechtlichen Rahmenbedingungen für KI schafft die EU nicht nur Transparenz für Nutzerinnen und Nutzer und Rechtssicherheit für Unternehmen, sondern sichert auch die technologische Souveränität des Kontinents. Im internationalen Wettbewerb können sich europäische Wertvorstellungen als Qualitätsmerkmal einer vertrauenswürdigen KI durchsetzen – Stichwort: „KI made in Europe“.

Was soll im AI Act geregelt werden?

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Künftig werden EU-weit einheitliche Anforderungen an KI-Systeme gelten. Gerade im Bereich der Hochrisiko-KI-Anwendungen spielen Normen und Standards dabei eine wichtige Rolle. Das Video zeigt, wie das Zusammenspiel von Gesetzgebung und Normung funktioniert (Quelle: Deutsches Institut für Normung).

Im Zentrum des AI Acts steht die Risiko- oder Kritikalitätsbewertung von KI-Systemen. Dem Entwurf der Europäischen Kommission folgend sollen Regeln für KI entsprechend ihrem Gefahrenpotenzial bestimmt werden. Die Kommission sieht vor, KI-Anwendungen in vier Risikostufen zu klassifizieren, vom minimalen Risiko bis hin zum inakzeptablen Risiko. So gehen etwa von Systemen zur intelligenten Wartung von Industriemaschinen keinerlei Gefahren aus. Sie entsprechen der niedrigsten von vier Risikostufen und bedürften laut EU-Vorschlag keiner Regeln. Andere denkbare KI-Anwendungen bergen indessen Risiken. Wenn von KI-Systemen erhebliche Risiken für die Gesundheit und die Grundrechte von Personen, für Rechtsgüter oder die Umwelt ausgehen, wie es im Vorschlag der Europäischen Kommission heißt, ist ihre Entwicklung und Einsatz nur unter bestimmten Bedingungen erlaubt. Für Hochrisiko-KI-Systeme, deren Risiken als unannehmbar eingestuft werden, soll ein pauschales Verbot gelten, etwa für sogenanntes Social Scoring durch staatliche Stellen.

Empfehlungen der Plattform Lernende Systeme

Expertinnen und Experten der Plattform Lernende Systeme haben sich mit dem Entwurf der EU-Kommission zum AI Act auseinandergesetzt:

  • 1. Der von der Europäischen Kommission vorgeschlagene Regelungsansatz einer Risikobewertung von KI-Systemen bietet eine gute Orientierungsfunktion zur Gestaltung vertrauenswürdiger KI. Nach Ansicht der Expertinnen und Experten ist es jedoch unerlässlich, das Konzept zu erweitern und weitere Kriterien zu definieren sowie zu präzisieren, um das Gefahrenpotenzial eines KI-Systems bemessen und beurteilen zu können.
  • 2. Die Regeln für KI-Systeme sind immer vor dem Hintergrund des jeweiligen Anwendungskontextes zu sehen. Dies auch, um eine Balance zu schaffen: Einerseits um die Offenheit für technische Innovationen zu fördern und andererseits um Verbraucherinnen und Verbraucher angemessen vor möglichen Risiken zu schützen.
  • 3. Die Kontroll- und Entscheidungsmöglichkeiten der Nutzerinnen und Nutzer von KI-Systemen sind zu stärken, sodass sie ungewünschte Funktionen der KI im Zweifel selbst erkennen und unterbinden können.

WER HAFTET, WENN KI-SYSTEME SCHÄDEN VERURSACHEN?

Die EU arbeitet nicht nur an Rahmenbedingungen für eine sichere und vertrauenswürdige KI, sondern möchte ebenso einheitliche Haftungsregeln schaffen, die gelten sollten, wenn KI-Systeme Schäden verursachen. Insbesondere soll ein umfassender Schutz potentieller Opfer – sowohl Einzelpersonen wie auch Unternehmen – verankert werden. Konkret heißt das, dass Geschädigte vereinfacht Zugang zu rechtlichen Verfahren und möglichen Schadensersatzansprüchen haben sollen. Auch in Bezug auf die Haftungsregeln achtet der Gesetzgeber indes auf ein ausgewogenes Verhältnis von Verbraucherschutz und Innovationsförderung.

Was folgt auf den AI Act?

Die europäischen Regeln für KI werden künftig im AI Act der EU festgehalten sein. Dieser soll als EU-Verordnung einen rechtlich bindenden Charakter erhalten. Konkret bedeutet dies: Sobald der AI Act auf europäischer Ebene beschlossen wird, hat er in allen EU-Mitgliedsstaaten die selbe Gültigkeit wie ein nationales Gesetz. Eine erneute Zustimmung der jeweiligen nationalen Parlamente ist nicht notwendig.

Damit der AI Act als rechtliche EU-Verordnung umgesetzt werden kann, arbeitet die EU bereits an Normen, die die Inhalte des AI Acts für die Anwendung in der Praxis konkretisieren. So sollen rechtliche Gestaltung und technische Implementierung im besten Fall reibungslos miteinander synchronisiert werden. Um solche Normen zu erarbeiten, hat die Europäische Kommission bereits das Europäische Komitee für Normung CEN sowie das Europäische Komitee für elektrotechnische Normung CENELEC beauftragt. Harmonisierte Standards zum Regelwerk des AI Acts sollen bis 2024 vorliegen.

Publikationen zum Thema

KI-Systeme schützen, Missbrauch verhindern

Hrsg.: AGs IT-Sicherheit, Privacy, Recht und Ethik und Lebensfeindliche Umgebungen
AutorInnen: Beyerer, J., Müller-Quade, J. et al.
Erschienen: März 2022

Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten

Hrsg.: AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2021

Zertifizierung von KI-Systemen

Hrsg.: AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2020

Ethik-Briefing

Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen

Hrsg.: AG IT-Sicherheit, Privacy, Recht und Ethik
AutorInnen: Jessica Heesen et al.
Erschienen: Oktober 2020