Zertifizierung von KI: Plattform Lernende Systeme benennt Prüfkriterien

Künstliche Intelligenz (KI) kommt bereits in vielen Branchen zum Einsatz. Um ihr wirtschaftliches und gesellschaftliches Potential auszuschöpfen, ist es wesentlich, dass die Menschen KI-Systemen und den mit ihnen verbundenen Prozessen und Entscheidungen vertrauen. Eine Zertifizierung von KI-Systemen kann dazu beitragen, das Vertrauen in die Technologie zu stärken. Dabei ist es wichtig, das richtige Maß an Zertifizierung zu wählen, um die Innovationskraft des Wirtschaftsstandorts Deutschland zu erhalten. In einem aktuellen Whitepaper zeigt die Plattform Lernende Systeme, wann und anhand welcher Kriterien KI-Systeme zertifiziert werden sollten und wie eine effektive Prüfinfrastruktur gestaltet werden kann.

Whitepaper zum Download

Die Zertifizierung ist eine Möglichkeit, um die Qualität eines KI-Systems sicherzustellen. Sie ist eine meist zeitlich begrenzte Bestätigung durch unabhängige Dritte, dass vorgegebene Standards, Normen oder Richtlinien eingehalten werden. Dabei gilt: Nicht jede KI-Anwendung muss zertifiziert werden. Während ein Großteil der KI-Systeme unproblematisch sein dürfte, wie etwa Algorithmen zur Identifizierung von Spammails, gibt es Anwendungen, die einer genaueren Prüfung unterzogen werden sollten, heißt es in dem Papier. Die Autorinnen und Autoren schlagen vor, für die Entscheidung, ob ein System zertifiziert werden soll, die sogenannte Kritikalität des Systems zu bewerten. Zu fragen sei, ob ein System Menschenleben oder Rechtsgüter wie die Umwelt gefährde und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Entscheidend für die Kritikalität ist stets der Anwendungskontext. Das gleiche System kann in einem Anwendungskontext unproblematisch und in einem anderen höchst kritisch sein. So könne ein Staubsaugerroboter trotz seines hohen Maßes an Autonomie zunächst als vergleichsweise unproblematisch gelten, sammelt er aber Daten, die er seinem Hersteller zur Verfügung stellt, kann die Bewertung kritischer ausfallen.

Überregulierung ist zu vermeiden

„Eine Zertifizierung kann für eine Vielzahl von KI-Systemen dazu beitragen, ihr gesellschaftliches Nutzenpotential sicher und gemeinwohlorientiert auszuschöpfen. Damit dies im Einklang mit gesellschaftlich anerkannten Werten geschieht, muss eine Form von Zertifizierung gefunden werden, die von wichtigen ethischen Prinzipien geleitet wird, aber gleichzeitig auch ökonomische Prinzipien erfüllt, Überregulierung vermeidet sowie Innovationen fördert. Im besten Fall kann eine Zertifizierung selbst zum Auslöser neuer Entwicklungen für einen europäischen Weg in der KI-Anwendung werden“, sagt Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen sowie Co-Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik. Bei einem höheren Kritikalitätsgrad, wie zum Beispiel einer KI, die zur Verteilung von Studienplätzen eingesetzt wird, empfehlen die Autorinnen und Autoren, den Staat als regulierende Instanz einzusetzen. Für besonders kritische Anwendungskontexte wie einer biometrischen Fernidentifikation könnte der Staat Verbote oder Einschränkungen beim Einsatz aussprechen.

Die anzulegenden Prüfkriterien unterteilen die Autorinnen und Autoren in Mindestkriterien, die immer erfüllt werden müssen, und darüber hinaus gehende freiwillige Kriterien. Zu den Mindestkriterien zählten Transparenz, Sicherheit, Diskriminierungsfreiheit oder Schutz der Privatheit. Als weitere Kriterien nennt das Whitepaper etwa Nutzerfreundlichkeit oder Nachhaltigkeit.

Die Zertifizierung sollte durchgeführt werden, bevor das KI-System in der Praxis zum Einsatz kommt. Allerdings entwickeln sich vor allem lernende KI-Systeme nach Inbetriebnahme weiter, was turnusmäßige Re-Zertifizierungen notwendig machen kann. „Bestehende Zertifizierungssysteme sind oft zu träge. In der Folge werden IT-Systeme teilweise nicht weiterentwickelt, weil die damit verbundene erneute Zertifizierung zu aufwendig ist. Lernende KI-Systeme verändern sich aber andauernd, nicht nur bei Updates. Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren“, so Jörn Müller-Quade, Professor für Kryptographie und Sicherheit am Karlsruher Institut für Technologie (KIT) und Co-Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik in der Plattform Lernende Systeme.

Der erste Schritt zu einem Zertifizierungssystem für KI sei es, die Schwellenwerte, ab welcher Kritikalität eine Zertifizierung notwendig wird, festzulegen, heißt es im Whitepaper. Die bedürfe einer gesellschaftlichen Debatte. Die Autorinnen und Autoren empfehlen, Bürgerinnen und Bürger in Zertifizierungsprozesse einzubeziehen und bereits in der Schule Wissen zur Funktionsweise von KI-Systemen zu vermitteln.

Über das Whitepaper

Das Whitepaper Zertifizierung von KI-Systemen. Kompass für die Entwicklung und Anwendung vertrauenswürdiger KI-Systeme wurde federführend von der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik sowie der Arbeitsgruppe Technologische Wegbereiter und Data Science verfasst. Beteiligt waren darüber hinaus Mitglieder aller Arbeitsgruppen der Plattform Lernende Systeme sowie Gastautorinnen und -autoren.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück