Standpunkte

Ziel gelungener Regeln für Künstliche Intelligenz ist es, die Vertrauenswürdigkeit eines KI-Systems zu garantieren. Wie gestalten wir diese Regeln? Bei der Abschätzung des Risikopotenzials von Künstlicher Intelligenz und ihrer Regulierung gibt es vielfältige Aspekte zu berücksichtigen.

Stimmen aus der Plattform Lernende Systeme

Expertinnen und Experten der interdisziplinär besetzten Plattform Lernende Systeme blicken vor ihrem jeweiligen fachlichen Hintergrund auf die Gestaltung vertrauenswürdiger Künstlicher Intelligenz.

Risiken nicht-intendierten Lernens

„KI ist häufig in visionäre Erzählungen eingebettet, in denen kein belastbares Wissen über Gefahren und Risiken besteht. Weiterhin verändern sich KI-Systeme durch Maschinelles Lernen. Eine Technikfolgenabschätzung für KI-Systeme muss daher auch mögliche Risiken nicht-intendierten Lernens betrachten und über einprogrammierte Leitplanken des Lernens nachdenken.“

Prof. Dr. Armin Grunwald, Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Mitglied in der Plattform Lernende Systeme

Wertkonflikte lösen

„Wenn es um die Bewertung der Kritikalität geht, sind normative Anforderungen an KI-Systeme zu benennen und Wertkonflikte müssen diskutiert werden. Welche Risiken sind für wen akzeptabel? Kann der Nutzen aus einer Anwendung mit einem möglichen Schaden verrechnet werden?“

PD. Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik an der Universität Tübingen und AG-Leiterin in der Plattform Lernende Systeme

Handlungsspielraum für den Menschen

„Je geringer der menschliche Entscheidungsraum und je höher die Gefährdungslage eines KI-Systems eingeschätzt wird, desto mehr Handlungsoptionen sollten dem Individuum zur Verfügung stehen, um mögliche Gefährdungen für Menschen und Rechtsgüter abzuwenden. Beispiele hierfür sind, den Anbieter zu wechseln oder alternative Konfigurationen zu wählen bis hin zum Opt-out.“

Dr. Dipl.-Ing. Detlef Houdeau, Senior Director Business Development bei Infineon Technologies AG und AG-Leiter in der Plattform Lernende Systeme

Technologischen Fortschritt beachten

„Bestehende Zertifizierungssysteme sind oft zu träge. In der Folge werden IT-Systeme teilweise nicht weiterentwickelt, weil die damit verbundene erneute Zertifizierung zu aufwendig ist. Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren.“

Prof. Dr. Jörn Müller-Quade, Professor für IT-Sicherheit am Karlsruher Institut für Technologie (KIT) und AG-Leiter in der Plattform Lernende Systeme

Betriebliche Folgen von KI abschätzen

„Es sind die Pflichten der Betriebe zu stärken. Es ist dringend erforderlich Nutzungsregeln im Sinne einer betrieblichen Folgenabschätzung für KI in der Arbeitswelt zu implementieren. Hierzu gehören Fragen wie zum Beispiel Auswirkungen auf Beschäftigung (Rationalisierungswirkung), Qualifizierungsbedarfe, Belastungsveränderungen etc.“

Oliver Suchy, Mitglied im Bundesvorstand des Deutschen Gewerkschaftsbundes DGB und Mitglied in der Plattform Lernende Systeme

Unabhängige Zertifizierung

„Die Kritikalitätsstufen sind ein Indikator für die Risiken, welche mit dem Einsatz eines KI-Systems verbunden sind. Für hohe Kritikalitätsstufen ist es also wichtig, dass potenzielle KI-Risiken hinreichend gut mitigiert sind, was etwa durch eine unabhängige Prüfung und die Verleihung eines Zertifikats erfolgen kann. Gleichzeitig können Zertifikate für Systeme mit geringer Kritikalität bescheinigen, dass zugesicherte Eigenschaften dieser Systeme erfüllt werden. Dies kann für Anbieter dieser Systeme einen Wettbewerbsvorteil darstellen und Transparenz für Nutzende dieser Systeme schaffen.“

Prof. Dr. Stefan Wrobel, Leiter des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS und Mitglied in der Plattform Lernende Systeme

Publikationen zum Thema

KI-Systeme schützen, Missbrauch verhindern

Hrsg.: AGs IT-Sicherheit, Privacy, Recht und Ethik und Lebensfeindliche Umgebungen
AutorInnen: Beyerer, J., Müller-Quade, J. et al.
Erschienen: März 2022

Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten

Hrsg.: AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2021

Zertifizierung von KI-Systemen

Hrsg.: AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science
AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al.
Erschienen: November 2020

Ethik-Briefing

Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen

Hrsg.: AG IT-Sicherheit, Privacy, Recht und Ethik
AutorInnen: Jessica Heesen et al.
Erschienen: Oktober 2020