Nachvollziehbare KI: Ergebnisse zielgruppengerecht und transparent gestalten
Mit der raschen Verbreitung von Chatbots ist Künstliche Intelligenz (KI) für viele Menschen im Alltag greifbar geworden. Wie und warum ChatGPT und andere KI-basierte Systeme zu ihren Ergebnissen kommen, bleibt für die Nutzenden dabei häufig undurchsichtig. Was genau passiert in der „Black Box“ zwischen der Modelleingabe und -ausgabe? Um die Resultate und die Entscheidungsfindung komplexer KI-Systeme nachvollziehbar zu machen, müssen algorithmische Entscheidungen erklärbar sein. So lässt sich einerseits die Modellqualität verbessern und andererseits das Vertrauen in KI stärken. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt, mit welchen Methoden und Werkzeugen KI-Ergebnisse für unterschiedliche Zielgruppen nachvollziehbar gemacht werden können und vermittelt Gestaltungoptionen für Forschung, Lehre, Politik und Unternehmen.

In vielen KI-Anwendungsgebieten wie der medizinischen Diagnostik, im Auswahlverfahren bei Bewerbungen oder der Qualitätskontrolle in der Produktion ist die Nachvollziehbarkeit entscheidend, um die Ergebnisse einordnen und hinterfragen zu können. So erhalten Entwicklerinnen und Entwickler Informationen, um KI-Systeme zu verbessern, und Nutzende können in Erfahrung bringen, welche Faktoren für die Zu- oder Absage einer Bewerbung entscheidend waren.
Die Forschung zum Thema Erklärbare KI (englisch: XAI) adressiert dabei hauptsächlich zwei Bereiche: Der erste konzentriert sich auf die Verbesserung von Daten und Modellen. In der Praxis werden XAI-Methoden häufig von KI-Ingenieurinnen und -Ingenieuren verwendet, um KI-Modelle vor ihrer Implementierung zu testen und um die Qualität von KI-Modellen zu verbessern. Der zweite Bereich beschäftigt sich mit den ethischen Kriterien für verantwortungsvolle KI. Sie dienen dazu, den Nutzenden Erklärungen zu liefern und damit Transparenz und Vertrauen in die Technologie zu ermöglichen.
Mit XAI Vertrauen stärken und Qualität verbessern
Transparenz ist besonders dann relevant, wenn maschinelles Lernen in gesellschaftlichen Bereichen eingesetzt wird, in denen Vertrauen in Personen, Institutionen oder Technologien besonders wichtig ist – wenn es etwa um die Sicherheit von Menschen geht. In Unternehmen wiederum kann das Wissen über das „Warum“ von KI-gestützten Vorhersagen wichtige Erkenntnisse für die Geschäftsentwicklung liefern oder zur Verbesserung von Produktionsprozessen beitragen. Zusätzlich ist Erklärbarkeit ein wichtiges Kriterium bei der Einführung von KI-Technologie im Unternehmen und für eine menschengerechte Gestaltung der KI-unterstützten Arbeitswelt.
Die Anforderungen und Erwartungen an XAI können dementsprechend sehr unterschiedlich ausfallen. Anhand von sieben verschiedenen Personengruppen – von KI-Spezialisten bis hin zu technisch unerfahrenen Nutzenden – zeigt das neue Whitepaper der Plattform Lernende Systeme, wie individuelle Rahmenbedingungen die Formen und Methoden der Erklärbarkeit beeinflussen.
"Erklärbare KI ist ein wichtiger Baustein für die Transparenz von KI-Systemen und die Möglichkeit, nachzuvollziehen, aufgrund welcher Information ein KI-System zu einer bestimmten Ausgabe gekommen ist", so Prof. Dr. Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg sowie Co-Autorin des neuen Whitepapers der Plattform Lernende Systeme. "Nachvollziehbarkeit ist auch eine wesentliche Voraussetzung für menschliche Kontrolle und Aufsicht. Durch die Kombination von erklärbarer KI und interaktivem maschinellen Lernen können Modelle durch Rückmeldung gezielt verbessert werden. So können maschinelles Lernen und menschliche Expertise sinnvoll zusammenspielen."
Die Frage nach dem „wie“ und „warum“ KI-Anwendungen zu ihren Ergebnissen kommen, eine Chatbot-Eingabe zu einer bestimmten Wortfolge führt oder ein Bildgenerator genau dieses und kein anderes Bild erstellt, kann mittels erklärbarer KI beantwortet werden: XAI-Methoden können helfen, Rückschlüsse auf die Qualität der Datenbasis zu ziehen, indem untersucht wird, wie stark welche Merkmale die Modellausgabe beeinflussen. Sie können im Modell Einblicke in künstliche neuronale Netzwerke gewähren, in dem sie Aufschluss über die Funktion bestimmter Bestandteile geben. XAI-Methoden helfen dabei, herauszufinden welche Merkmale der Daten dafür verantwortlich sind, dass eine bestimmte Vorhersage oder Klassifikation berechnet wird.
Forschung zu XAI-Methoden weiterentwickeln
Die Autorinnen und Autoren des Whitepapers weisen darauf hin, dass XAI – sowohl als Basis für vertrauenswürdige KI als auch als Werkzeug zur Verbesserung von Modellen – in der öffentlichen Diskussion als Chance begriffen werden sollte. Um die weitere Entwicklung dieser KI-Technologie voranzutreiben und ihr Potenzial noch besser auszuschöpfen, werden allgemeine sowie speziell auf die Zielgruppenorientierung ausgerichtete Gestaltungsoptionen vorgeschlagen. So sollte die Forschung etablierte Methoden verbessern und XAI-Methoden für neue Arten von KI weiterentwickeln. Möglich sind Instrumente zur Inspizier- und Kontrollierbarkeit großer KI-Modelle oder Standardwerkzeugkästen für eine Modellkorrektur auch ohne erneutes Training. In der Lehre sollte XAI im Sinne eines Engineering-Tools stärker in KI- und Data-Science-Studiengängen verankert werden. Unternehmen könnten vermehrt auf XAI setzen, um beispielsweise interne Kommunikationshürden abzubauen und sich von Wettbewerbern abzugrenzen.
Über das Whitepaper
Das Whitepaper „Nachvollziehbare KI. Erklären, für wen, was und wofür“ wurde von Mitgliedern der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download bereit.
Ein Interview mit Wojciech Samek, Mit-Autor des Whitepapers und Mitglied der Plattform Lernende Systeme, steht zur redaktionellen Verwendung zur Verfügung.
Weitere Informationen:
Petra Brücklmeier / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de