3 Fragen an

Eva Bittner

Professorin für Wirtschaftsinformatik, insbesondere sozio-technische Systemgestaltung an der Universität Hamburg und Mitglied der Plattform Lernende Systeme

Umgang mit Künstlicher Intelligenz: „Menschen neigen dazu, IT-Systeme als soziale Akteure wahrzunehmen“

Mensch und Maschine arbeiten künftig immer enger zusammen. Nicht nur in Fabriken, wo Roboter Hand in Hand mit den Beschäftigten Güter produzieren und dabei dank Künstlicher Intelligenz (KI) laufend von ihren menschlichen Kolleginnen und Kollegen dazu lernen. Auch in klassischen Bürojobs oder sozialen Berufen unterstützen KI-basierte Chatbots und Assistenzsysteme zunehmend bei der Arbeit. Wie sich das auf Arbeitsabläufe und die Beschäftigten auswirkt, untersucht Eva Bittner, Professorin für sozio-technische Systemgestaltung an der Universität Hamburg und Mitglied des KI-ExpertInnen-Netzwerks Plattform Lernende Systeme, mit ihrem Team. Warum sie das Thema fasziniert, wie Mensch und KI-Systeme optimal kooperieren und welche Herausforderungen bestehen, erläutert sie anlässlich des bundesweiten Girls’ Day.

1

Frau Bittner, was fasziniert Sie an Ihrem Forschungsfeld?

Eva Bittner: Die aktuellen Herausforderungen zeigen, dass die Gestaltung von KI-Systemen nicht nur ein technisches Thema, sondern ganz zentral auch ein soziales und kulturelles Thema ist. Die sozio-technische Systemgestaltung berücksichtigt die Interaktionen zwischen Mensch und Technologie im organisationalen Kontext, um sicherzustellen, dass Technologie auf sinnvolle und menschenzentrierte Weise eingesetzt wird. Wenn wir die Entscheidung, nach welchen Regeln und zu welchem Nutzen KI-Systeme gestaltet und eingesetzt werden, nicht allein in die Hand von Technologiekonzernen legen wollen, brauchen wir stark inter- und transdisziplinäre Forschung. Dass wir häufig mit Praxispartnern und echten NutzerInnen an der Lösung realer neuartiger Herausforderungen arbeiten, motiviert mich. Die gemeinsame Arbeit in gemischten Teams an der Schnittstelle von (Wirtschafts-)Informatik, Psychologie, Human Computer Interaction (HCI), Ethik und weiterer Disziplinen ist dabei unheimlich bereichernd, weil wir täglich voneinander lernen. Sie erfordert viel Kommunikations- und Teamfähigkeit und die Offenheit, sich auf andere Perspektiven einzulassen.

2

Wie arbeiten Mensch und Maschine künftig optimal zusammen?

Eva Bittner: Eine optimale Zusammenarbeit von Mensch und Maschine bedeutet für mich, menschliche Bedürfnisse und Fähigkeiten in den Fokus zu stellen. Maschinen sollten so gestaltet und in die Arbeitsprozesse eingebunden werden, dass sie Menschen von repetitiven Aufgaben entlasten, sie zur Nutzung ihrer Stärken befähigen und bei dieser unterstützen. Ich denke, dass wir künftig immer mehr sogenannte „hybride Intelligenz“ sehen werden, bei der menschliche und maschinelle Arbeit sehr eng und interaktiv verwoben sind und bei der Mensch und Maschine kontinuierlich voneinander lernen. Für viele Aufgaben der Wissensarbeit, wie die Lösung komplexer Probleme oder die Entwicklung kreativer Lösungen, kommt eine Vollautomatisierung nicht in Frage. Die Kombination von menschlichem Urteilsvermögen, Empathie und Kreativität mit maschineller Geschwindigkeit und Fähigkeiten zur Datenanalyse kann hier jedoch einen echten Mehrwert bieten. Wie genau die Arbeitsteilung und Übergaben zwischen Mensch und Maschine im konkreten Arbeitsprozess erfolgen, sollte mit Blick auf Themen wie Transparenz, Vertrauen, Privatheit und Datenschutz und Verantwortung für die Ergebnisse bewusst gestaltet werden.

3

Welche Herausforderungen bestehen? Wie können sie gelöst werden?

Eva Bittner: KI-Systeme durchdringen – nicht immer als solche erkennbar oder in ihrer Funktionsweise und Datengrundlage transparent – immer mehr Tätigkeitsfelder im Beruflichen wie Privaten. Ihr beeindruckend überzeugendes und teilweise menschenähnliches Auftreten – siehe ChatGPT – macht es uns zunehmend schwer, ihre tatsächlichen Fähigkeiten und Grenzen realistisch einzuschätzen und ein angebrachtes Maß an Vertrauen, aber auch kritischer Vorsicht aufzubringen. Menschen neigen dazu, IT-Systeme als soziale Akteure wahrzunehmen und ihnen menschliches Verhalten und Intelligenz zuzuschreiben. Das kann z.B. dazu führen, dass wir Vorschläge des generativen KI-Systems inhaltlich überschätzen und ungeprüft übernehmen, wenn sie eloquent präsentiert werden. Aber auch, dass wir dem freundlichen Chatbot ggf. private oder unternehmensinterne Informationen preisgeben, weil die Nutzung eine komfortable Unterstützung und Zeitersparnis verspricht. Diesen Herausforderungen können wir begegnen, indem wir KI-Systeme selbst nach – für den jeweiligen Einsatzweck ausgehandelten – ethischen Maßstäben möglichst vertrauenswürdig und transparent gestalten, wo immer wir als Forschende, EntwickerInnen oder EntscheiderInnen Einfluss auf deren Entwicklung haben. Wir müssen aber auch noch besser verstehen, wie Menschen und Maschinen als Teams funktionieren und wie sich dabei die Dynamiken von der Zusammenarbeit zwischen Menschen oder der Nutzung klassischer IT-Werkzeuge unterscheiden. Auf dieser Basis können wir Menschen für den kompetenten und kritischen Umgang mit KI-Systemen qualifizieren und Mensch-Maschine-Zusammenarbeit ganzheitlich gestalten.

Das Interview ist für eine redaktionelle Verwendung freigegeben (bei Nennung der Quelle © Plattform Lernende Systeme).

Zurück