Wie KI und Robotik die Medizin revolutionieren: Plattform Lernende Systeme diskutiert mit Bürgerinnen und Bürgern in Leipzig

Scannen großer Bilddatenmengen, Auswerten radiologischer Aufnahmen und millimetergenaue chirurgische Präzision – Künstliche Intelligenz (KI) unterstützt Ärztinnen und Ärzte schon heute dabei, Krankheiten zu diagnostizieren und zu behandeln. Welche ethischen Leitlinien ein gleichermaßen innovativer wie verantwortungsvoller Einsatz von KI braucht – dazu diskutierten Experten der Plattform Lernende Systeme in Leipzig im Atrium der Universitätsklinik.

Zum Thema „Mit KI gegen Krebs“ diskutierten (v.l.) Florian Lordick (Universität Leipzig), die Plattform-Mitglieder Peter Dabrock (Deutscher Ethikrat) und Thomas Neumuth (ICCAS) sowie Monika Seynsche (Moderatorin). © ICCAS

Vertrauenswürdige KI-Systeme in der Medizin müssen erklärbare Ergebnisse liefern und lückenlosen Datenschutz garantieren. Das betonten die Diskutanten der Veranstaltung „Wissenschaft kontrovers“, die am 07. Oktober in Kooperation mit der Plattform Lernende Systeme zum Thema „Mit KI gegen Krebs“ in Leipzig stattfand.

„Erklärbarkeit ist ein höchstrelevantes Problem, an dem derzeit stark geforscht wird“, erklärte Thomas Neumuth, stellvertretender Direktor des Innovationszentrum für Computerassistierte Chirurgie ICCAS in Leipzig und Mitglied der Arbeitsgruppe 6 – Gesundheit, Medizintechnik, Pflege der Plattform Lernende Systeme. Die derzeit leistungsfähigsten Algorithmen beruhten auf dem Blackbox-Prinzip, so dass die Lösungswege der KI nicht nachvollziehbar seien. Es gebe aber durchaus technische Möglichkeiten, um diese Herausforderung zu lösen. Dies könne die Scheu vor der Technologie nehmen, sagte der Medizininformatiker.

Florian Lordick, Direktor der Medizinischen Klinik und Poliklinik 1 an der Universität Leipzig sowie Direktor des Universitären Krebszentrums Leipzig (UCCL), betonte: Daten müssten in angemessener Qualität gesammelt werden, da sonst der beste Algorithmus keine zuverlässigen Ergebnisse liefere. „Die Maschinen mit validen Daten zu befüllen, ist eine große Herausforderung“, sagte der Mediziner. Eine Parametrisierung dessen, was eine Krankheit ausmacht, sei zu kompliziert.

Patientinnen und Patienten können KI-Systemen zudem nur dann vertrauen, wenn ihre Daten vor Missbrauch geschützt sind. Datenschutz müsse wasserfest gemacht werden, forderte Peter Dabrock, Vorsitzender des Deutschen Ethikrates und Mitglied der Arbeitsgruppe 3 – IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. „Die Souveränität des Einzelnen muss in jedem Schritt des Datenverarbeitungsprozess gegeben sein.“ Wie das gelingen kann? An programmatischen Datenschnittstellen könnten Datensubjekte angesetzt werden, die die weitere Datenverwendung verfolgen. Ebenso könnten Datentreuhänder benannt werden, die Daten auf sichere Weise für definierte Zwecke weitergeben, so Peter Dabrock.

Einig waren sich die drei Experten auch darüber, welche Rolle Künstliche Intelligenz im medizinischen Alltag einnehmen kann. Es gehe nicht darum, Ärztinnen und Ärzte zu ersetzen, sondern sie bestmöglich zu unterstützen. „Die Diagnosestellung ist ein unglaublich komplexer Prozess“, betonte Florian Lordick. Bildverarbeitungssoftware könne etwa radiologische Aufnahmen mit einer höheren Treffergenauigkeit auswerten als das menschliche Auge. Die Diagnose stelle dennoch ein Arzt, nachdem er Proben unter dem Mikroskop analysiert habe.

Peter Dabrock pflichtete bei: KI erkenne Muster aus riesigen Datenmengen. Sie sei ein effektives Unterstützungssystem – „aber KI kann weder die ärztliche Urteilskraft noch Forschungstätigkeiten komplett ersetzen“, sagte er. Thomas Neumuth betonte, dass die Entwicklerinnen und Entwickler von KI-basierten Medizinsystemen stets die Sichtweise von Ärztinnen und Ärzten berücksichtigen möchten. „Wir schlagen technische Systeme vor. Ob sie einen Mehrwert haben und für Patienten zumutbar sind, entscheiden die Ärzte.“ Der eigentliche Mehrwert von KI bestehe darin, ärztliche Erfahrung mit technologischer Leistungsfähigkeit kombinieren zu können.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück