Use Case

Schleifen, polieren, lackieren: Persönliche Roboter für Handwerkerinnen und Handwerker

Use Case im Überblick

Branche: Handwerk

Aufgabe: (Teil-)automatisierte Schleifarbeiten in der Einzel- und Kleinserienfertigung, um gesundheitliche Belastung zu minimieren, die Effizienz der Fertigungsprozesse sowie die Attraktivität des Handwerks zu steigern

Methode: Lernen durch Vormachen (Learning from Demonstration), bestärkendes Lernen (Reinforcement Learning) u. a.

Allgemeines

Die (teil-)automatisierte Oberflächenbearbeitung für die Einzel- und Kleinserienfertigung mit Robotern ist ein Bereich, der die gesundheitliche Belastung der Handwerkerinnen und Handwerker reduzieren und die Effizienz der Fertigungsprozesse sowie die Attraktivität des Handwerks steigern kann. Grundsätzlich kann die Bearbeitung von Oberflächen sowohl abtragende (Schleifen) als auch auftragende Aufgaben (Lackieren) umfassen. Der Use Case konzentriert sich auf Schleifarbeiten, wie sie beispielsweise bei der Herstellung von Cellokörpern oder im Modellbau anfallen.

Status quo

Im Gegensatz zum Einsatz von Robotern in der Serienfertigung (z. B. Pick and Place) wird der Oberflächenbearbeitung in der Einzel- und Kleinserienfertigung wenig Aufmerksamkeit geschenkt. Es existieren jedoch bereits einfache Lösungen zur geometriebasierten Bahnplanung und Steuerung mittels kraftsensitiver Endeffektoren (z. B. Gerät am Ende eines Roboterarms zum Schleifen oder Greifen). Für die automatisierte Offline-Bahnplanung werden teilweise bereits standardmäßig 3D-Scan- oder optische Systeme eingesetzt. Darüber hinaus gibt es erste Lösungen für die Mensch-Roboter-Interaktion (MRI) bei Industrierobotern oder Cobots: Roboterbewegungen können so durch manuelle Führung des Armes eins zu eins und Bewegung für Bewegung programmiert (Kinesthetic Teaching) oder über infrarot-technisch lokalisierbare Positioniergeräte realisiert werden. Trotz dieser niederschwelligen Verfahren wird das Potenzial des maschinellen Lernens hier nicht ausgeschöpft. So basiert das Teach-in auf Regelungstechnik. In der anwendungsnahen Forschung werden jedoch bereits Systeme entwickelt, die maschinelles Lernen für das Antrainieren von Schleiffähigkeiten nutzen.

Zukunftsperspektiven mit KI

Durch das Lernen durch Interaktion können Roboterfähigkeiten für die Oberflächenbearbeitung entwickelt, vermittelt und verbessert werden. Die Robotersysteme können vom handwerklichen Fachpersonal selbst mit entsprechender Software für geeignete Aufgaben spezialisiert und optimiert werden, ohne dass spezielle Programmierkenntnisse oder KI-Wissen erforderlich sind. Gerade im Handwerk sind die Kosten für die Roboterprogrammierung oft nicht realisierbar. No-Code-Lösungen sind daher notwendig, um die Produktivität zu steigern. Die Vision: ein Perspektivenwechsel von der Expertentechnologie hin zum Anwendenden, ähnlich dem Wechsel vom Großrechner zum Personal Computer (PC). Ziel ist der „persönliche Roboter“ für die Handwerkenden: Eine Handwerkerin oder ein Handwerker soll den Roboter wie einen Meisterschüler in handwerklichen Tätigkeiten ausbilden können. Im Sinne einer variablen Autonomie könnten Roboter zukünftig in der Interaktion mit dem Menschen immer mehr Fähigkeiten und damit höhere Autonomiegrade erreichen, sodass der Roboter bereits am Objekt erkennt, welche Aufgaben zu erledigen sind, und sich zur Freigabe oder bei Unsicherheiten an die Anwendenden wendet. Dabei steht jedoch nicht die (Teil-)Automatisierung im Vordergrund, sondern vor allem die Bereitstellung von Roboterwerkzeugen, die durch ihre Flexibilität und niedrige Einstiegshürde Raum für Kreativität lassen. So soll eine produktivere Einzel- und Kleinserienfertigung realisiert werden, die in der Lage ist, eine Vielzahl unterschiedlicher, zum Teil einzigartiger und komplexer Produkte herzustellen (high mix, low volume). Damit wird die Spezialisierung auf heutzutage als unrentabel geltende Tätigkeitsfelder attraktiv. Neue Geschäftsmodelle werden möglich.

Quellen des Lernens

  • Erfahrungswissen und Feedback der Anwendenden/ExpertInnen
  • Mensch-Roboter-Interaktion (MRI)
  • Beobachtung der Umgebung und Selbstbeobachtung bei der Oberflächenbearbeitung
  • Lernen von Fähigkeiten, die andere Roboter bereits erlernt haben (siehe Methoden des Lernens: Transfer Learning)

Benötigte Daten

Erforderlich ist eine multisensorische Wahrnehmung der Umgebung mit und ohne Bauteilkontakt sowie das Erkennen von Bearbeitungsklassen, z. B. Bewegungsabläufe für bestimmte Arbeitsschritte.

Dabei sind folgende Daten von Bedeutung:

  • Erfassung von Position und Kraft, Akustik, Beschleunigung, Geschwindigkeit etc. durch Sensoren und Zusammenführung solcher Daten (Data Fusion)
  • Erfassung von Prozess- und Interaktionsdaten (Daten, die während der Ausführung der Aufgabe oder durch Teach-in erfasst werden)
  • Visuelle Wahrnehmung, z. B. der Beschaffenheit des zu bearbeitenden Objekts (wie Kantenerkennung) über ein Vision-System
  • Sprachdaten, manuelle Korrekturen oder anderes menschliches Feedback

Methoden des Lernens

  • Lernen durch Vormachen (Learning from Demonstration, LfD), überwachtes Lernen (Supervised Learning, SL), bestärkendes Lernen (Reinforcement Learning, RL) oder auch interaktives Lernen durch Nachahmung (Interactive Imitation Learning, IIL)
  • Aktives Anlernen von Basisfähigkeiten und Bearbeitungsstrategien (allgemein und später aufgabenspezifisch) sowie Optimierung in der Anwendung durch zusätzliche 1:1-Demonstration oder RL-Strategien
  • Transferlernen (Transfer Learning) zur Übertragung von Fähigkeiten in andere Kontexte
    bzw. Anpassung für andere Aufgaben

Qualitätssicherung

  • Ausschluss von möglicherweise fehlerbehafteten Datenquellen oder Lernergebnissen
  • Validierung von Lernergebnissen durch menschliches Feedback
  • Abgleich mit vordefinierten Qualitätsmaßstäben

Systemvoraussetzungen

Teilweise mobile bzw. adaptive Arbeitsräume sind erforderlich, um diese beispielsweise an die physischen Einschränkungen des Roboters anzupassen. Entscheidend für die Lernfähigkeit ist eine multisensorische Online-Auswertung von Umgebungs- und Prozessdaten (Learning on Device). Um einfache bis komplexe erlernte Fähigkeiten (z.B. Anhalten an einer Kante) später wieder abrufen und kombinieren zu können, müssen diese in Fähigkeitsbibliotheken gesammelt und gespeichert werden. Für den Abruf solcher Fähigkeiten bzw. Bearbeitungsklassen oder Trainingsmodi (vgl. LfD, IIL etc.) benötigen die Anwendenden eine leistungsfähige und dennoch einfache Benutzerschnittstelle für die MRI, wofür Sicherheitskonzepte eine entscheidende Voraussetzung sind (z. B. Echtzeit-Reaktivität und permanente Kollisionskontrolle, regelungstechnische Absicherung des Systems).

Weitere Voraussetzungen

Der Mensch braucht eine generelle Bereitschaft zur Interaktion mit Robotern. Die Anwendenden müssen in der Lage sein, die Robotersysteme zu trainieren. Aus Gründen der Effizienz sollte das Aufgabenspektrum der Roboter niedrigkomplex sein.

Realisierung und mögliche Hürden

In einigen Fällen ist noch Grundlagenforschung erforderlich, der größte Aufwand liegt jedoch in der Systementwicklung. Zum einen sind diese Systeme für die Anwendenden noch zu komplex, zum anderen stellt die Integration der verschiedenen Systemkomponenten (Roboter, Werkzeuge, Steuerung, Aktorik, Sensorik etc.) eine Herausforderung dar. Während die Grundlagen für ein Robotersystem, das prinzipiell von Anwendenden trainiert werden kann, in circa zwei Jahren weitgehend geklärt sein dürften, werden Anwendende diese Technologie aufgrund der notwendigen Reduktion der Systemkomplexität eher erst in etwa fünf Jahren in der Praxis nutzen können.

(Einschätzung I Stand 05/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme” der Plattform Lernende Systeme, insbesondere von Gunnar Bloss (werk5 GmbH).

Use Case

Effektive Kreislaufwirtschaft: Roboter für eine bessere Trennung von Wertstoffen

Use Case im Überblick

Branche: Abfall-/Recyclingwirtschaft

Aufgabe: Einsatz von Pick-and-Place-Robotern, um Wertstoffe präzise zu trennen und spezifische oder problematische Objekte auszusortieren

Methode: verstärkendes Lernen, Ensemble Learning, Transfer Learning und weitere

Allgemeines

Eine effiziente Kreislaufwirtschaft ist ausschlaggebend, um die EU-weiten Umwelt- und Klimaziele bzw. die Nachhaltigkeitsziele der Vereinten Nationen (Agenda 2023) zu erreichen (vgl. Circular Economy Initiative Deutschland 2020). Wichtig ist dabei auch eine stärkere Automatisierung beim Recycling, um sowohl Präzision wie auch Kosten- und Ressourceneffizienz zu erhöhen. Aber auch, um dem Fachkräftemangel zu begegnen und unangenehme oder gar gefährdende Tätigkeiten an Maschinen auszulagern. Lernfähige Robotik, insbesondere das Lernen aus der Mensch-Maschine- oder auch Roboter-Roboter-Interaktion kann dazu beitragen, diese Ziele zu erreichen. Klassische Pick-and-Place-Roboter kommen hierbei zum Einsatz, um an Förderbändern Wertstoffe präzise zu trennen und spezifische oder problematische Objekte auszusortieren wie beispielsweise Elektronik, Batterien oder Schadstoffe.

Status quo

Für die Mülltrennung existieren bereits gut funktionierende technische Lösungen. Menschen müssen dabei aber oft immer noch mithelfen, was meist zumindest belastend, manchmal auch gesundheitsschädlich oder gar gefährlich ist. Die Mülltrennung erreicht jedoch oft nicht die gewünschte Qualität und stößt dabei auch oft an Kapazitätsgrenzen, was die Qualität einer sauberen Mülltrennung zusätzlich senken kann. Pick-and-Place-Roboter werden heute schon breit eingesetzt und sind vergleichsweise günstig. Im Zusammenspiel mit geeigneter Sensorik könnten sie das manuelle Herausgreifen von Objekten in den Sortieranlagen automatisieren.

Zukunftsperspektiven

Lernen durch Interaktion kann dazu beitragen, dass über Zwischenschritte der Teilautomatisierung (Stichwort: variable Autonomie) höhere Autonomiegrade im Recycling erreicht werden und sukzessive mit jeder Interaktion auch die Robustheit der nötigen KI-Modelle gestärkt wird. Ein auf diese Weise verbessertes Recycling kann zu einem zentralen Bestandteil einer Kreislaufwirtschaft werden, insbesondere aufgrund multimodaler Sensorik wie beispielsweise der Detektion verborgener oder zu demontierender Objekte. Zudem stellt es eine Vorstufe zu weiteren Betriebsstationen dar, wie der Demontage, in der aussortierte Wertstoffe zerlegt und auch Rohstoffe wiedergewonnen werden. Innerhalb von bereits bestehenden Anlagen, in denen klassische Methoden der Müllsortierung angewandt werden, können lernfähige Robotiksysteme komplementär eingesetzt werden (z. B. zur Qualitätssteigerung und -sicherung).

So werden in mehrfacher Hinsicht Potenziale frei:

  • Freisetzung von Arbeitskraft für Aufgaben mit höherer Wertschöpfung durch Rationalisierung von unattraktiven, unangenehmen oder potenziell gefährlichen Arbeitsprozessen
  • Erhöhte Sicherheit für Menschen vor Gefahrstoffen und gefährlichen Objekten
  • Betriebswirtschaftliche Vorteile bei perspektivischer Vollautomatisierung: Günstigere Betriebsbedingungen sowie ggf. Wegfall von an Menschen angepassten (Sicherheits-)Bedingungen (Lüftung, Arbeitsraum, Unfallschutz etc.)

Quellen des Lernens

  • Beobachten menschlicher Aktivitäten, z. B. Lernen durch Demonstration (Was greift der Mensch wie?)
  • Hinweise des Menschen auf entferntere, zu sortierende Objekte, z. B. Zeigen mit einem Laserpointer oder auf übertragenen Kamerabildern des Förderbandes
  • Kommentierung durch den Menschen in der Lernphase, z. B. Benennung von Objekten, Materialien.
  • Menschliche (verbale) Kommentierung oder Instruktion, um Affordanzen (Objekt ist greifbar, anhebbar etc.) oder Greif-Fähigkeiten zu lernen
  • Simultanes Lernen von allen menschlichen Instruktorinnen und Instruktoren an mehreren Förderbändern; so kann jede Roboterinstanz von den gelernten Fähigkeiten anderer Instanzen profitieren, z. B. Erkennen eines Objekts oder Ausführen eines Griffs

Benötigte Daten

In realen Umgebungen können Daten von eingebauten Sensoren und beteiligten Robotern (z. B. Daten zu erlernten Bewegungen) gesammelt werden. Zudem liegen ggf. Daten aus (früheren) Recyclingarbeiten vor oder aus der Vorbereitung und Übung dafür. Die Sensorik wird auch für die Objekt- bzw. Materialbeobachtung eingesetzt. Diese geht weit über die menschliche Wahrnehmung hinaus und stellt einen großen Vorteil beim Einsatz von Robotern dar, wie beispielsweise 3D-Kameras, Radar-, THz-, IR-Sensoren, Multi- und Hyperspektralkameras, magnetische Sensoren, Bar-Code und Matrix-Code-Leser zur Objektidentifikation oder zum Zeichenlesen. Die entsprechend erfassten Sensordaten werden systematisch gesammelt und verbunden (Data Fusion), um beispielsweise Objekte idealerweise auch bei Materialüberlagerungen akkurat erkennen zu können und wertvolle Lerndatensammlungen inklusive Metadaten zu erstellen. Eine vollständige Dokumentation wird auch zur Qualitätssicherung angelegt.

Methoden des Lernens

  • Reinforcement Learning (bestärkendes Lernen)
  • Ensemble Learning (gemeinsames Lernen, z. B. Boosting, föderiertes Lernen)
  • Few-shot Learning (KI-Modelle entwickeln mit geringen Datenmengen)
  • Lernen im Team (bei mehreren Robotern)
  • Transfer Learning (verschiedene Domänen, z. B. zwischen örtlich getrennten Recyclinganlagen)
  • Selbstlernen/Weiterlernen ab einer gewissen Ergebnisqualität des Robotereinsatzes

Qualitätssicherung

  • (Statistische) Analyse durch qualifizierte Lehrkräfte, andere Teammitglieder und/oder externe technische Mittel (nachgelagerte Laboruntersuchungen): Vergleich von Ergebnissen der Roboteraktion(en) und Handlungsabläufe (insbesondere Interaktion) mit Zielen und Aufwänden, aber auch Verlusten
  • Bestehende Technologien zur Qualitätskontrolle im Recycling
  • Gelernte Handlungsabläufe könnten unter gleichen oder anderen (realen oder virtuellen) Bedingungen zur Qualitätsbeurteilung ausgeführt und bewertet werden
  • Überprüfung von Sortierergebnissen in einer Lernphase, um Feedback (z. B. Falsch- oder Richtigklassifikation) für bestärkendes Lernen zu sammeln (chargenweise Eingabe von
    Feedback, in sogenannten Batches)
  • Auswertung der Dokumentation der Datensammlung

Systemvoraussetzungen

  • Es können handelsübliche schnelle Pick-and-Place-Roboter genutzt werden, wobei Sensoren und maschinelle Intelligenz von diesen abgesetzt und verteilt sein können.
  • Die Roboter und Sensoren können über die Bandbewegung synchronisiert werden. Durch die Trennung können menschliche Instruktorinnen und Instruktoren von Robotern separat arbeiten, sodass die funktionale Sicherheit (Safety) gewährleistet ist.
  • Die Roboter bzw. das Gesamtsystem müssen in der Lage sein, unterschiedliche Lernmethoden anzuwenden, um intelligent agieren zu können, sodass eine reibungslose Kommunikation wie Interaktion unter den Robotern und mit dem Menschen sowohl in realen als auch simulierten Umgebungen möglich ist.
  • Das System muss über entsprechende Sensorik, Aktuatorik und KI-Modelle verfügen und (ähnlich wie der Mensch) fähig sein, aus nur wenigen Wiederholungen zielgerichtet zu lernen (vgl. Few-shot Learning). Dafür könnten virtuelle Umgebungen (inkl. benötigter Interfaces) notwendig werden, um interaktives Lernen umzusetzen.
  • Gelernte Aktionen müssen in der nötigen Geschwindigkeit ausgeführt werden, wobei ausreichend akkurate Lokalisierung und Greifabschätzung gewährleistet werden müssen.
  • Neben dem maschinellen Lernen werden auch andere KI-Methoden eingesetzt wie regelbasierte Systeme zur Absicherung der Robotiksysteme. KI-Modelle sollten zudem überwacht werden (Model Monitoring), um diese ggf. an Veränderungen der realen Umgebung anzupassen und so die Robustheit der KI-Modelle zu erhalten.
  • Schließlich werden Auswertungsalgorithmen und -systeme benötigt sowie eine Wartungsinfrastruktur (z. B. Reparaturen und Reinigung von Robotern und Sensoren, Software-Updates).

Weitere Voraussetzungen

Um das gesellschaftliche Verständnis für die Chancen, Herausforderungen sowie Hintergründe der KI unterstützten Müllsortierung zu fördern, sollten insbesondere die direkt beteiligten Personen bzw. deren Interessenvertretende sowie weitere Stakeholder (z. B. Abfallverwertungsunternehmen, Arbeitnehmervertretungen, Gewerkschaften, Berufsgenossenschaften) schon in der Entwicklungsphase eingebunden werden. Instruktorinnen bzw. Instruktoren benötigen zudem die entsprechenden Fähigkeiten, um Roboter anzulernen. Bei der Umsetzung muss der gesetzliche Rahmen, insbesondere die Datenschutzgrundverordnung (DSGVO), beachtet und eingehalten werden. Darüber hinaus werden Szenarien (z. B. Use Cases in konkreten Unternehmen) benötigt. Insgesamt muss der Umsetzungsaufwand vertretbar bleiben, damit der Transfer in die Praxis eine realistische Unternehmung darstellt.

Realisierung und mögliche Hürden

Demonstratoren mit einem Technologiereifegrad (TLR) 5 existieren bereits, beispielsweise für das Aussortieren von Batterien (siehe: Kompetenzzentrum ROBDEKON). Ein Systemprototyp mit TRL 6 oder TRL 7, und somit ein bereits funktionierendes System in der realen Einsatzumgebung, sollte aufgrund der verfügbaren Komponenten bei einem entsprechenden Entwicklungspilotprojekt in ein bis zwei Jahren technisch umsetzbar sein. Es bedarf der Demonstration der Machbarkeit des Use Cases sowie einer besseren Kommunikation über die Vorteile für die Beteiligten (Win-win-Situation). Zudem stellt die systematische, menschenzentrierte Integration (teil-)autonomer Robotiksysteme in die betriebliche Praxis eine Herausforderung dar (siehe Whitepaper „Einführung von KI-Systemen in Unternehmen“, Plattform Lernende Systeme).

(Einschätzung I Stand 06/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Prof. Dr. Jürgen Beyerer (KIT Karlsruhe, Fraunhofer IOSB)

Use Case

Wearable Robotics: Individuelle Unterstützung und körperliche Rehabilitation

Use Case im Überblick

Branche: Medizintechnik

Aufgabe: Unterstützung des menschlichen Körpers nach Bedarf („assist-as-needed“)

Methode: Klassifikation, Regression, (Deep) Reinforcement Learning, Active Learning, evolutionäre Verfahren und weitere

Allgemeines

Als „Wearable Robots” werden Roboter, die man am Körper trägt, bezeichnet – beispielsweise aktive Exoskelette und Orthesen oder robotische Arm- wie Beinprothesen. Sie müssen sich stark auf den Menschen einstellen und sollen ihn möglichst situationsgerecht und nach jeweiligen Vorlieben unterstützen – um Bewegung überhaupt erst zu ermöglichen oder um Bewegungen oder Körperhaltungen zu entlasten. Idealerweise sollte eine Unterstützung nach dem Modus „so viel wie nötig, so wenig wie möglich“ erfolgen („assist-as-needed“). Den benötigten Unterstützungsgrad erkennt das Robotiksystem dabei selbst. Zudem sollte es in der Lage sein zu lernen, wie viel Unterstützung entsprechend den Restkräften einer Person in einer bestimmten Situation angemessen ist. So kann mithilfe einer entsprechend gestalteten Prothese die Autonomie beeinträchtigter Menschen gestärkt werden.

Status quo

Aktuell können Exoskelette per Interface (z. B. Eingabe über Smartwatch oder Kontrolleinheit) angewiesen werden, bestimmte Bewegungen wie „geradeaus laufen“ oder „Treppen steigen“ zu unterstützen. Sie können auch im Sinne eines „assist-as-needed“ den menschlichen Körper nur so weit unterstützen, wie es die aktuelle Kraft des Menschen in der Situtation erfordert. Den individuell benötigten Unterstützungsgrad geben Therapeutinnen und Therapeuten oder die Nutzenden selbst vor. In der Anwendung wird also mit menschlichen Vorgaben und Regeln gearbeitet. Es gibt auch Ansätze, Gelerntes durch Interaktion anzupassen. So werden zum Beispiel für die Steuerung robotischer Prothesen Modelle zur Mustererkennung aus Biosignalen erlernt, um die Bewegungsintention der Person zu erkennen und zu interpretieren. Per App können die Nutzenden die Steuerung nachträglich noch verfeinern und so für ihre Bedürfnisse optimieren. Solche Lösungen sind bereits nach geltendem Recht im Produkt integriert.

Zukunftsperspektiven mit KI

Forschende nutzen maschinelles Lernen, um aus der Restaktivität der Muskulatur abzuleiten, wie stark eine Patientin bzw. ein Patient unterstützt werden muss. Die so erstellten KI-Modelle können auch in der Anwendung nachtrainiert werden. Für Wearable Robots gibt es in der Forschung bereits erste lernfähige Systeme dieser Art: In Zukunft können diese während des Einsatzes durch Feedbackschleifen selbst erkennen, ob sie nachtrainiert werden müssen. Somit brauchen Nutzende dies nicht selbst zu initiieren. Das System könnte sich eigenständig anpassen und so eine individuellere Unterstützung ermöglichen. Dabei könnte es auch durch Feedback der Nutzenden kontextspezifisch lernen, welche Art und Stärke der Unterstützung vom Menschen in welcher Situation als angenehm empfunden wird, ohne dass die Person dies explizit vorgeben muss. Hierzu wird erforscht, welche Art von Feedback sinnvoll für das maschinelle Lernen genutzt werden kann (bis hin zur Gehirnaktivität). Weiterhin könnten Exoskelette künftig lernen, zwischen intendierter und pathologisch-bedingter (z. B. durch Spastik, Rigor oder Tremor) Muskelaktivierung zu unterscheiden und den Unterstützungsgrad (etwa Bewegungsstärke und -geschwindigkeit) oder die Art der Therapieübung entsprechend automatisch anzupassen.

Quellen des Lernens

Wearable Robots lernen mit verschiedenen Methoden aus:

  • Biosignalen des Menschen (z. B. Muskel- und Gehirnaktivität, Eye-Tracking- oder Bewegungsdaten)
  • Explizitem menschlichem Feedback (z. B. Sprache, händische Manipulation)
  • Informationen bzw. Daten aus der Umgebung (z. B. Ort, Objekte, Interaktionsmöglichkeiten)

Das Exoskelett oder die robotische Prothese wertet während der Interaktion mit dem Menschen solche Biosignale und Daten aus. Je nach Situation und Kontext können verschiedene KI-Modelle erlernt oder genutzt werden.

Benötigte Daten

Die Daten werden über verschiedene Sensoren erfasst und können so aus unterschiedlichen Quellen gesammelt werden: beispielsweise die sensorische Erfassung…

  • der Umgebung hinsichtlich beobachtbarer Daten
  • des menschlichen Körpers wie etwa Biosignale, die nur mit speziellen Verfahren und Geräten erhoben werden können (z. B. Aufmerksamkeitsfoki der Nutzenden)
  • von Daten aus der Interaktion mit den Nutzenden, z. B.Interaktionskräfte
  • von Daten des Exoskeletts über seinen eigenen Zustand

Methoden des Lernens

Mittels Klassifikation oder Regression können Biosignale beispielsweise hinsichtlich der Stärke der muskulären Restaktivität interpretiert werden. Komplexere KI-Modelle wie tiefe neuronale Netze eignen sich, um zu unterscheiden, welche Bewegungen wann und wie am besten unterstützt werden. Um die Daten für eine Anpassung zu nutzen, sind Methoden wie Klassifikation, Regression, (Deep) Reinforcement Learning oder auch Active Learning bis hin zu evolutionären Verfahren nötig. Mit solchen Methoden lernt das Robotiksystem, wie es sich je nach Restaktivität bestimmter Muskelgruppen, Bewegungsart oder auch Situation verhalten muss. Wegen der benötigten großen Datenmengen und des zeitintensiven Trainings werden Deep-Learning-Verfahren wie Deep Reinforcement Learning nur selten (wenn überhaupt) eingesetzt. Neuere Ansätze prüfen, ob sich generische große KI-Modelle trainieren lassen, die zwar nicht mehr personenspezifisch trainiert werden, aber mit entsprechenden individuellen Daten an Personen anpassbar sind.

Qualitätssicherung

Die Qualitätssicherung ist vom menschlichen Feedback abhängig. Wie dieses systematisch und automatisch bewertet und genutzt werden kann, ist derzeit eine wichtige Forschungsfrage. Das Feedback kann dabei von Laien (Tragende, Patientinnen und Patienten) oder von Fachleuten (Medizin, Orthopädie, Biomechanik) gegeben werden. Es unterscheidet sich mitunter stark in Qualität und Subjektivität. Am einfachsten ist es, sich auf explizites Feedback zur Bewertung zu verlassen. Der Ursprung eines potenziellen Fehlers oder Qualitätsmangels lässt sich daraus allerdings nur schwer ableiten. Über implizites Feedback kann man Hinweise zeitgenauer erhalten. Zudem ist es wichtig, die Qualität der Lerndaten für das Robotiksystem einzuschätzen: Schlechte Lerndaten sollten nicht für die Anpassung von KI-Modellen genutzt werden. Um Fehler zu erkennen und zu vermeiden, sollten ein „doppeltes Netz“ eingezogen und Systeme (Roboter(regelung) plus Lernmethode etc.) so aufgesetzt werden, dass sie insgesamt keine Gefahr für die sie Tragenden darstellen können.

Systemvoraussetzungen

  • Daten von Nutzenden müssen datenschutzkonform verwendet werden können.
  • Die Lernfähigkeit liegt optimalerweise im System selbst (vgl. Edge AI).
  • Nutzen Wearable Robots generische KI-Modelle, ist die Individualität der Nutzenden stets zu berücksichtigen.
  • Systeme müssen verstärkt Daten über den Menschen und die Umgebung auswerten und daraus lernen können.
  • Sicherheitskonzepte sind hinsichtlich (selbst-)lernender Systeme zu überprüfen, anzupassen oder auch neu zu entwickeln.

Weitere Voraussetzungen

  • Menschen sollten sich auf das interaktive Lernen einlassen (können).
  • Sicherheitsmechanismen müssen etabliert und von Expertinnen und Experten genauso wie von Nutzenden als ausreichend anerkannt sein.
  • Therapeutinnen und Therapeuten, Ärztinnen und Ärzte sowie Pflegende sollten die Abläufe verstehen.
  • Bei allen Involvierten sollte eine gewisse digitale Kompetenz vorhanden sein oder entsprechend aufgebaut werden (z. B. bei älteren Personen).

Realisierung und mögliche Hürden

  • KI-Komponenten von Wearable Robots können durch die Integration in regelungstechnisch gesetzte Beschränkungen sicher gestaltet werden. Gelernte Modelle sind zwar zertifizierbar; es fehlt jedoch ein offizielles Vorgehen zur Zertifizierung selbständig weiterlernender Systeme.
  • Bezüglich des AI Acts bestehen Unsicherheiten in der Anwendung der Risikoklassen: Sind lernfähige Wearable Robots per se der Hochrisikoklasse zuzuordnen? Hierbei ist das robotische Gesamtsystem zu betrachten (inklusive regelbasierter Absicherung der KI) und nicht einzelne Lernmethoden bzw. Algorithmen.
  • Unsicherheit in der Vergütung während des Einsatzes in der Rehabilitation hemmen den Transfer. Nach geltenden Vorgaben ist die Vergütung zwar theoretisch möglich, tatsächlich bestehen aber hohe Hürden. Die Anschaffungskosten sind hoch, aber Nutzen und Ersparnisse wiegen diese rein ökonomisch gesehen auf.

(Einschätzung I Stand 06/2024)

Entwickelt wurde dieser Use Case mit Expertise aus der Arbeitsgruppe „Lernfähige Robotiksysteme“ der Plattform Lernende Systeme, insbesondere von Prof. Dr. Elsa Kirchner (Universität Duisburg-Essen, DFKI).

Weiterführende Informationen zu Wearable-Robots-Projekten:

  • Recupera REHA Exoskelett: Robotergestützte Rehabilitation mit Hilfe eines mobilen Ganzkörper-Exoskeletts.
  • MRock: Assist-as-needed: Wie viel Unterstützung PatientInnen benötigen, wird aus der Interaktion mit dem System auf Basis von EMG-Daten gelernt, und was sie subjektiv angenehm finden auf Basis von EEG-Daten.
  • Expect: Ableitung menschlicher Intentionen für Kollaboration, insbesondere aus EEGDaten (aber auch multimodal).
  • NoGravEx: Entwicklung eines Lernansatzes, um probandenspezifisch das Armgewicht zu kompensieren und so ein Gefühl von Mikrogravitation zu vermitteln.
  • Q-Rock: Roboter lernen, korrektes Verhalten aus Feedback während der Interaktion aus EEG-Daten auszuführen bzw. Fehlverhalten zu vermeiden.
  • NOE-EMY: Lernfähige Fußorthese erkennt Bewegungsabsicht mittels Multielektrodensystemen am Oberschenkel.
  • RoSylerNT: Interaktive, mittels biomechanischer Modelle adaptive robotische Trainingssysteme für körperliche und kognitive Stimulation.
  • PhysioMio: Adaptives Soft-Exoskelett zur Unterstützung von Physiotherapie nach einem Schlaganfall.