Use Case

Schleifen, polieren, lackieren: Persönliche Roboter für das Handwerk

Use Case im Überblick

Branche: Handwerk

Aufgabe: (Teil-)automatisierte Schleifarbeiten in der Einzel- und Kleinserienfertigung, um gesundheitliche Belastung zu minimieren, die Effizienz der Fertigungsprozesse sowie die Attraktivität des Handwerks zu steigern

Methode: Lernen durch Vormachen (Learning from Demonstration), bestärkendes Lernen (Reinforcement Learning) u.a.

Die (teil-)automatisierte Oberflächenbearbeitung für die Einzel- und Kleinserienfertigung mit Robotern ist ein Bereich, der die gesundheitliche Belastung der Handwerkerinnen und Handwerker reduzieren und die Effizienz der Fertigungsprozesse sowie die Attraktivität des Handwerks steigern kann. Grundsätzlich kann die Bearbeitung von Oberflächen sowohl abtragende (Schleifen) als auch auftragende Aufgaben (Lackieren) umfassen. Der Use Case konzentriert sich auf Schleifarbeiten, wie sie beispielsweise bei der Herstellung von Cellokörpern oder im Modellbau anfallen.

Ausgangssituation
Im Gegensatz zum Einsatz von Robotern in der Serienfertigung (z. B. Pick and Place) wird der Oberflächenbearbeitung in der Einzel- und Kleinserienfertigung wenig Aufmerksamkeit geschenkt. Es existieren jedoch bereits einfache Lösungen zur geometriebasierten Bahnplanung und Steuerung mittels kraftsensitiver Endeffektoren (z. B. Schleifgeräte). Für die automatisierte Offline-Bahnplanung werden teilweise bereits standardmäßig 3D-Scan- oder optische Systeme eingesetzt. Darüber hinaus gibt es erste Lösungen für die Mensch-Roboter-Interaktion (MRI) bei Industrierobotern oder Cobots: Roboterbewegungen können so durch manuelle Führung des Armes eins-zu-eins und Bewegung für Bewegung programmiert (Kinesthetic Teaching) oder über infrarot-technisch lokalisierbare Positioniergeräte realisiert werden. Trotz dieser niederschwelligen Verfahren wird das Potenzial des maschinellen Lernens hier nicht ausgeschöpft. So basiert das Teach-in auf Regelungstechnik. In der anwendungsnahen Forschung werden jedoch bereits Systeme entwickelt, die maschinelles Lernen für das Antrainieren von Schleiffähigkeiten nutzen.

Zukunftsperspektiven mit KI
Durch das Lernen durch Interaktion können Roboterfähigkeiten für die Oberflächenbearbeitung entwickelt, vermittelt und verbessert werden. Die Robotersysteme können von handwerklichen Fachpersonal selbst mit entsprechender Software für geeignete Aufgaben spezialisiert und optimiert wer- den, ohne dass spezielle Programmierkenntnisse oder KI-Wissen erforderlich sind. Gerade im Hand- werk sind die Kosten für die Roboterprogrammierung oft nicht realisierbar. No-Code-Lösungen sind daher notwendig, um die Produktivität zu steigern.
Die Vision: ein Perspektivenwechsel von der Expertentechnologie hin zum Anwendenden, ähnlich dem Wechsel vom Großrechner zum Personal Computer (PC). Ziel ist der „persönliche Roboter“ für die Handwerkenden. Im Sinne einer variablen Autonomie könnten Roboter zukünftig in der Interaktion mit dem Menschen immer mehr Fähigkeiten und damit höhere Autonomiegrade erreichen, sodass der Roboter bereits am Objekt erkennt, welche Aufgaben zu erledigen sind, und sich zur Freigabe oder bei Unsicherheiten an die Anwendenden wendet. Dabei steht jedoch nicht die (Teil-)Automatisierung im Vordergrund, sondern vor allem die Bereitstellung von Roboterwerkzeugen, die durch ihre Flexibilität und niedrige Einstiegshürde Raum für Kreativität lassen. So soll eine produktivere Einzel- und Kleinserienfertigung realisiert werden, die in der Lage ist, eine Vielzahl unterschiedlicher, zum Teil einzigartiger und komplexer Produkte herzustellen (high mix, low volume). Damit wird die Spezialisierung auf heutzutage als unrentabel geltende Tätigkeitsfelder attraktiv. Neue Geschäftsmodelle werden möglich.

Quellen des Lernens

  • Erfahrungswissen und Feedback der Anwendenden/ExpertInnen
  • Mensch-Roboter-Interaktion (MRI)
  • Beobachtung der Umgebung und Selbstbeobachtung bei der Oberflächenbearbeitung
  • Lernen von Fähigkeiten, die andere Roboter bereits erlernt haben (siehe Methoden des Lernens: Transfer Learning)

Benötigte Daten

Erforderlich ist eine multisensorische Wahrnehmung der Umgebung mit und ohne Bauteilkontakt sowie das Erkennen von Bearbeitungsklassen, z. B. Bewegungsabläufe für bestimmte Arbeitsschritte. Dabei sind folgende Daten von Bedeutung:

  • Erfassung von Position und Kraft, Akustik, Beschleunigung, Geschwindigkeit etc. durch Sensoren und Zusammenführung solcher Daten (Data Fusion)
  • Erfassung von Prozess- und Interaktionsdaten (Daten, die während der Ausführung der Aufgabe oder durch Teach-in erfasst werden)
  • Visuelle Wahrnehmung, z. B. der Beschaffenheit des zu bearbeitenden Objekts (wie Kantenerkennung) über ein Vision-System
  • Sprachdaten, manuelle Korrekturen oder anderes menschliches Feedback

Methoden des Lernens

  • Lernen durch Vormachen (Learning from Demonstration, LfD), überwachtes Lernen (Supervised Learning, SL), bestärkendes Lernen (Reinforcement Learning, RL) oder auch interaktives Lernen durch Nachahmung (Interactive Imitation Learning, IIL)
  • Aktives Anlernen von Basisfähigkeiten und Bearbeitungsstrategien (allgemein und später aufgabenspezifisch) sowie Optimierung in der Anwendung durch zusätzliche 1:1-Demonstration oder RL-Strategien
  • Transferlernen (Transfer Learning) zur Übertragung von Fähigkeiten in andere Kontexte bzw. Anpassung für andere Aufgaben

Qualitätssicherung

  • Ausschluss von möglicherweise fehlerbehafteten Datenquellen oder Lernergebnissen
  • Validierung von Lernergebnissen durch menschliches Feedback
  • Abgleich mit vordefinierten Qualitätsmaßstäben

Systemvoraussetzungen
Teilweise mobile bzw. adaptive Arbeitsräume sind erforderlich, um diese beispielsweise an die physischen Einschränkungen des Roboters anzupassen. Entscheidend für die Lernfähigkeit ist eine multi-sensorische Online-Auswertung von Umgebungs- und Prozessdaten (Learning on Device). Um einfache bis komplexe erlernte Fähigkeiten (z.B. Anhalten an einer Kante) später wieder abrufen und kombinieren zu können, müssen diese in Fähigkeitsbibliotheken gesammelt und gespeichert werden. Für den Abruf solcher Fähigkeiten bzw. Bearbeitungsklassen oder Trainingsmodi (vgl. LfD, IIL etc.) benötigen die Anwendenden eine leistungsfähige und dennoch einfache Benutzerschnittstelle für die MRI, wofür Sicherheitskonzepte eine entscheidende Voraussetzung sind (z.B. Echtzeit-Reaktivität und permanente Kollisionskontrolle, regelungstechnische Absicherung des Systems).

Weitere Voraussetzungen
Der Mensch braucht eine generelle Bereitschaft zur MRI. Die Anwendenden müssen in der Lage sein, die Robotersysteme zu trainieren. Aus Gründen der Effizienz sollte das Aufgabenspektrum der Roboter niedrigkomplex sein.

Realisierung und mögliche Hürden
In einigen Fällen ist noch Grundlagenforschung erforderlich, der größte Aufwand liegt jedoch in der Systementwicklung. Zum einen sind diese Systeme für die Anwendenden noch zu komplex, zum anderen stellt die Integration der verschiedenen Systemkomponenten (Roboter, Werkzeuge, Steuerung, Aktorik, Sensorik etc.) eine Herausforderung dar. Während die Grundlagen für ein Robotersystem, das prinzipiell von Anwendenden trainiert werden kann, in circa zwei Jahren weitgehend geklärt sein dürften, werden Anwendende diese Technologie aufgrund der notwendigen Reduktion der Systemkomplexität eher erst in etwa fünf Jahren in der Praxis nutzen können.

(Einschätzung I Stand 05/2024)