Eine Publikation der Swissprofessionalmedia AG
Der Trendreport: Ausgabe 05/2018, 14.05.2018

Vision: Roboter lernen immer besser sehen

Egal ob zum Steigern der Flexibilität einer mit Robotern automatisierten Produktionskette, wie sie etwa in der Automobilindustrie typisch ist, oder in autonomen Fahrzeugen zur Orientierung: Vision ist heute das Mittel der Wahl, um die Leistung zu steigern. Dies kam an der Fachtagung «Robotic & Vision» an der Hochschule Rapperswil HSR in den Vorträgen der Referenten klar zum Ausdruck. Die «Technische Rundschau» hat in der Aula zusammen mit Systemintegratoren und Fachanwendern die Schulbank gedrückt und war beeindruckt.

Die Fachtagung «Robotic & Vision», organisiert von den SwissT.net-Sektionen «Robotics & Systeme» und «Vision Systems» in Zusammenarbeit mit dem ILT Institute for Lab Automation and Mechatronics, lockte am 11. April 2018 rund 120 Fachbesucher an die HSR in Rapperswil. Nicht umsonst, denn vernetzte und flexiblere Produktionsprozesse à la Industrie 4.0 werden in Zukunft neue Geschäftsmodelle schaffen. Die zugehörigen Fabriken der Zukunft werden unter anderem darauf ausgerichtet sein, mit möglichst geringem Material- und Energieverbrauch eine maximale Produktivität zu erzielen. Dies geht nicht ohne rigideste Qualitätsvorgaben. Bereits heute sind Stichproben in der Automobil-, Aerospace- und Medtechindustrie obsolet, gefordert ist eine 100-Prozent-­Kontrolle ohne Ausreisser. Jeder einzelne Produktionsschritt muss lückenlos dokumentiert werden und rückverfolgbar sein. Erst moderne Bildverarbeitungssysteme, die in der Lage sind, auch in einem rasend schnellen Fertigungstakt absolut sicher die Qualität zu prüfen, machen dies möglich.

Angesichts eines sich verschärfenden globalen Wettbewerbes haben nur Standorte, die in Sachen Produktivität vorne liegen, längerfristig eine Überlebenschance. Und genau hier erlangt die industrielle Bildverarbeitung ihre neue Schlüsselrolle, denn sie bietet Lösungen für diese Herausforderungen der Zukunft.

Aber erst in Kombination mit dem Roboter wird der Sensor oder die Kamera mobil und kann beispielsweise auf dem Roboterarm montiert den Greifer führen. Damit wird der Roboter quasi sehend, und er kann sich oder sein Werkzeug in die für einen bestimmten Produktionsschritt richtige Position bringen. Dies macht flexibler. So kann er auf die zunehmend schwierigen Anforderungen in Produktionsstrassen reagieren, auf denen beispielsweise unterschiedliche, da individualisierte Varianten eines Grundmodells montiert werden. Werkteile müssen somit beim Vereinzeln auf der Zuführung vor dem Montageroboter nicht mehr in genau definierter Position abgelegt werden, ganz im Sinne von Industrie 4.0. Der Roboter kann die Kamera des Bildverarbeitungssystems an verschiedenen Stellen positionieren oder über eine Oberfläche führen, um dort eine Qualitätsinspektion durchzuführen.

Die Bildverarbeitung ist auch ein zentrales Element von Steuerungen von autonomen Fahrzeugen – die ja letztlich auch Roboter sind. Auf diese spektakuläre und komplexe Anwendung bezog sich der erste Vortrag der Fachtagung «Robotic & Vision». Der provokative Titel des Referats von Felix Eberli, der die Abteilung Automotive bei der Supercomputing Systems AG leitet, lautete «Bauen sehende Roboter bald unsere Autos und fahren gleich selbst damit?» Dies sei zwar erst einmal als lockerer Witz zu verstehen, bemerkte er, sei aber trotzdem in gewissem Sinn auch Programm. Gemäss Eberli müssen in der Automobilproduktion derart viele Formteile und Halterungen so exakt positioniert werden, dass dies heute nur noch mit Robotervision, also die Kombination aus Roboter und Bildverarbeitungssystem zu schaffen ist.

Anschliessend kam Eberli zu seiner zweiten Eingangsfrage zurück: Fahren die Roboter selbst? Er zeigte die historische Entwicklung des autonomen Fahrens auf, von ihren utopischen Anfängen 1956, als man in den USA von Strassenkreuzern träumte, die ohne Fahrereingriff einer Magnetspur in der Fahrbahn folgen, bis heute, wo Teslas mit ihrem «Level 2 Auto Pilot» im Verkehr unterwegs sind. Dabei, betont Eberli, handle es sich nicht um einen wirklichen Autopiloten, sondern lediglich um eine sogenannte «Level 2 Autonomiefunktion» (siehe auch Grafik Seite 8). Das heisst konkret: teilweise Automatisierung der zentralen Fahrfunktionen, inklusive Lenkung und Beschleunigung. Es bedeutet aber auch, dass der Fahrern jederzeit bereit sein muss, die Kontrolle zu übernehmen.

Parallel zur Entwicklung des autonomen Fahrens erfolgte die «Roboterisierung» der normalen Autos, etwa mit Radardistanzkontrolle, Objektpositionserkennung via 6D-Vision oder Autobahn-Spurhalteassistent. Aber eben: alles auf Level 2. Der Fahrer wird also nicht ersetzt, sondern lediglich entlastet. Unter dem Strich heisst das alles für Eberli: Smarte Sensoren machen sehende Roboter schon heute zur Realität. Er ist sich sicher, dass wirklich autonome Autos bald erhältlich sein werden.

Eine weitere spannende Analyse lieferte Agathe Koller, Professorin am ILT Institute for Lab Automation and Mechatronics an der HSR, zur kollaborativen Robotik. Sie geht davon aus, dass auch in ihrem Fachgebiet die Bildverarbeitung eine Schlüsseltechnologie darstellt und zukünftige kollaborative Robotersysteme leistungsfähiger macht.

Kurze Repetition: In der kollaborativen Robotik teilen sich «Cobot» und Mensch denselben Arbeitsraum. Dabei ist die Dynamik des Roboters eingeschränkt, was ihn für den Menschen ungefährlich macht. Ziel ist es, die Wiederholgenauigkeit und Ausdauer von Robotern mit den individuellen Fertigkeiten von Menschen zu kombinieren. Zudem sind diese Systeme relativ einfach in der Anwendung, bezahlbar, flexibel und brauchen weniger Platz als Industrieroboter.

Ein Cobot bietet sich an als dritte Hand für den Mitarbeiter. Konkret: Arbeitsschritte, die heute zwei Mitarbeiter in Teamarbeit vornehmen, können künftig durch Mensch-Roboter-Teams erledigt werden. Weiter können mit Cobots neue Prozessschritte automatisiert werden, etwa dort, wo feindosiert und kraftgeregelt gearbeitet werden muss.

Die Vorteile des mit Bildverarbeitung kombinierten Cobots lassen sich in zwei Gruppen zusammenfassen: Vison erhöht erstens noch einmal die Flexibilität von Automationslösungen, weil sie unter anderem die Handhabung von unterschiedlichen Werkstückgeometrien erlaubt, und sie ermöglicht die Positionsbestimmung von ungeordneten Bauteilen. Zweitens erfüllt Vision daneben mehrere Funktionen gleichzeitig: Identifikation von Teilen, Qualitätskontrolle, Tracking von Barcodes und Kompensation der Positionsungenauigkeiten des Roboters.

Agathe Koller präsentierte mehrere Lösungsbeispiele aus der kollaborativen Robotik mit Vision-Funktion, die in letzter Zeit am ILT zusammen mit Industriepartnern entwickelt wurden. Etwa ein System zur Qualitätskontrolle in der Medizintechnik, bei dem ein zweiarmiger «YuMi»-Roboter von ABB mit im Greifer integrierter Kamera individuell Verpackungen kontrolliert, was vorher in ermüdender Arbeit durch zwei Mitarbeiter nach dem 4-Augen Prinzip erledigt werden musste. So konnte ein mühsamer und fehleranfälliger Prozessschritt automatisiert werden.

Eine Gestenerkennung via Vision-Funktion ist zwar noch Zukunftsmusik, bietet aber laut Agathe Koller enormes Potenzial. Etwa in Form der «Intention Detection». Diese Absichtserkennung wird ausgelöst durch eine deutliche manuelle Bewegung des Produktionsmitarbeiters. Das Vision-System des Roboters erkennt diese Gestik, speichert sie und führt sie anschliessend selbst aus, so die Theorie. Eine erweiterte Möglichkeit wäre, dass die Bildverarbeitung den Prozess überwacht, und – weil der Roboter im Voraus erkennen kann, was passieren wird – im Fall eines kommenden Fehlers dem Werker meldet, dass etwas nicht stimmt. Zum Beispiel, weil ein Prozesselement fehlt oder weil vergessen wurde, eine Schraube zu fixieren.

Abschliessend entwarf Agathe Koller eine Zukunftsvision, in der die Kombination von kollaborativer Robotik und Bildverarbeitung neue Formen der Arbeitsteilung zwischen Mensch und Roboter ermöglichen wird. Sie ist sich sicher, dass wir zunehmend Cobots sehen werden, allerdings nicht in einer Vollautomatisierung, sondern als Assistenzsysteme in einer Teil-automation. Diese Systeme werden helfen, Produktionsfehler zu vermeiden. Sie werden Prozessschritte antizipieren können, und wir werden die bereits erwähnten Roboter sehen, die durch Imitation lernen.

Das Keynote-Referat von Professor Roland Siegwart, Leiter des Autonomous Systems Lab am Institut für Robotik und intelligente Systeme der ETH Zürich und einer der führenden Roboterexperten weltweit, relativierte dann die Zukunftseuphorie in Sachen Entwicklungstempo bei intelligenten Robotern wieder etwas.

Am Beispiel der Herausforderungen, die ein universeller Haushaltroboter, der nur schon eine Waschmaschine korrekt Ein- und Ausräumen oder die Wäsche richtig zusammenfalten können soll, erklärte er die sehr hohe Komplexität, die solche Arbeiten für einen Roboter beinhalten. Dieser muss dabei mit unsicherer und nur teilweise verfügbarer multimodaler Information umgehen können. Er muss sehen, spüren und verstehen sowie überdies taktil mit der Umgebung interagieren können. Dazu muss er intuitiv programmierbar sowie lern-und anpassungsfähig sein. Dazu brauche es künstliche Intelligenz, aber auch neue Sensoren, Aktoren und Roboterkonzepte, so Siegwart. Er ist sich sicher: Die heutigen Roboter stehen diesbezüglich noch an den Anfängen. Siegwart gab den Tagungsteilnehmern die folgende Botschaft mit nach Hause: Ja, die Robotik boomt, es braucht aber noch viel F&E, um die beschriebenen komplexen Systeme auf den Markt zu bringen.

Seine Zusammenfassung: Robotik boomt, und die Schweiz hat das Potenzial, diesen wichtigen Markt zu besetzen und so nachhaltig Arbeitsplätze zu schaffen. Unser Land verfüge über hervorragende Forschung und grossartige Talente. Zudem ist die Schweiz stark unterwegs in der Präzisionsmechanik und im Bereich Forschung zur KI, ebenso in Sachen Innovation, und sie verfügt über ein leistungsfähiges Unternehmertum. Aber für die Skalierung von Robotiktechnologie und für Start-­ups, da ist sich Siegwart sicher, braucht es nicht zuletzt auch langfristiges, auf über 10 Jahre ausgerichtetes Risikokapital.

Es war ein langer und intensiver Tag. Die Tagungsteilnehmer verliessen am späten Nachmittag den Campus mit einem im übertragenen Sinn vollgepackten Rucksack. Noch getragen von der eigenen Intelligenz. Markus Schmid

Swiss Technology Network
8604 Volketswil, Tel. 044 947 50 90
info@swisst.net

Institute for Lab Automation and Mechatronics (ILT)
8640 Rapperswil, Tel. 055 222 47 25
ilt@hsr.ch




Die Skala der Levels autonomer Fahrsysteme. (Bild: ioti.com)