Im Gespräch: Markus Vincze : Die Kommunikation mit Maschinen scheitert an der Sprache

LorikLorik, CC BY-SA 4.0

Univ.-Prof. Markus Vincze ist Professor an der TU Wien und leitet das Vision for Robotics (V4R)- Team, dessen Ziel es ist, Robotern das Sehen zu ermöglichen. Bei der Gesellschaft für Mess-, Automatisierungs- und Robotertechnik GMAR leitet er die AG für menschenzentrierte Roboter-Systeme.

- © LorikLorik, CC BY-SA 4.0

Als Leiter der AG für menschenzentrierte Roboter-Systeme bei der Gesellschaft für Mess-, Automatisierungs- und Robotertechnik sind Sie im regen Austausch mit Ihren Fachkollegen. Was sind aktuell die wichtigsten Themen, mit denen sich Ihre Branche beschäftigt?

Markus Vincze: Das erste Thema bei Mensch-Roboter- Interaktion ist die Sicherheit. Es ist wichtig sicherzustellen, dass der Roboter beim Annähern an den Menschen seine Geschwindigkeit reduziert und Kollisionen vermieden werden. Das zweite Thema ist die schnelle Einarbeitung des Roboters in neue Aufgaben. Zusammenfassend lässt sich sagen, dass ich den Roboter am liebsten so programmieren würde, dass er einem Lehrling die Aufgabe beibringt. Ich erkläre es ihm einmal, zeige es ihm einmal vor und dann wiederholt er es dreimal. Danach überprüfe ich, ob alles passt, und korrigiere gegebenenfalls. Wir sind noch ein Stück von diesem Ziel entfernt, aber es wird kontinuierlich besser.

Zunächst haben Sie Safety angesprochen. Geht es da eher um das Problem, dass man sich vergewissern muss, dass da nichts schiefgeht? Oder ist es eher das Problem, diese Sicherheit garantieren zu müssen?

Vincze: Letzteres trifft zu. Beim Einsatz von Robotern ist es notwendig, eine Risikostudie durchzuführen. Dabei wird evaluiert, wo sich der Mensch potenziell in der Nähe des Roboters aufhält und wie verhindert werden kann, dass der Mensch verletzt wird. Dabei gibt es verschiedene Standards, die eingehalten werden müssen, um das Verletzungsrisiko möglichst gering zu halten. Richtwerte helfen dabei, eine sichere Arbeitsumgebung zu gewährleisten.

Kein Mensch würde einem anderen Menschen etwas mit einem Koordinatensystem erklären. Das ist eine Sprache, die wir nicht sprechen.

Und dieses Anlernen war der zweite Punkt, den Sie angesprochen haben. Warum ist das so schwierig, einem Roboter etwas beizubringen?

Vincze: Da Roboter nicht wie Menschen verstehen können, wie Dinge miteinander verbunden sind, und neue Objekte sofort erkennen können, benötigen sie immer eine gewisse Anzahl von Schritten, um dies zu erlernen. Wenn ein neues Werkstück präsentiert wird und dieses einen schon bekannten Arbeitsgang enthält, wie beispielsweise das Anziehen von Schrauben, dann sind Menschen normalerweise extrem gut darin, dies auf neue Objekte zu übertragen. Bei Maschinen ist dies noch schwierig. Gelegentlich kann man dies tun, wenn die Teile sehr ähnlich sind. Meistens ist es jedoch besser zu betrachten, was in ein neues Modell integriert werden kann. Dies erfordert Zeit und die Definition der Aufgabe. Derzeit erfolgt dies meist über Koordinatensysteme, jedoch würde kein Mensch einem anderen Menschen etwas mit einem Koordinatensystem erklären. Das ist eine Sprache, die wir nicht sprechen.

Deep Learning ist für Sie nichts Neues. Aber trotzdem die Frage: Was hat sich für Sie durch den Siegeszug von Chat-GPT verändert?

Vincze: Es gibt bestimmte Aufgaben, die GPT oder diese ganzen Large Language Models erleichtern. Ich habe ein paar Programmieraufgaben, die gehen damit schneller, alles noch nicht. Aber den größten Anwendungsfall sehe ich in der Testsimulation. In den meisten Fällen haben diese ganzen Modelle den Nachteil, dass sie nach wie vor eine Black Box sind. Um sicherzustellen, dass die Ergebnisse auch vernünftig sind, braucht man eine Art Schleife. Zum Beispiel machen wir in der Bildverarbeitung normalerweise eine nachgestellte Schleife, wo wir einen Digital Twin verwenden, der ein komplettes 3D-Modell der Umgebung hat, wo ich die Objekte dann eintrage. Und dann sehe ich: Wo das Objekt erkannt wird, macht das Sinn.

In der Robotik haben wir eine Produktivitätssteigerung, die normalerweise bei 3 % pro Jahr liegt.

Im Jahr 2013 haben Sie zum ersten Mal den ,,Hobbit“ vorgestellt, eine Art kostengünstigen Pflegeroboter. Wie weit sind wir auf dem Weg zum Einsatz von Robotern in der Pflege? In Japan wird schon seit Jahrzehnten sehr viel Geld in diesen Bereich investiert, aber der Durchbruch will einfach nicht gelingen.

Vincze: Ja, es ist extrem schwierig, den Durchbruch zu schaffen. Aber ich habe damals schon gesagt: Für einen Roboterarm, der in seiner Umgebung etwas Nützliches macht, braucht man einfach sehr viele verschiedene Komponenten. Und dann braucht er relativ viele Freiheitsgrade, ein Arm braucht mindestens sechs Freiheitsgrade. Da ist der Kostenfaktor noch hoch. Und die Zuverlässigkeit lässt auch noch zu wünschen übrig. Aber es wird kommen, es wird nur einfach mehr Zeit in Anspruch nehmen. Sie kennen sicher das Mooresche Gesetz: Alle zwei Jahre verdoppeln sich der Speicherplatz und die Rechenleistung. In der Robotik haben wir eine Produktivitätssteigerung, die normalerweise bei 3 % pro Jahr liegt.

Sie leiten auch das Organisationskomitee für die International Conference on Robotics and Automation, die 2026 nach Wien kommt. Wie laufen die Vorbereitungen?

Vincze: Das ist die größte Konferenz im Bereich der Robotik, die wir in unserem Forschungsbereich haben. Mit fast 5.000 Teilnehmern fand sie dieses Jahr in London statt. Wir nehmen an, dass wir in drei Jahren diese Zahl überschreiten werden. Ich glaube, es ist spannend, wenn wir diese Firmen und diese Forscher in Wien haben, dann sollte man auch den Österreicherinnen und Österreichern erklären, dass Roboter nicht, wie in den Filmen, etwas Böses sind, sondern dass Roboter auch gute Dinge tun können, dass sie den Menschen helfen können. Ich hoffe, dass ich möglichst viele Kinder und Jugendliche dafür begeistern kann. Denn das ist die praktische Zukunft.