KI plus Hardware : „embodied intelligence“ als Zukunft der Robotik
Der humanoide Roboter ist ein Forschungsideal“, sagt Prof. Alin Albu-Schaeffer. Der Robotik-Experte der Technischen Universität München spricht dabei vom „Zehnkampf der Ingenieurwissenschaften“. Mechanik, Informatik, Medizin, Elektrotechnik, Ethik sind nur einige der Disziplinen, deren Expertise bei der Entwicklung von humanoiden Robotern gefragt ist. Der Professor für sensorbasierte Robotersysteme glaubt daran, dass dieser Zehnkampf zu gewinnen ist: „Je menschlicher die Umgebung eines Roboters und je vielfältiger seine Aufgaben sein müssen, umso wichtiger ist, dass er humanoid ist.
Die wichtigste Anforderung ist, dass er es schafft, etwas besser zu sein als der Mensch – etwa schneller zu laufen, präzisere Handgriffe zu machen oder gar zu fliegen.“ Zuhilfe kommen dem Ansatz die Fortschritte in der künstlichen Intelligenz. Bild- und Spracherkennung bis hin zum Sprachgenerator ChatGPT und Echtzeittechnologien ermöglichen weitere Entwicklungen, die ein wichtiges Ziel vor Augen haben: Dass sich der Roboter in jeder Umgebung im Alltag zurechtfinden kann.
Nur quatschen wird nicht reichen
Die zukünftige Schlüsselqualifikation von Robotern ist, dass sie intelligent werden – also autonom entscheiden können. „Der Roboter erfordert einen physischen Körper und künstliche Intelligenz“, sagt Albu-Schaeffer, der von verkörperter Intelligenz spricht, also von „embodied intelligence“. KI ist das Spezialgebiet von TUM-Professorin Angela Schoellig, die 2022 von der Universität Toronto zur TUM gewechselt ist. Ihre Aufgabe: Maschinelles Lernen in Roboter integrieren, damit sie komplexere Aufgaben erledigen können. „Komplexer vor allem als Roboter, die in einer vorprogrammierten Bewegung den gesamten Tag das Gleiche machen“, sagt Schoellig in Anspielung auf die Fertigung von großen Stückzahlen in Industrieumgebungen. Der ideale Roboter wird sich in komplexen Umgebungen bewegen und selbst die Planung übernehmen. Angenommen, ein Roboter müsste in einem Gebäude selbständig einen be- stimmten Raum auf einer definierten Etage finden. „Wenn ein Programmierer nicht alle Details auf dem Weg kennt, kann er das auch nicht vorher programmieren“, sagt die KI-Expertin Schoellig.
Der Roboter muss sich also alleine zurechtfinden, Fähigkeiten erlernen, um den Aufzug zu erkennen, den Knopf zur richtigen Etage zu drücken, zu wissen, welchen Flur er nehmen und welche Tür er aufmachen muss. Viele einzelne Fähigkeiten gehören dazu – Gegenstände er- kennen, nicht zu fest den Knopf im Aufzug drücken, Hindernissen ausweichen, bei Bedarf sogar nach dem Weg fragen. Und: Das erworbene Wissen an andere Roboter weitergeben. Wobei auch klar ist, dass Tools wie ChatGPT einem Roboter augenblicklich noch nicht wirklich helfen kann: „KI muss mit der physischen Welt interagieren, da reicht es nicht aus, ‚nur‘ quatschen zu können“. Die besondere He- rausforderung für die Robotik liegt zu- dem aktuell in der Vielfalt der Systeme. Setzen die Roboter unterschiedliche Ma- chine-Learning-Modelle oder Sensoren ein, wird es aktuell noch schwierig, die Erkenntnisse zu übertragen und etwa via Cloud allen anderen Robotern zur Verfügung zu stellen. Aber einzelne KI-basierte Fähigkeiten sind bereits umgesetzt: So hat Schoellig Flugroboter im Tagebau zum Einsatz gebracht, um nach Sprengungen die Größe der Steine zu messen und später die Sprengsätze optimieren zu können. Viele solcher Fähigkeiten zu verbinden ist das Ziel: Man könnte also sagen, analog zur „generativen KI“ arbeitet die TU München bereits an „generativen Robotern“ – mit embodied intelligence.