Blog : Die Maschine trifft keine Entscheidung
Für die aktuelle Ausgabe von AUTlook haben wir viele Gespräche rund um das Thema Machine Learning geführt. Die Aussichten, die selbstlernende Maschinen für die Industrie bieten, sind enorm. Die Fähigkeiten der verschiedenen ML-Konzepte, aus vorhandenen Daten Muster zu erkennen und sinnvolle Schlüsse zu ziehen, sind vorhanden und marktreif. Doch wir sind auf zwei Hemmschuhe gestoßen, die den Einsatz in der industriellen Praxis noch stark bremsen.
Einer der beiden Hemmschuhe für Machine Learning ist die Datenlage. Nach 30 Jahren Digitalisierung hinterlassen Produktionsanlagen zwar jede Menge an Datenschleimspuren. Doch die Bits und Bytes sagen oft nicht das aus, was für fundierte Datenanalysen und entsprechende Schlüsse nötig wäre. Das lässt sich technisch relativ einfach lösen: Mehr Sensoren an den richtigen Stellen verbauen, passende Hard- und Software anschaffen und einige Automatismen einbeziehen, schon steht dem ML-Projekt nichts mehr im Weg. Das Thema ist eigentlich eine Auflage für Automatisierer.
Warum kommt Machine Learning trotzdem nicht so recht vom Fleck?
Der zweite Hemmschuh ist der Mensch. Jahrzehntelang war der Automatisierer derjenige der die Verantwortung für die Funktionsweise einer Maschine übernommen hat. Je komplexer die Anforderungen, desto höher der Stellenwert desjenigen, der letztendlich weiß, wie alles zusammenhängt. Der Automatisierer ist es gewohnt, Verantwortung dafür zu tragen, was eine Maschine eigentlich leistet. Er ist der letzte, der Hand anlegt und die Anlage in Betrieb nimmt, und der erste, der gerufen und gefrafgt wird wenn es irgendwo hakt. Mit Machine Learning gibt er ein großes Stück davon ab – und zwar an eine Black Box, in die er kaum hineinschauen kann.
KI-Anwendungen sind von Softwareentwicklern und Datenanalysten entworfen. Der Automatisierer gerät in eine neue Rolle – er erklärt nicht mehr, was Sache ist, sondern er muss selber fragen, was gerade passiert. Das wirkt sich entsprechend bremsend auf die Bereitschaft aus, ML-Projekte voranzutreiben.
Eine Lösung ist es, Machine Learning als das zu sehen, was es eigentlich ist: Eine Beratungsleistung der Künstlichen Intelligenz für den Menschen. Eine Entscheidungshilfe, die Optionen aufzeigt. Nicht mehr, aber auch nicht weniger. Wir müssen lernen, KI-Ergebnisse nicht als Bedrohung unserer Kompetenz wahrzunehmen, sondern als Dienstleistung, aus der wir unsere eigenen Schlüsse ziehen können.
Die Maschine trifft keine Entscheidungen: Das werden wir ihr auf absehbarer Zeit auch nicht erlauben. Vielleicht fällt es unter dieser Perspektive leichter, das eigenständige Lernen der Maschinen zu forcieren?