Autonome Produktionen und Roboter - Möglichkeiten und Forschungsfelder maschineller Lernverfahren für das Produktionsumfeld

Marco Huber

Künstliche Intelligenz und ihr Teilgebiet Maschinelles Lernen sind in aller Munde. Genaueres Wissen darüber, was die Begriffe eigentlich meinen, ist jedoch oft noch nicht umfassend vorhanden. Deshalb stellt der Beitrag zunächst einiges Grundwissen zum Thema vor und zeigt dann auf, welche Einsatzmöglichkeiten und Mehrwerte insbesondere maschinelle Lernverfahren für die Produktion bieten können. Die Robotik, beispielsweise ein autonomer Griff-in-die-Kiste, ist ein Teilgebiet im Produktionsumfeld, das von den beschriebenen Technologien insbesondere profitiert. Abschließend geht der Beitrag auf das Thema Erklärbarkeit von maschinellen Lernverfahren ein. Das Entschlüsseln der „Black Box“ ist aus technischen, rechtlichen und gesellschaftlichen Gründen eine essenzielle Aufgabe für KI-Experten.

Den Themen Künstliche Intelligenz (KI) und Maschinellem Lernen (ML) widerfährt aktuell intensive Geschäftigkeit. Dabei sind es keine ganz neuen Technologien, die hierfür genutzt werden. Erste Anfänge reichen bis in die 1950er-Jahre zurück, als der Turing-Test entwickelt wurde oder der Informatiker und Elektroingenieur Arthur Samuels einem Computer erstmals das Spiel Dame beibrachte.

Doch erst seit einigen Jahren sind die technischen Voraussetzungen vorhanden, um die Technologien tatsächlich in industrielle Anwendungen zu bringen. Zu diesen Voraussetzungen gehört zuvorderst die Digitalisierung und die zunehmende Vernetzung von Produktionsmaschinen und Robotern im Kontext von Industrie 4.0 verbunden mit leistungsstarken Sensoren und hoher Rechenkapazität, sodass die große Menge erzeugter Daten auch verarbeitet und sinnvoll ausgewertet werden kann.

KI und ML wird für die deutsche Wirtschaft bedeutendes Potenzial zugeschrieben. So geht das „McKinsey Global Institute“ davon aus, dass das Bruttoinlandsprodukt in Deutschland dank KI-Technologien bis 2030 jährlich um 1,3 Prozentpunkte steigen dürfte. Zum Vergleich: Andere revolutionäre Technologien sorgten für deutlich geringere Wachstumsschübe, die Dampfmaschine bspw. für 0,3 Prozentpunkte oder die Industrierobotik für 0,4 Prozentpunkte. Insofern ist es logisch, dass KI auch politisch stark gewollt ist. Ein Beispiel ist die im vergangenen Jahr beschlossene Strategie der Bundesregierung zur Künstlichen Intelligenz. In deren Rahmen sollen bis 2025 rund drei Milliarden Euro in die KIForschung investiert und der Slogan „KI made in Germany“ zu einem internationalen Markenzeichen werden. Auf Länderebene tut sich ebenfalls viel. So gibt es u. a. in Baden-Württemberg umfangreiche Fördermaßnahmen, um KI in die Anwendung zu bringen. Das Zentrum für Cyber Cognitive Intelligence am Fraunhofer IPA ist nur ein Beispiel, das mit niedrigschwelligen Angeboten insbesondere den Mittelstand erreichen und technisch unterstützen möchte.
 

Methodisches Vorgehen

Diese Fördermaßnahmen sind auch insofern elementar, als das Interesse an KI zwar groß ist, das Wissen um Einsatz- und Umsetzungsmöglichkeiten jedoch oft noch am Anfang steht. KI ist der Oberbegriff für viele Problemlösungsmethoden, darunter zum Beispiel Logik und Planungsverfahren, für die üblicherweise viel menschliche Intelligenz erforderlich wäre. Auch ML ist eine dieser Methoden und aktuell wohl die am meisten beforschte und angewandte. Grundsätzlich geht es beim ML darum, Muster in Daten zu erkennen und dieses Wissen zur Problemlösung einzusetzen. Auch wird der Ansatz der traditionellen Datenverarbeitung umgekehrt: Bisher war es nötig, für einen Computer ein Programm zu schreiben, das mithilfe von Eingabedaten Ausgaben erzeugt. Dieses Programm zu erstellen, ist aufwendig und erfordert Fachwissen. Mithilfe von ML soll der Computer nun lernen, sich selbst zu programmieren. Hierfür erhält er Eingabedaten und, je nach ML-Methode, auch Ausgabedaten und erstellt darauf basierend automatisch das erforderliche Programm.

Gelernt wird anhand von meist sehr vielen Beispielen oder Lerndaten. Dieser Lernprozess erfolgt oft in einer Simulationsumgebung, um Ressourcen zu sparen und die reale Anwendung schnell umsetzen zu können. Das aus den Lerndaten entstandene Modell ist Grundlage dafür, auch neue Daten passend verarbeiten zu können. Es gibt drei Arten des Maschinellen Lernens: Beim überwachten Lernen liegen dem Algorithmus Eingabe- und Ausgabedaten vollständig vor. Konkret heißt das: Wenn bspw. ein Bild mit einer Katze erkannt werden soll, muss der Algorithmus vorher hunderte Bilder mit dem Label „Katze“ gesehen haben, um zu wissen, ob er ein ungesehenes Bild als Katze klassifizieren soll. Beim unüberwachten Lernen stehen nur die Eingabedaten bereit und der Algorithmus erzeugt selbstständig sogenannte Cluster, also Merkmalsgruppen. Die dritte Methode ist das Verstärkungslernen (reinforcement learning): Hier erhält der Algorithmus ein Belohnungssignal, um schrittweise bessere Handlungsweisen zu lernen.


Bild 1: Maschinelles Lernen ermöglicht einen autonomen, selbstlernenden Griff-in-die-Kiste (Quelle: Fraunhofer IPA/Foto: Rainer Bez).

Das derzeit gebräuchlichste Verfahren beim ML ist Deep Learning. Es nutzt tiefe künstliche neuronale Netze, um Erkenntnisse aus Daten zu gewinnen. Die Arbeitsweise künstlicher neuronaler Netze orientiert sich an den Vorgängen im menschlichen Gehirn, das schätzungsweise aus 86 Milliarden Nervenzellen besteht. Jede Nervenzelle, auch Neuron genannt, ist mit durchschnittlich 10.000 anderen Neuronen verbunden. Bei künstlichen neuronalen Netzen sind die Neuronen typischerweise in Schichten angeordnet und Verbindungen liegen zwischen Neuronen der direkt aufeinanderfolgenden Schichten vor.

Das typischste Anwendungsbeispiel ist aktuell die Bildverarbeitung. Anhand von einzelnen Pixeln kann ein neuronales Netz nach diversen Rechenschritten ausgeben, um welches Objekt, also Klasse, es sich handelt. Voraussetzung für diese automatische Auswertung von Daten ist, dass das neuronale Netz trainiert wird oder wie oben genannt lernt. Hierzu wird die Stärke der einzelnen Verbindungen zwischen den Neuronen so angepasst, dass das Netz möglichst wenig Fehler bei der Zuordnung der Daten zu einer Klasse macht. Zur Anpassung der Verbindungsstärke, die oftmals als ‚Gewicht‘ bezeichnet wird, kommen spezialisierte mathematische Optimierungsverfahren zum Einsatz. Für ein gutes Training des Netzes muss es eine Vielzahl an Eingabedaten, also beispielsweise gelabelte Bilder, erhalten, und für diese muss zunächst ein Mensch die richtige Ausgabeinformation angeben. Praktischerweise gibt es bereits umfangreiche Bilddatenbanken mit gelabelten Daten, z. B. ImageNet, sodass grundlegendes Trainingsmaterial vorhanden ist.

Zum Weiterlesen hier klicken