Big Data Analytics in der Auftragsabwicklung - Erschließung ungenutzter Potenziale in der variantenreichen Kleinserienfertigung

René Wöstmann, Fabian Nöhring, Jochen Deuse, Ralf Klinkenberg, Thomas Lacker

Die fortschreitende Digitalisierung der Arbeitswelt führt zu neuen Möglichkeiten der Gestaltung und digitalen Unterstützung von Geschäftsprozessen. Insbesondere nicht F&E-intensive, zumeist kleine und mittlere Unternehmen stehen jedoch vor großen Herausforderungen, diese Potenziale zu realisieren. Im Rahmen dieses Beitrags wird aufgezeigt, welche Anwendungsfälle mithilfe des Einsatzes von Big Data Analytics in produzierenden Unternehmen realisiert werden können. Hierzu werden verschiedene Anwendungsszenarien skizziert. Anhand eines Praxisbeispiels der Auftragsabwicklung eines nicht F&E-intensiven Unternehmens wird aufgezeigt, wie die Beschaffung durch die Analyse und Prognose relevanter Daten, bspw. die Verfügbarkeit und Kosten von Bauteilen oder Prozessdaten, und die Angebotserstellung softwaretechnisch unterstützt werden können.

Zunehmende Digitalisierung und Datenmengen durch Industrie 4.0

Im Zuge der Industrie 4.0 hält die Digitalisierung Einzug in produzierende Unternehmen. Im Rahmen dessen wird zunehmend Informations- und Kommunikationstechnik (IKT) eingesetzt, die zu einer steigenden Vernetzung von Produktionssystemen und Geschäftsprozessen führt. In der betrieblichen Praxis resultieren aus einer zunehmenden Digitalisierung häufig große Datenmengen (Big Data), die sich nicht nur durch stark ansteigendes Volumen, sondern auch durch Geschwindigkeit und Vielfalt an Datenformaten und -quellen charakterisieren lassen [1]. Neben den damit verbundenen Herausforderungen entstehen jedoch ebenso große Potenziale in der Analyse von Daten zur Gestaltung von Geschäftsprozessen, bspw. in der Auftragsabwicklung. Daher gerät Big Data Analytics zur Beherrschung der Geschäftsprozesse sowie Auffindung unbekannter Muster zunehmend in den Fokus der Betrachtung. Die Ansätze des Big Data Analytics sind nicht grundlegend neu, jedoch ermöglicht der Anstieg der Rechenleistung bei gleichzeitigem Preisverfall der Hardware erst heute die wirtschaftliche Anwendung zur prädiktiven anstatt zur bisher häufig praktizierten vergangenheitsbezogenen Datenanalyse. Die gewonnenen Erkenntnisse bilden in Kombination mit dem praktischen Erfahrungswissen der Mitarbeiter zukünftig eine wesentliche Grundlage zur Entscheidungsunterstützung im Unternehmen [2, 3].
Eine Vorreiterrolle auf dem Gebiet der Big Data Analytics nahmen einerseits Banken [4, 5] und Versicherungsgesellschaften [6, 7] ein, die schon lange Entwicklungsprognosen und Risikobewertungen durch die Auswertung großer Mengen an historischen Daten generieren. Mittlerweile zeigen zudem zahlreiche F&E-intensive Unternehmen anderer Branchen wie Google, Facebook, Microsoft oder Amazon auf, welcher Mehrwert mithilfe von Big Data Analytics, wie bspw. einer Prognose des Kunden- oder Marktverhaltens, erzielt werden kann, wenngleich diese Beispiele ebenso Gefahren wie bspw. Datenschutz und Persönlichkeitsrechte aufzeigen. Erste Implementierungen von Big Data Analytics werden auch bereits in produzierenden Industrieunternehmen eingesetzt, allerdings beschränkt sich dies derzeit noch auf große, F&E-intensive Unternehmen. Die Adaption dieser Ansätze auf nicht F&E-intensive Unternehmen mit KMU-ähnlichen Strukturen ist noch nicht erfolgt, da finanzielle und personelle Ressourcen häufig begrenzt sind und noch keine Erfahrungswerte oder Best Practices vorliegen. Die Beherrschung großer Datenmengen wird bisher eher als Hemmnis und nicht als Chance wahrgenommen [8]. Daher ist es erforderlich, auch produzierende, nicht F&E-intensive Unternehmen für die Thematik Big Data Analytics zu sensibilisieren und Potenziale sowie Praxisbeispiele aufzuzeigen.
Im Rahmen dieses Beitrags wird der Auftragsabwicklungsprozess in den Fokus gestellt, da der Kunde und dessen Auftrag in der variantenreichen Kleinserienfertigung den Kern der Unternehmung darstellen. Außerdem fallen in diesem Bereich besonders große und komplexe Datenmengen an [9]. So liegen u. a. unstrukturierte Kundenanfragen, heterogene interne IT-Systeme und Datenformate zur Auftragssteuerung, komplexe Qualitäts- und Produktionsdaten sowie heterogene Lieferantendaten vor, sodass die Datenanalyse hier besondere Potenziale bietet. Die bestehenden positiven Beispiele der F&E-intensiven Unternehmen fließen in diese Betrachtung ein.


Bild 1: Big Data Analytics-Ansätze in der Auftragsabwicklung.

Big Data Analytics in der Auftragsabwicklung

Auftragsabwicklungsprozesse sind je nach Kundenentkopplungspunkt individuell ausgeprägt; übergreifend lassen sich dabei die Phasen Absatzplanung und Marketing, Einkauf, Auftragssteuerung, Produktion, Vertrieb sowie Service herausstellen [10]. Insbesondere in der Einzel- und Kleinserienfertigung werden hierbei pro Auftrag nahezu alle Phasen durchlaufen. Entlang dieser sechs Phasen ergibt sich eine Vielzahl an Optimierungs- und Automatisierungspotenzialen durch softwarebasierte Big Data Analysen, die bereits von verschiedenen Unternehmen aus unterschiedlichen Branchen genutzt werden. Bestehende Ansätze sind exemplarisch in Bild 1 dargestellt. Insbesondere große Software-Unternehmen wie die Versandhäuser eBay und Amazon sowie verschiedene Forschungsinstitute nehmen hierbei eine Innovationsvorreiterrolle ein. So nutzt bspw. Facebook Big Data Analytics im Marketing zur Optimierung kundenspezifischer Werbung, welche die Vorlieben, Interessen und möglichen Verhaltensweisen der Nutzer aufzeigen [11]. Zwar zählt Facebook nicht zur produzierenden, Aufträge abwickelnden Industrie, dennoch können produzierende Unternehmen im Marketing von branchenübergreifenden Anwendungsfällen lernen, ihre Kunden und deren Bedürfnisse zu analysieren. Ein anderes Beispiel zeigt auf, wie der Versandhändler OTTO in der Absatzplanung durch Abrufprognosen sowie Preis- und Wiederauffüll-Optimierungen eine Senkung der Bestände um 20 % bei Verbesserung der Prognosegüte um 40 % gegenüber bisherigen Verfahren erzielt [12]. Nach erfolgreicher Produktfindung und -entwicklung sind fertigungsvorbereitend Stücklisten zu erstellen, bevor potenzielle Lieferanten ermittelt werden. So wurde im Rahmen des Forschungsprojekts ProMondi eine Vorgehensweise zur Ableitung neuer Stücklisten und Arbeitspläne auf Basis von Ähnlichkeitsmaßen zu bestehenden Produkten entwickelt [13]. Eine im anschließenden Einkauf verbreitete Methode im Rahmen von Lieferantenbewertungen ist die Analyse von Preisen, Lieferzeiten oder -termintreue. Eine Erweiterung der häufig deskriptiven Verfahren um Prognosemodelle ermöglicht bspw. ein prädiktives Lieferantenmanagement unter der Prämisse der Risikominimierung und Preisoptimierung [14]. In der Auftragssteuerung werden seit einiger Zeit datenbasierte Ansätze verfolgt, um bspw. eine nivellierte Reihenfolge der Aufträge zu ermöglichen [15]. Große, teilweise bereits genutzte Potenziale befinden sich im Bereich der Produktion. Eine weite Verbreitung im industriellen Umfeld finden insbesondere Qualitätsprognosen, Prozessteuerung sowie Predictive Maintenance [16]. Ein Beispiel des Vertriebs von Amazon zeigt, wie neben den Absatz- und Einkaufsplanungsmöglichkeiten durch kundendatenbasierte Analysen eine Möglichkeit geschaffen wird, präzise Voraussagen über die kundenindividuelle Einkaufswahrscheinlichkeit zu treffen [17] bis hin zur Auslösung eines antizipativen Paketversands [18], bevor vom Kunden selbst eine Bestellung eingegangen ist. Im Service nutzt die Online-Handelsplattform eBay bspw. Big Data Analytics zur Ermittlung von Kundenzufriedenheit, da sich diese als verlässlicher und zutreffender erwiesen haben als Umfrageergebnisse [19]. Ein weiteres Beispiel aus dem produzierenden Gewerbe ist die lebenszyklusübergreifende Betrachtung von Qualitätsservices, bei der mithilfe von Big Data Analytics qualitätskonstituierende Merkmale in der Nutzungsphase identifiziert werden und die Integration des Wissens in frühe Phasen des Produktlebenszyklus nachfolgender Produktgenerationen erfolgt [20].
Bei den derzeitigen Anwendungsfällen und Einsatzgebieten von Big Data Analytics nehmen vor allem große Internetkonzerne eine Führungsrolle ein, die Datenanalysen jedoch hauptsächlich für die Auswertung von Kundendaten verwenden, sowie unternehmensspezifische Lösungen verschiedener Forschungsinstitute. Bisher ist für die Big Data Analytics-gestützte Auftragsabwicklung noch keine Adaption für kleine und mittlere Unternehmen erfolgt. Im Folgenden wird daher am Beispiel eines Anwendungsfalls im Rahmen des Forschungsprojekts STEPS [21] vorgestellt, wie Big Data Analytics insbesondere in der Auftragsabwicklung eines kleinen Unternehmens bei der Forderung nach Flexibilität und schnellen Reaktionszeiten unterstützen kann. Das Projekt STEPS verfolgt das Ziel, durch die Entwicklung einer Gestaltungs- und Einführungssystematik insbesondere nicht F&E-intensive Unternehmen zur zielgerichteten Einführung von Industrie 4.0-Lösungen zu befähigen.

Praxisbeispiel der Auftragsabwicklung bei intrObest

Der Hersteller von Elektronikbaugruppen intrObest fertigt ständig wechselnde Produkte in kleiner Stückzahl. Die Produkte bestehen i. d. R. aus Zukaufteilen (Leiterplatten und Elektronikbauteile), die manuell oder auf SMD-Linien automatisiert montiert werden. Eine eigenständige F&E-Abteilung betreibt das Unternehmen nicht. Die Entwicklungsarbeit beschränkt sich auf die individuelle Entwicklung von elektronischen Baugruppen bei einzelnen Aufträgen. Bei einer Anfrage wird nahezu der gesamte in Bild 1 dargestellte Auftragsabwicklungsprozess durchlaufen, da es sich zumeist um Einzel- und Kleinserien handelt. Das oberste Ziel ist es, dem Kunden eine kurze Durchlaufzeit von der Anfrage bis zur Auslieferung zu bieten, um somit flexibel auf Nachfrageschwankungen reagieren zu können. Die größten Zeitanteile liegen hierbei mit bis zu drei Wochen in der Angebotserstellung sowie Beschaffung der Zukaufteile. Da die Produktion selber nur einen geringen Anteil der Durchlaufzeit erfordert und nur wenige Prozessschritte durchlaufen werden, liegt im Anwendungsfall der Fokus vielmehr auf Absatzplanung, Einkauf, Auftragssteuerung und Vertrieb (Bild 1). Daten aus diesen vier Phasen der Auftragsabwicklung werden benötigt, um den Kunden zuverlässige Liefertermine und Preise im Rahmen der Angebotserstellung nennen zu können. Weiterhin spielen auch interne Ziele, wie Kosten, Qualität und Transparenz in Wareneingang und Produktion, eine Rolle. Beginnend mit einer Kundenanfrage wird die Angebotserstellung ausgelöst. Um dem Kunden Lieferzeiten und Preise nennen zu können, ist zunächst eine neue System- Stückliste mit firmeneigenen Artikelnummern zu erstellen. Derzeit erfolgt dies manuell mit einem hohen Suchaufwand für Bauteile und Komponenten sowie einem Fehlerrisiko. Darauf aufbauend erfolgt die Kostenkalkulation für den Auftrag. Im Einkauf besteht derzeit ein sehr hoher Rechercheaufwand, da der Markt unübersichtlich ist und Preise sowie Verfügbarkeiten schwanken. Dem Kunden zugesagte Preise und Termine können demnach nicht immer eingehalten werden. Weiterhin sieht sich intrObest mit einem stark volatilen Marktumfeld konfrontiert, sodass derzeit valide Absatzprognosen nicht möglich sind. Dies führt wiederum zu unvorhersehbaren Auslastungen in der Auftragssteuerung sowie Produktion, wodurch sowohl die kurz- als auch die langfristige Personal- und Kapazitätsplanung erschwert wird.


Bild 2: Datenquellen und Ergebnisse der automatisierten Suche und Prognose per
Data Mining, Web Mining und maschinellem Lernen.

Nutzung von Big Data Analytics zur Unterstützung der Auftragsabwicklung bei intrObest

Um den genannten Herausforderungen zu begegnen, verfolgt intrObest das Ziel, Big Data Analytics in der Auftragsabwicklung anzuwenden (Bild 2). Durch die Unterstützung und (Teil-)Automatisierung der Geschäftsprozesse sollen Kosten und Antwortzeiten sinken sowie Flexibilität und Zuverlässigkeit steigen, um die Kundenzufriedenheit zu erhöhen. Im Folgenden werden drei Ansätze zur Anwendung von Big Data Analytics in der Auftragsabwicklung bei intrObest vorgestellt. Der erste Ansatz ist eine (teil-)automatisierte Stücklistenerstellung. Zunächst erfolgt eine Analyse interner und externer Daten vergangener Bestellungen und Aufträge, bspw. von Lieferanteninformationen (Produktkataloge, Preise, Verfügbarkeiten, Zuverlässigkeit) sowie von allgemeinen Preis und Nachfrage-Entwicklungen. Daraufhin soll durch den Einsatz von Methoden des maschinellen Lernens, Data Mining, Web Mining und der Informationsextraktion aus eingehenden Kundenaufträgen möglichst automatisch die Komponenten-Stückliste extrahiert werden (z. B. aus Excel- oder PDF-Dateien).
Zu jeder Stücklistenposition (Stück, Bauteil, Komponente) werden daraufhin der eigene Lagerbestand ermittelt sowie im Rahmen des zweiten Big Data Analytics-Ansatzes Lieferanten identifiziert, die die nicht intern verfügbaren Bauteile und Komponenten zuverlässig, hinreichend schnell und möglichst preiswert und qualitativ hochwertig liefern können. Dazu werden weitestgehend automatisiert die Produktkataloge der bekannten Lieferanten durchsucht und die relevanten Verfügbarkeits- und Preisinformationen per Web Mining und Informationsextraktionsalgorithmen ermittelt. Darüber hinaus werden automatisch potenzielle neue Lieferanten identifiziert und auch für diese die genannten Informationen extrahiert. Auf diese Weise wird für jedes Stück, Bauteil oder jede Komponente der Angebotsanfrage ein Vorschlag an geeigneten Lieferanten ausgegeben. Aus diesen wird der Angebotsersteller daraufhin eine Auswahl treffen bzw. vorgeschlagene Partner bestätigen, sodass die zeitaufwendigen Suchprozesse nach Bauteilen, Lieferanten, Preisen, Verfügbarkeiten etc. weitgehend entfallen und Angebote deutlich schneller erstellt werden können.
Als dritter Big Data Analytics-Ansatz werden die Kundenanfragen und Bestellmengen sowie Preise und Verfügbarkeiten der Bauteile und Komponenten über die Zeit modelliert und prognostiziert, um die Bestell- und Kapazitätsplanung verbessern zu können. Zur Anwendung kommen hierbei Methoden der Zeitreihenanalyse.


Bild 3: Exemplarische Umsetzung in der Softwareumgebung von RapidMiner.

Die softwaretechnische Umsetzung bei intrObest erfolgt mithilfe der Open Source Data Mining Software RapidMiner [22, 23] (Bild 3). Hierbei werden die Daten aus den verschiedenen internen Quellen (bspw. Komponenten-, Lieferanten- oder Kundendatenbanken) und externen Quellen (bspw. neue Kundenanfragen, Lieferanten-Web-Kataloge oder Preisentwicklungen) zusammengeführt. Daraufhin erfolgt automatisch eine multikriterielle Bauteil-Ähnlichkeitssuche, die strukturierte Merkmale (bspw. numerisch und nominal bzw. kategoriell) ebenso berücksichtigt wie unstrukturierte textuelle Informationen. Sind die für eine neue Einzel- oder Kleinserie benötigen Bauteile eindeutig identifi ziert, werden passende Lieferanten identifi ziert und es erfolgt eine automatische Sortierung nach Preis, Verfügbarkeit und Zuverlässigkeit/Liefertreue in einer Ergebnis-/Vorschlagsliste. Mithilfe maschineller Lernverfahren und historischer Daten soll die Erkennungsrate der Bauteilidentifikation und die Prognose der Liefertreue etc. ständig verbessert werden. Eine weitere Detaillierung sowie Validierung erfolgt im Rahmen des STEPS-Projekts. Ziel ist es, die Angebotserstellung von drei Wochen auf unter eine Woche zu reduzieren.
 

Fazit

Big Data Analytics-Ansätze werden in diversen Brachen, insbesondere in F&E-intensiven Großunternehmen oder Internetkonzernen, schon seit einiger Zeit erfolgreich eingesetzt. In der Produktion nicht F&E-intensiver Unternehmen sind sie bisher wenig verbreitet. Durch die zunehmende Digitalisierung und Datenverfügbarkeit ergeben sich auch hier neue Anwendungsmöglichkeiten. Dennoch ist festzustellen, dass ein Mangel an Know-how, personellen Ressourcen und bekannten Lösungsmustern den Einstieg in das Themenfeld erschwert. In diesem Beitrag werden daher verschiedene Ansätze in der Auftragsabwicklung aufgezeigt und ein Lösungsmuster skizziert, wie Big Data Analytics die Angebotserstellung und Auftragsabwicklung in der Einzel- und Kleinserienfertigung eines nicht F&E-intensiven Unternehmens unterstützen kann, um die Angebotszeit zu reduzieren, Kundenabrufe zu prognostizieren sowie eine zeit-, kosten- und qualitätsoptimale Lieferantenauswahl zu treff en. Dennoch ist zur erfolgreichen Implementierung von Big Data Analytics Know-how in Informatik sowie Mathematik und Statistik erforderlich. Hierin besteht weiterhin eine große Herausforderung, insb. für nicht F&E-intensive Unternehmen. Gegebenenfalls erfordert dies die Einbindung externer Fachkräfte oder Beratung sowie entsprechender Datenanalysesoftware. Der Beitrag unterstützt bei der Identifikation ungenutzter Potenziale und bietet Ansatzpunkte zur Adaption bestehender Anwendungsszenarien im Rahmen der Auftragsabwicklung. Erste Ergebnisse des vorgestellten Anwendungsfalls zeigen, dass insbesondere die Zeit zur Angebotserstellung deutlich reduziert wird. Eine Detaillierung dieses Lösungsmusters im weiteren Verlaufe des Projektes STEPS sowie die Demonstration weiterer Anwendungsfälle werden nicht F&E-intensiven Unternehmen zukünftig helfen, Big Data Analytics-Ansätze zu adaptieren und erfolgreich einzuführen.

Dieses Forschungs- und Entwicklungsprojekt wird/wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) im Programm „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ (Förderkennzeichen 02P14B101) gefördert und vom Projektträger Karlsruhe (PTKA) betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei den Autoren.

Schlüsselwörter:

Industrie 4.0, Big Data Analytics, Auftragsabwicklung, Data Mining, KMU

Literatur:

[1] Gartner: Gartner Special Report Examines How to Leverage Pattern-Based Strategy to Gain Value in Big Data. Stamford 2011.
[2] Deuse, J.; Eigner, M.; Erohin, O.; Krebs, M.; Schallow, J.; Schäfer, P. D.: Intelligente Nutzung von implizitem Planungswissen. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb 106 (2011) 6, S. 433-37.
[3] Deuse, J.; Weisner, K.; Hengstebeck, A.; Busch, F.: Gestaltung von Produktionssystemen im Kontext von Industrie 4.0. In: Botthof, A.; Hartmann, E. A. (Hrsg): Zukunft der Arbeit in Industrie 4.0. Berlin 2014.
[4] Carvalho, A. C.; Gama, J. M.; Ludermir, T. B.: Credit Risk Assessment and Data Mining. In: Encyclopedia of Information Science and Technology 2009, S. 800-805.
[5] Devi Prasad, U.; Madhavi, S.: Prediction of Churn Behavior of Bank Customers using Data Mining Tools. In: Business Intelligence Journal 5 (2012) 1, S. 96-101.
[6] IBM (Hrsg): Verwendung von Data Mining zur Aufdeckung von Versicherungsbetrug. Erhöhen der Genauigkeit und Minimieren von Verlusten. Somers, USA 2010.
[7] Lamberty, O.: Big Data in der Versicherungsbranche. Zielgerichtetes Know-how statt Aktionismus. In: Zeitschrift für Versicherungswesen 21 (2016), S. 668-671.
[8] Eickelmann, M.; Wiegand, M.; Konrad, B.; Deuse, J.: Die Bedeutung von Data-Mining im Kontext von Industrie 4.0. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb 110 (2015) 11, S. 738-743.
[9] Weskamp, M.; Tamas, A.; Wochinger, T.; Schatz, A.: Einsatz und Nutzungspotentiale von Data Mining in Produktionsunternehmen. Stuttgart 2014.
[10] Verein Deutscher Ingenieure: Digitale Fabrik – Grundlagen. VDI 4499 Blatt 1, Düsseldorf 2008.
[11] Forouzandeh, S.; Soltanpanah, H.; Sheikhahmadi, A.: Content marketing through data mining on Facebook social network. In: Webology 11 (2014) 1, S. 1-11.
[12] Blue Yonder GmbH (Hrsg): Replenishment und Prize Optimization bei OTTO. Wie der Multichannel-Händler seine Kunden begeistert und gleichzeitig den Umsatz steigert. Karlsruhe 2016.
[13] Schallow, J.; Erohin, O.; Ernst, J.; Roubanov, D.; Deuse, J.; Eigner, M.: Prospektive Ermittlung von Montagearbeitsinhalten. Gesamtsystematik zur konsistenten Nutzung von Montageplanungsinformationen in der Digitalen Fabrik. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb 109 (2014) 11, S. 843-847.
[14] Dust, R.: Big Data im Lieferantenmanagement – Datamining für ein cross-funktionales Wissensmanagement zur Risikobewertung. Bonn 2016.
[15] Bohnen, F.: Eine Methodik zur Produktionsnivellierung auf der Basis von Fertigungsfamilien. Aachen 2013.
[16] Bange, C.; Janoschek, N.: Big Data Analytics. Auf dem Weg zur datengetriebenen Wirtschaft. Würzburg 2014.
[17] Zhalgassova, A.: Logistik mit Gedanken lesen. Anticipatory Shipping im Onlinehandel. In: BVL: logistic2GO (2014) 3, S. 1.
[18] Spiegel, J. R.; McKenna, M. T.; Lakshman, G. S.; Nordstrom, P. G.: Method and system for anticipatory package shipping, Amazon Technologies Inc. 2013.
[19] MIT Sloan Management Review: How eBay Uses Data and Analytics to Get Closer to Its (Massive) Customer Base. Interview with Neel Sundaresan (eBay). Cambridge 2013.
[20] Eickelmann, M.; Schallow, J.; Jalali Sousanabady, R.; Deuse, J.: Lebenszyklusübergreifende Qualitätsservices. Cloudbasierte Service-Plattform zur intelligenten Prognose qualitätsbestimmender Daten. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb 110 (2015) 4, S. 167-171.
[21] Nöhring, F.; Wienzek, T.; Wöstmann, R.; Deuse, J.: Industrie 4.0 in nicht F&E-intensiven Unternehmen. Entwicklung einer sozio-technischen Gestaltungs- und Einführungssystematik. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb 111 (2016) 6, S. 376-379.
[22] Hofmann, M.; Klinkenberg, R.: RapidMiner. Data mining use cases and business analytics applications. Boca Raton, USA 2014.
[23] Mierswa, I.; Wurst, M.; Klinkenberg, R.; Scholz, M.; Euler, T.: YALE: Rapid Prototyping for Complex Data Mining Tasks. In: Eliassi-Rad, T.; Ungar, L. H.; Craven, M.; Gunopulos; Dimitrios (Hrsg): Proceedings of the 12th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York 2016.