Künstliche Intelligenz (KI) und Machine Learning umfassen unterschiedliche Technologien und Techniken (z.B. Deep Learning, Künstliche Neuronale Netze, …). Sie sind heutzutage in aller Munde und haben laut dem Marktforschungsunternehmen Gartner dieses Jahr ihren Peak an Hype in der Gesellschaft erreicht. Dieser Hype flacht erwartungsgemäß ab, bis sie in der produktiven Umsetzung wieder an Aufmerksamkeit gewinnen.
Auf dem Weg in eine erfolgreiche Einbringung von Machine Learning in die produzierende Industrie sind noch große Hindernisse zu bewältigen. Plötzlich erkannte Anwendungsmöglichkeiten stoßen in der Realität an ihre Grenzen, weil die nötige Infrastruktur und das Investment für ein Enabling einer solchen Technologie fehlt. Dadurch entstehen Handlungsbedarfe und Notwendigkeiten für kostengünstige Implementierungen und Infrastrukturen.
Der Trend der Informatisierung vieler Instanzen im Produktentstehungsprozess gibt oft unbeabsichtigt Grundlage und Möglichkeiten für eine Einbringung von künstlicher Intelligenz auch in der Produktion. Durch immer mehr verbreitete IoT- und Big Data-Anwendung in der Industrie und das Speichern von Prozessdaten, getrieben durch die Qualitätssicherung, steigt die Anzahl an Trainingsdaten für mögliche rechengestützte Modelle.
Bei immer größer werdender Anzahl an Einflussfaktoren in der Fertigung und explosionsartig ansteigender Vielfalt an Produkttypen, stellt das maschinelle Lernen eine große Möglichkeit dar, komplexe Vorgänge schnell in Zusammenhang zu bringen.
Beispielsweise können Prozessgrößen und Bearbeitungsqualitäten eines spanenden Herstellungsprozesses im Werkzeugbau als Trainingsdaten für ein Modell dienen. So kann zum Beispiel anhand einer neuen Werkzeuggeometrie Aussage über Standzeit oder Qualität getroffen werden.
Die konventionelle Grundlagenforschung im Maschinenbau bietet sehr genaue physikalisch-mathematische Modelle, die vergleichsweise über einen langen Zeitraum ermittelt werden müssen und nicht alle Einflussfaktoren berücksichtigen können. Unbekannte Einflussgrößen können sich hingegen indirekt durch z.B. den Verlauf der Wirkleistung der Werkzeugspindel prägnant ausdrücken und ins Verhältnis mit der Qualität setzen lassen.
Datenbasierte Algorithmen ermöglichen eine Echtzeit-Simulation, sodass eine Optimierung hinsichtlich Kosten, Durchlaufzeiten und Qualität schnell und effizient ermöglicht wird. So können mögliche Ausfälle von Maschinen vorausgesagt werden. Zahlreiche Produktionsabläufe lassen sich im Sinne der Produktionsprognostik durch eine Vielzahl von Datenpunkten analysieren und optimieren.
Für eine Modellerstellung und einer kontinuierlichen Verbesserung dieser Modelle müssen die dafür nötigen Information, beispielsweise aus Betriebsdatenerfassungssystemen, gespeichert und entsprechend durch Data Analytics aufbereitet werden. Eine umfassende und intelligente Datenvorverarbeitung setzt eine ausreichend gute Modellqualität voraus. Die Güte solcher Modelle steigt mit der Anzahl an Trainingsdaten, was hohen Speicherbedarf erfordert.
Die Informationen aus dem Betrieb werden nicht oder nur flüchtig gespeichert. Zentrale Relevanz im Rahmen des Handlungsfeldes Data-Analytics haben dabei der Zugang zu Daten und deren Analysefähigkeit. Cloud Plattformen bieten durch ihre flexible Skalierbarkeit eine kostengünstige und effiziente Methode zur Speicherung.
Mit dem Aufkommen der Cloud ist die Produktion weniger durch den hohen Investitionsaufwand und laufende Support-, Wartungs- und Betriebskosten von hauseigenen Hardwaresystemen begrenzt. Mit Cloud Hosting Services können Unternehmen erhebliche Kosteneinsparungen, mehr Flexibilität, verbesserte Skalierbarkeit und Business Continuity mit gehosteten Cloud-Lösungen realisieren.
Durch neue Wege der Datenspeicherung und -verarbeitung eröffnen sich somit die Türen zu Technologien, die vorher nicht in Reichweite konventioneller Fertigungen waren.
Quellen:
Gartner Hype Cycle of Emerging Technologies: http://www.gartner.com/newsroom/id/3412017
Zusatzinformation:
Ein künstliches System „lernt“ aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Es geht vorwiegend um das Erkennen von Mustern in Daten, sodass unbekannte Daten beurteilt werden können. Der Zusammenhang zwischen Eingangs- und Ausgangsdaten lässt sich somit durch Modelle herstellen. Diese Modelle sind im Gegensatz zu physikalisch-mathematischen Modellen eine Art undurchsichtige Blackbox, die die Zusammenhänge nicht eindeutig erklärt. Die daher oft mit Skepsis betrachteten Modelle scheinen bei der hohen Komplexität dennoch ein lukratives und unausweichliches Mittel zu sein.
Beispiel: Eingangsgrößen stellen die Prozessgrößen eines Herstellungsprozesses im Werkzeugbau dar. Ausgangsgrößen stellen die Bearbeitungsqualitäten dar. Durch Anlernen anhand der gegebenen Ein- und Ausgangsgrößen lässt sich ein Modell erstellen, das den Einfluss von unbekannten Einflussgrößen z.B. auf Qualitätsmerkmale gibt. Die konventionelle Grundlagenforschung im Maschinenbau bietet sehr genaue physikalisch-mathematische Modelle, die vergleichsweise über einen langen Zeitraum ermittelt werden müssen und nicht alle Einflussfaktoren (z.B. Störfaktoren) berücksichtigen können.