Technikhistorie: Computer Integrated Manufacturing
Eine voll vernetzte, digitalisierte Fabrik: Was mit Industrie 4.0 jetzt allmählich Realität wird, existiert als Vision schon deutlich länger. Zwar war das Computer Integrated Manufacturing (CIM) gründlich durchdacht und untersucht – es musste dennoch scheitern.
Hohe Qualität zu günstigen Preisen, diese Forderung begleitet Ingenieure schon seit Beginn der Industrialisierung. Auch Computer sollten hierzu ihren Beitrag leisten. Die rechnergestützte Konstruktion (Computer Aided Design – CAD) und das Programmieren der Maschinen zur Produkterstellung (Computer Aided Manufacturing – CAM) fingen ab Mitte der 1960er Jahre an, in die Fabriken vorzudringen. Anfangs war das noch eine außerordentlich teure Angelegenheit: Die Flugzeugbauer Lockheed und Dassault, die als ersten CAD-Systeme einsetzten, benötigten die Leistungen von Großrechnern und teils auch spezielle Bildschirme.
1973 wurde CIM erstmals vorgestellt
Außerdem waren die verschiedenen computergestützten Tätigkeiten immer noch voneinander isoliert, Informatiker sprechen von „Insellösungen“. Deshalb stellte der Wissenschaftler Joseph Harrington 1973 das Konzept des Computer Integrated Manufacturing vor. Damit wollte er zeigen, wie wichtig Informationen in der Produktion sind, und welche Synergien sich bei der Verknüpfung der Insellösungen heben lassen. Nach Harringtons Vorstellung sollten Computer alle Bereiche des Unternehmens unterstützen.
Rasante Fortschritte in der Mikroelektronik ließen die Computer kleiner und erschwinglicher werden, der Personal Computer (PC) trat seinen Siegeszug an. Die rechnergestützte Steuerung aller Unternehmensbereiche wurde realistischer. Was zunächst jedoch wuchs, war die Zahl der CIM-Konzepte und -Definitionen. Forscher der TU Darmstadt haben im Jahr 2017 insgesamt 37 CIM-Modelle zusammengetragen, ohne Anspruch auf Vollständigkeit. Während der CIM-Hochphase hatte jeder Hersteller wie DEC, HP, IBM oder Siemens eine eigene Definition.
Aus „CIMsalabim“ wurde Industrie 4.0
Deutlich schwieriger war aber die Umsetzung der Konzepte in die Realität. Die Leistungen der Computer waren zu gering, um die erdachten Möglichkeiten von CIM zuverlässig umzusetzen. Zumal die Konzepte auch alle auf eine Steuerung durch zentrale Leitrechner setzten. CIM wurde mehr und mehr als „CIMsalabim“ verspottet: Groß in den Versprechungen, aber zaubern konnte dann doch niemand.
Entsprechend skeptisch waren Beobachter, als im Jahr 2012 der Begriff „Industrie 4.0“ aufkam. Die Idee der Automatisierung mit cyber-physischen Systemen erinnerte erfahrene Ingenieure an das Scheitern von CIM.
Doch mittlerweile sind die Rechenleistungen hoch genug. Und auch der Ansatz von Industrie 4.0 ist anders gelagert: Es geht um Kommunikation statt um Integration. Die Systeme sind dezentral und autonom; sie kommunizieren statt über einen Leitrechner. Die Datenübertragung ist ebenfalls wesentlich schneller geworden. Echtzeit bedeutet in der Steuerungstechnik heute Millisekunden. Um die Idee von CIM umzusetzen, hat also nicht nur der technische Fortschritt geholfen. Auch die neue, dezentrale Herangehensweise hat eine große Aufgabe in machbare Einheiten unterteilt.