„Industrie 4.0“ in den Produktionsprozessen

5.1 Vorbemerkungen

Bei der ersten industriellen Revolution bestand die technische Revolution in der Ersetzung der menschlichen Hand bei der Bearbeitung eines Gegenstands, der Bearbeitungsprozess wurde automatisiert. Verallgemeinert man dies Prinzip, so bedeutet Automatisierung den Ersatz menschlicher Fähigkeiten und Funktionen jeder Art durch technische Prozesse in der Produktion. Das können wie bei dem automatisierten Fahren zum Beispiel Fuß, Hand und Auge sein. Die wesentlichen Schritte bei der derzeitigen Automatisierung industrieller Prozesse bestehen neben der weiteren Ersetzung der Hand bei der Führung des Werkzeugs vor allem in der Übernahme von Steuerungs- und Regelungseingriffen bei der Führung von Maschinen, das heißt auch von Denk- und Entscheidungsprozessen durch neu entwickelte Bauteile und Programme.

Steuerungs- und Regelungstechnik sind Teilgebiete der Automatisierungs­technik ([41], [42], [43]). Regelung bedeutet, dass man die zu beeinflussende Regelgröße misst und sie mit dem gewünschten Sollwert vergleicht. Der Regler bestimmt die Abweichung und veranlasst, dass sich die Regelgröße wieder dem Sollwert angleicht. Wesentlich für eine Regelung ist die automatische Rückkopplung von Ist- und Sollwert. Ein frühes Beispiel für eine Regelung war der Watt’sche Fliehkraftregler, der die Stellung einer Drosselklappe in der Dampfzuführungszuleitung einer Dampfmaschine so regelte, dass eine gleichmäßige Drehbewegung beibehalten wird. Ein weiteres Beispiel einer Regelung ist der im vorigen Kapitel beschriebene Tempomat im Auto.

Steuerung bedeutet die gerichtete Beeinflussung des Verhaltens technischer Systeme. Aufgrund von Eingabegrößen analoger oder digitaler Art gibt die Steuerung ein Signal, das eine Aktion auslöst. Ein einfaches Alltagsbeispiel ist ein Bewegungsmelder. Ein Sensor registriert eine Bewegung und schaltet eine Leuchte an. Ein frühes Beispiel für ein Steuerungssystem war der Webstuhl von Jaquard (1805). Mittels Lochkarten wurde der Webstuhl so gesteuert, dass er automatisch ein bestimmtes Muster webte. Nach Austausch der Lochkarten wurde ein anderes Muster gewebt. Jaquard‘s Webstuhl war damit eine der ersten frei programmierbaren Maschinen ([43]).

Wurde die erste technische Revolution durch die in der Manufakturperiode vorgenommene Zerlegung der handwerklichen Produktion in Einzelschritte vorbereitet, so wurde die weitere Automatisierung der industriellen Massenproduktion durch die mit der Fließbandproduktion erfolgte Zerlegung des Produktionsprozesses in einfache Arbeit und Steuerungs- und Überwachungs­tätigkeiten vorangetrieben.

Am Beispiel der Automatisierung des Fahrens wurden hier Komponenten vorgestellt, die ursprünglich aus der Automatisierung von Produktionsprozessen stammen. Ihr Einsatz im Auto wurde möglich, als die Rechentechnik so schnell war, dass Aktionen in Echtzeit möglich wurden, was bei Produktions­prozessen nicht immer erforderlich ist. Eine zentrale Rolle bei der Beschleunigung der Automatisierung von Produktionsprozessen spielten wie bei der Automatisierung des Fahrens die im Jahr 1971 entwickelten Mikroprozessoren und Mikrocontroller, die von Sensoren stammende Daten verarbeiten und gemäß der in ihnen eingebauten Logik Handlungsanweisungen an nachfolgende Systeme weitergeben. Diese nachfolgenden Systeme werden oft Aktoren genannt, in der Produktionstechnik auch als Handhabungsgeräte, Manipulatoren oder Effektoren bezeichnet.

Wie bereits angesprochen, besteht der Unterschied zwischen Mikroprozessor und Mikrocontroller darin, dass der Mikroprozessor eine reine Recheneinheit (CPU central processing unit) auf einem Chip ist, während der Mikrocontroller auf seinem Chip noch weitere Funktionen enthält. Mikrocontroller sind in ihren Funktionen und ihrer Leistung auf ihren speziellen Verwendungszweck ausgerichtet, zum Beispiel in einem Haushaltsgerät, einem Smartphone, beim Motormanagement, in einer CNC- oder einer Handhabungsmaschine. Durch die Ausrichtung auf einen bestimmten Verwendungszweck erfordern sie eine geringere Leistungskapazität und sind daher im Betrieb und der Anschaffung billiger. Kleine Mikrocontroller sind inzwischen bei höheren Stückzahlen inzwischen für unter 1 € zu erhalten ([44]). Nach ([45], Seite 24) befinden sich 98 % der vielen Milliarden Mikrocontroller, die jährlich hergestellt werden, nicht in Computern, sondern in Alltagsgegenständen wie Smartphones, Waschmaschinen, Elektrozahnbürsten oder Hometrainern.

Die Vielfalt der Eingangsgrößen für industrielle Mikroprozessoren und Mikrocontroller ist erheblich umfangreicher als die der in Autos verbauten. Praktisch jede für den Produktionsprozess relevante physikalische und verfahrenstechnische Größe kann von Sensoren gemessen werden und als Eingangssignal des Mikrocontrollers oder Mikroprozessors dienen. Die Anzahl der ausgelösten Aktionen ist in der Produktion ebenfalls vielfältiger. Wichtige Klassen von Handhabungsgeräten in der Produktion sind die numerisch gesteuerten NC/CNC-Maschinen ([46]), die Industrieroboter und die Serviceroboter. Sie unterscheiden sich hauptsächlich durch ihren Einsatzzweck. NC/CNC-Maschinen werden vor allem zur formgebenden Bearbeitung von Werkstücken eingesetzt, Industrieroboter zur Handhabung von Werkzeugen und Werkstücken, etwa bei Montage, Schweißen, Lackieren und vielem mehr ([47]). Eine neuere Entwicklung sind die Serviceroboter. Dies sind mobile Roboter, die mit Menschen zusammenarbeiten und ihnen zuarbeiten. Im Folgenden soll auf wesentliche Etappen der industriellen Automatisierung eingegangen werden.

 

5.2 Die Entwicklung der Rechentechnik

Zentrale Bedeutung für die sich beschleunigende Automatisierung von industriellen Produktions­prozessen hatte und hat die Entwicklung von Rechnertechnik und Programmen. Sie machte die heutigen elektronischen Steuerungen und Regelungen von Handhabungsgeräten erst möglich. Die Entwicklungsgeschichte kann hier nur skizziert werden, vertiefen kann sich der interessierte Leser zum Beispiel bei Wikipedia. Auch bei den Verweisen beschränke ich mich auf wesentliche Artikel, da sonst der Zitierapparat zu umfangreich würde.

Die Entwicklung der numerisch gesteuerten Maschinen und der elektronischen Rechenmaschinen begann gleichzeitig und hatte denselben Ursprung, nämlich militärische Belange. Der erste elektromechanisch ausgestattete Rechner in den USA, der von 1939 bis 1944 gebaute Mark I, diente für Berechnungen zur Erhöhung der Treffsicherheit von Artilleriegeschossen ([48]). Auch der, mit 18000 Röhren ausgestattete Rechner ENIAC wurde ab 1945 wesentlich für den Bau der Atombombe verwendet ([49], Seite 357 folgende). Die Aufgabe der ersten numerisch gesteuerten Maschinen war es, die Fertigungsgenauigkeit von Flugbomben und Flugzeugen zu verbessern. Die bisherigen Werkzeugmaschinen waren dafür zu ungenau, so dass teure Nacharbeiten erforderlich wurden. Daher entstand die Idee, die von Ingenieuren zuvor errechneten geometrischen Profildaten direkt zur Steuerung der Bearbeitungsmaschinen zu verwenden (NC-Technik) ([49], Seite 411 folgende). Militärischen Zwecken dienten auch die in Deutschland und Großbritannien entwickelten Rechner. Der im Jahr 1941 von Konrad Zuse in Deutschland entwickelte Rechner Zuse Z3 war der erste binär arbeitende programmierbare Rechner.

Im Unterschied zu früheren technologischen Neuerungen erfolgte die Entwicklung der Rechentechnik und der numerisch gesteuerten Maschinen zunächst weitgehend auf Staatskosten. Der Grund dafür war, dass die dazu erforderlichen Investitionskosten über viele Jahre für die zivile Industrie zu hoch waren. Das liegt daran, dass mit zunehmender technischer Entwicklung immer mehr wissenschaftliche Vorarbeit und Grundlagenforschung erforderlich wird, um weitere Fortschritte zu erzielen. Dies bedeutet lange Entwicklungszeiten, die dem Interesse einer schnellen Kapitalverwertung widersprechen. Von daher gewinnt die staatliche Förderung von Technologieentwicklung eine wachsende Bedeutung. Dies zeigte sich auch bei der staatlichen Finanzierung der Raumfahrt und des Kernkraftwerksbaus, die beide ihrerseits die Rechner- und Programmentwicklung forcierten. Kommerzielle Rechner setzten sich erst Ende der 1950er Jahre durch. Im Jahr 1959 betrugen die Monatsmieten mittlerer Rechner, wie des Rechners IBM 650 zwischen 35 000 DM und 80 000 DM, bei Großrechnern waren es bis zu 300 000 DM ([49], Seite 372)

Zunächst sollen wesentliche Etappen der Rechnerentwicklung umrissen werden. Beschrieben werden die Digitalrechner, da sie inzwischen fast alle anderen Rechnertypen verdrängt haben. Auf die zunächst rein mechanisch funktionierenden Rechner folgten ab den 1940er Jahren die elektromechanischen Rechner in Relaistechnik, dann die Röhrenrechner. Ab dem Jahr 1955 setzten sich mit Transistoren bestückte Rechner durch und mit der Entwicklung der integrierten Schaltkreise ab dem Jahr 1958 begann das Zeitalter der Mikroelektronik ([50], [51]). Im Jahr 1971 wurde der erste Mikroprozessor vorgestellt und aus ihm für die Anwendung in Geräten der Mikrocontroller entwickelt ([48]). Integrierte Schaltkreise enthalten auf einem Chip mit Abmessungen von wenigen Millimetern inzwischen mehrere Milliarden Schaltelemente samt ihren elektrischen Verbindungen. Zum Vergleich: der genannte Rechner Mark I hatte eine Frontlänge von 16 Metern und wog 35 Tonnen ([49], Seite 358).

Diese zunehmende Miniaturisierung ermöglichte nicht nur höhere Rechen­leistungen, sondern auch den Einbau von Mikroprozessoren und Mikrocontrollern in ganz unterschiedliche Geräte. Die bisherige Erfahrung der Entwicklung der Rechnertechnik ergibt, dass sich etwa alle zwei Jahre die Packungs­dichte der Schaltelemente auf einem Chip verdoppelt, wodurch sich in etwa demselben Maß die Leistung erhöht ([45]). Dies ist das sogenannte Moore‘sche Gesetz. Besaß der erste Mikroprozessor Intel 4004 im Jahr 1971 etwa 2 300 Transistoren, so besaß 20 Jahre später der Intel 80486 bereits 1,2 Millionen Transistoren und der IBM Power 7 Prozessor 20 Jahre später 1,2 Milliarden Transistoren, was jeweils einer Zunahme um das 1000-fache in 20 Jahren entspricht. Musste der Roboter Shakey in den 1960er Jahren noch mit einem Arbeitsspeicher von 192 Kilobyte auskommen, so hatte der IBM-Rechner Watson im Jahr 2011 bereits einen Arbeitsspeicher von 16 Terabyte, eine Steigerung um das 83-Millionenfache. Auch die Zunahme der Geschwindigkeit der Rechner folgt in etwa dem Moore’schen Gesetz. Konnte der Roboter Shakey etwa 12 000 Rechenoperationen pro Sekunde ausführen, so waren es bei dem IBM-Rechner Watson rund 80 Billionen pro Sekunde ([2], Seite 47). Die derzeit leistungsfähigsten Computer haben Arbeitsspeicher um die 1000 Terabyte und Rechenleistungen von mehr als 18 Billiarden Rechenoperationen pro Sekunde, was der Größenordnung der Leistung des menschlichen Gehirns entspricht ([2], Seite 146). Zum Vergleich: Der genannte MARK-I–Rechner konnte 10 Rechenoperationen pro Sekunde durchführen. Gleichzeitig verbrauchen die Rechner immer weniger Strom pro Operation. Dies erlaubt die Verwendung von Rechnern in Mobilgeräten wie den Smartphones. Rechenleistung wurde damit ohne eine Verbindung zu einem Stromnetz verfügbar. Die wachsende Rechenleistung von Rechnern ohne Stromanschluss und die Fähigkeit der Kommunikation mit dem Internet ermöglicht immer mehr technische Anwendungen in Bereichen ohne ausgebaute Infrastruktur. Das empirische Moore’sche Gesetz führte bisher zu einem exponentiell beschleunigten Wachstum der Rechenleistung und damit der Datenverarbeitung, das von der technischen Seite die sich zunehmend beschleunigende Automatisierung in den Produktionsprozessen und anderen Bereichen der Gesellschaft erklärt. Natürlich stößt die Miniaturisierung auf Basis der bisherigen Technik irgendwann auf physikalische Grenzen. Daher werden alternative Rechnerkonzepte und Rechnerarchitekturen wie zum Beispiel Quantencomputer oder neuromorphe Chips entwickelt, die versuchen, Struktur und Funktionsweise des Gehirns nachzubilden. Außerdem werden andere Materialien zur Chipherstellung erprobt.

Die Kosten für Rechner und ihre Komponenten sind beträchtlich gesunken und sinken weiter. Kostete etwa im Jahr 1980 ein Megabyte Festspeicherplatz noch rund 100 US $, so waren es 20 Jahre später nur noch einige Zehntel US Cent ([45]). Zugleich wurden die Festplatten kleiner und schneller, was die Speicherung großer Datenmengen ermöglichte und neue Programme zu ihrer Verarbeitung erforderte. Nach ([28], Seite 11) sanken die Kosten pro Rechen­operation im Jahresmittel zwischen 1945 und 1980 um 37 % und zwischen 1980 und 1990 jährlich um durchschnittlich 64 %. Kein anderer Bereich der Technik hat ein so hohes Entwicklungstempo wie die Rechnertechnik und ihr Umfeld.

Zu Beginn der Rechnerentwicklung gab es natürlich weder Programme, Programmiersprachen noch Betriebssysteme. Die gewünschten Rechen­operationen mussten dem Rechner am Anfang als Schaltanweisungen an die verbauten Komponenten mitgeteilt werden. Sie wurden über Lochstreifen eingelesen oder gestöpselt. Im Verlauf der Zeit wurden immer wieder neue Computersprachen, Betriebssysteme, Compiler und Anwenderprogramme entwickelt, die es erlaubten, dem Computer Aufgaben zu übergeben, ohne dass dem Entwickler der Aufbau des Rechners bekannt sein muss. Zur Übersetzung von in höheren, leichter handzuhabenden problemorientierte Programmiersprachen, wie zum Beispiel die in der Programmiersprache Fortran programmierten Anweisungen in die Maschinensprache dienten die Compiler und Assembler. Mit der Entwicklung von Schnittstellenprogrammen wurde es möglich, die Ergebnisse von Konstruktionsberechnungen direkt zur Steuerung von Werkzeug­maschinen zu verwenden, aus der NC-Maschine wurde die CNC-Maschine ([52]).

Die Entwicklung der Rechentechnik beschleunigte die Verzahnung von Wissenschaft und Technik. Seit Ende des 19. Jahrhunderts erhält die Technik wesentliche Impulse von der wissenschaftlichen Forschung oder ist ohne sie kaum mehr möglich. Umgekehrt stellt die Technik Forderungen an die Wissenschaft zur Lösung aufgetretener Probleme. Immer neue und stärker spezialisierte Fachdisziplinen entstanden und entstehen. Für viele Probleme, die nicht mit Formeln zu lösen sind, werden numerische Verfahren entwickelt. Die Entwicklung der Rechentechnik erlaubt immer detailliertere Berechnungen und Simulationen in ständig neuen Anwendungsbereichen. Oft wird für diese Entwicklung der Begriff der wissenschaftlich – technischen Revolution verwendet. Die Verbilligung der Rechner und die Einführung der Arbeit­splatzrechner führten auch zu ihrer Verbreitung im kaufmännischen Bereich, Verwaltung und Logistik, womit eine zunehmende Rationalisierung einherging. In der Büroarbeit begann damit eine ähnliche Entwicklung, wie sie durch die Automatisierung der Produktion stattfand.

Auf zwei Begriffe im Zusammenhang der Entwicklung von Rechentechnik und Rechenprogrammen soll noch eingegangen werden, die unter den Schlagworten „Big Data“ und „Künstliche Intelligenz“, im Englischen Artificial Intelligence (AI), bekannt sind. Hierbei handelt es sich um Rechenprogramme, die bereits in vielen Anwendungen genutzt werden und ein großes Zukunftspotential besitzen.

Unter dem Begriff „Big Data“ versteht man die Datenverarbeitung großer Datenmengen mit Programmen auf Rechnern. Diese Daten können aus verschiedenen Quellen stammen, von verschiedenem Typ, auch unstrukturiert und von unterschiedlicher Güte sein. Ausgewertet werden sie mit dem Ziel, daraus Schlussfolgerungen und Empfehlungen für Handlungen abzuleiten. Ein Beispiel ist die Auswertung von Sensordaten und extern gesendeten Daten, um ein teilautomatisiertes Automobil zu steuern. Ein weiteres Beispiel ist die Auswertung medizinischer Studien zur Unterstützung einer ärztlichen Diagnose oder von juristischen Datenbanken zur Suche nach Vergleichsfällen. Nach Schätzungen verdoppelt sich das weltweite Datenvolumen alle zwei Jahre ([38], Seite 44 folgende), pro Tag entstehen inzwischen zehnmal mehr Daten als alle Bücher der Welt enthalten ([2], Seite 55). Die riesigen Datenmengen benötigen Programme und schnelle Rechner, um die gewünschten Daten und Muster zu finden, um damit aus „Big Data“ „Smart Data“ zu machen. Um ein Beispiel zu nennen: Das Fernwartungszentrum von Siemens überwacht 7500 Windturbinen weltweit. Jede dieser Windturbinen besitzt zwischen 100 und 300 Sensoren, die pro Tag etwa 200 Gigabyte an Daten erzeugen. Aus diesen Daten sind die relevanten Wartungsdaten herauszufiltern ([2], Seite 223).

Es eröffnet sich das neue Geschäftsfeld der vorausschauenden Wartung und Instandhaltung (Product Lifecycle Management). „Big Data“ Auswertungs­programme, populär als „Data mining“ (Datenbergbau, [53]) bezeichnet, erlauben es darüber hinaus, zunehmend, Intuition, Erfahrung und Denktätigkeit des Menschen durch Programme zu ersetzen. „Data mining“ Programme können schneller als ein Mensch große Datenmengen auf Muster untersuchen und Empfehlungen vorschlagen. Dem „Data mining“ verwandt ist das Gebiet des maschinellen Lernens. Dabei geht es darum, dass Computerprogramme in von Sensoren gelieferten Daten Muster erkennen und daraus Handlungsanweisungen ableiten ([53]). Maschinelles Lernen ermöglicht es, Roboter außerhalb strukturierter Umgebungen und für Nichtroutinetätigkeiten einzusetzen. So sollen zum Beispiel Serviceroboter ein Werkzeug suchen können und es an einen anderen Ort bringen. „Big Data“ sind nicht nur technische Daten sondern auch die Daten über Personen, die Konzerne wie Facebook, Google, Amazon oder die chinesische Firma Alibaba sammeln und zur Massenmanipulation nutzen.

Programme, die menschliche Urteilskraft ersetzen sollen, sind ein Bestandteil dessen, was unter „Künstlicher Intelligenz“ ([54]) verstanden wird. Dazu gehören auch Gebiete wie die „Expertensysteme“, „Deep learning“-Verfahren, die neuronalen Netze und weitere. An Verfahren der künstlichen Intelligenz wird weltweit an vielen Universitäten und Instituten geforscht, an kommerziellen Firmen sind Internetgiganten wie Google, Amazon, und sein chinesisches Pendant Alibaba, Facebook und Rechner- und Chiphersteller wie IBM oder Intel sowie Softwarefirmen wie Microsoft zu nennen, die eigene Forschungsinstitute betreiben. Im Jahr 2017 wurde in China ein Programm beschlossen, um das Land bis zum Jahr 2030 zum führenden globalen Innovationszentrum für Künstliche Intelligenz zu machen. Verfahren der Künstlichen Intelligenz führen zum Beispiel dazu, dass Roboter immer selbständiger werden und hinzulernen und, dass bei Auswertung persönlicher Daten die Möglichkeit zur Massenmanipulation steigt. Wird das Erfahrungswissen eines Roboters in einer Cloud abgespeichert, kann es dazu genutzt werden, andere Roboter anzuleiten. Unter „Cloud-Computing“ ist die Nutzung von Rechenleistung, Daten und Programmen aus dem Netz anstelle des lokalen Computers zu verstehen. Diese Verfahren und Dienste gewinnen mit der wachsenden Digitalisierung und der Auswertung großer Datenmengen immer mehr an Bedeutung ([38], Seite 37 folgende).

Über Verfahren zur „Künstlichen Intelligenz“ wird schon lange geforscht. Was neu ist, dass diese Verfahren aufgrund der immer weiter steigenden Rechnerleistungen inzwischen zur kommerziellen Anwendung kommen, wie zum Beispiel in dem schon erwähnten Rechner Watson bei der medizinischen Diagnostik, zur Steuerung von Servicerobotern oder zur Spracherkennung. Spektakuläre Beispiele für die Anwendung von „Künstlicher Intelligenz“ waren der Sieg eines Schachcomputers im Jahr 1996 über den amtierenden Schachweltmeister Gari Kasparow und der Sieg des Rechners AlphaGo über einen der weltbesten Go-spieler im Jahr 2016. Inzwischen siegen Computer auch beim Pokern. Schachcomputer sind ein Beispiel für das maschinelle Lernen, sie lernen von Spiel zu Spiel hinzu und können sich immer besser auf ihre menschlichen Spielpartner einstellen, die implementierten Algorithmen lernen selbständig. Weitere Beispiele sind Spracherkennungs- und Übersetzungsprogramme, Programme, die Aktienentwicklungen analysieren und Kauf- und Verkaufsprozesse auslösen. 70 % der Finanztransaktionen werden bereits über Algorithmen gesteuert ([2], Seite 272). Einem einfachen Beispiel begegnet man, wenn man bei dem Internethändler Amazon bestellt, denn dann bekommt man Empfehlungen aufgrund früherer Einkäufe oder der Einkäufe anderer Kunden. Inzwischen wird der Begriff „Künstliche Intelligenz“ als Oberbegriff für alle selbstlernende Verfahren verwendet.

Das Beispiel Amazon zeigt auch das kommerzielle Interesse an der Datensammelwut persönlicher Daten und ihrer Auswertung, es geht darum, mehr zu verkaufen. Diese Art der Beeinflussung ist nicht weit entfernt von Manipulationsversuchen, wie wir sie etwa im US-Wahlkampf 2016 kennenlernen konnten, wo Falschmeldungen sich sehr schnell in den sozialen Medien wie Twitter und Facebook verbreiten konnten. Dazu gibt es Computerprogramme, „social bots“ genannt, die dies automatisiert durchführen. Die Methoden schneller Auswertung großer Datenmengen erlauben es nicht zuletzt auch, einen immer lückenloseren Überwachungsstaat aufzubauen. Die chinesische Regierung will bis zum Jahr 2020 ein sogenanntes Citizen Score durchführen. Dann bekommt jeder Chinese ein Punktekonto, das darüber entscheidet, zu welchen Konditionen er einen Kredit erhält, ob er bestimmte Berufe ausüben, wo er wohnen und wohin er reisen darf ([2], S.275).

 

 

 

    1. Numerisch gesteuerte Werkzeugmaschinen und Roboter

Auch wenn es – angetrieben durch die Vollbeschäftigung in den westlichen Industrieländern – bereits ab Mitte der 1950er Jahre Automatisierungs­anstrengungen gab, so fand doch der Durchbruch mit der Verbreitung der numerisch gesteuerten Werkzeugmaschinen und der Industrieroboter statt. Im Folgenden soll näher auf diese Entwicklung eingegangen werden.

Die NC-Technik entstand aus dem Bedürfnis nach höherer Fertigungs­genauigkeit bei der Formgebung von Werkstücken, um Ausschuss- und Nachbearbeitungskosten zu senken und den Materialverbrauch zu reduzieren. Ab dem Jahr 1954 wurden die ersten industriell gefertigten NC-Maschinen gebaut ([14], Seite 511 folgende, [52]). In der Anfangsphase bestand die Steuerung aus fest verdrahteten elektromechanischen Bauteilen wie etwa Relais, Röhren und später Transistoren. Bei Änderungen der gewünschten Form des Werkstücks oder einer Änderung der Werkzeugführung mussten mindestens die Steuerungsprogramme ausgetauscht werden, in der Anfangszeit waren immer Hardwareänderungen erforderlich. NC-Maschinen rechneten sich in der Massenfertigung und dort gibt es sie teilweise auch heute noch.

Etwa ab dem Jahr 1968 erlebte die NC-Technologie durch die Verwendung von integrierten Schaltkreisen und den Mikroprozessoren und Mikrocontrollern ab Mitte der 1970er Jahre einen Durchbruch als CNC-Maschinen, da die Kosten sanken, die Leistungsfähigkeit stieg und Mittel- und Kleinserien günstiger hergestellt werden konnten. Es konnten Programme eingesetzt werden, wie die im Jahr 1969 vorgestellte speicherprogrammierbare Steuerung SPS ([55]) oder die Programmiersprache APT (Automatic Programming for Tools, [23], Seite 477). Dadurch wurde es leichter möglich, die NC-Technik zur Bearbeitung unterschiedlicher Werkstücke und mit unterschiedlichen Werkzeugen zu benutzen. Dies beschleunigte den Siegeszug der CNC-Maschinen, sie wurden zu Mehrzweck-Maschinen. Gefördert wurde dies durch die Entwicklung von automatischen Werkzeugwechslern und Werkzeugschnellspannern. Die Miniaturisierung und Verbilligung von Mikroprozessoren und Mikrocontrollern führte dazu, dass immer mehr Steuerungs- und Regelungstechnik direkt in die Werkzeugmaschinen eingebaut wurde, wodurch die Steuerungs- und Regelungsfunktion über einen externen Rechner entfiel. Es ist dies eine Entwicklung analog zur Einführung des Elektromotors, der die Dampfmaschine als zentrale Bewegungsmaschine verdrängte.

Weitere Automatisierungsschritte führten zu einem flexiblen Fertigungs­system, in dem verschiedene Bearbeitungsverfahren kombiniert werden und das Werkstück automatisch mit einem Materialflusssystem von einem Bearbeitungsschritt zum nächsten transportiert wird. Eine Erweiterung des flexiblen Fertigungssystems besteht darin, dass Informationen von Maschine zu Maschine zum Beispiel mit Funk über den gesamten Fertigungsprozess ausgetauscht werden. Es handelt sich um eine Art Ford’sches Fließbandsystem, in dem eine Kooperation von Maschinen die Kooperation von Menschen im gesamten Produktionsprozess ersetzt. Ein wichtiger Unterschied zum Ford’schen System besteht darin, dass mit CNC-Maschinen eine Fertigung von kleinen Serien kostengünstig wurde. Auch schnellere Modellwechsel wurden möglich, da die Werkzeugmaschinen leichter an neue Anforderungen angepasst werden konnten. Vom ersten in Massenproduktion gefertigten Automobil, dem T-Modell (1914) hieß es, man könne es in jeder Farbe bestellen, vorausgesetzt, sie sei schwarz. Heute lässt sich zum Beispiel die Ausstattung von Automobilen vom Käufer sehr individuell zusammenstellen. Dies ist ein Beispiel für die inzwischen erreichte Flexibilität der automatisierten Produktion. Im Herbst 2016 ging die Meldung durch die Presse, dass der Automobilhersteller Audi das Fließbandsystem durch Fertigungsinseln mit Teilezulieferung durch Roboter ersetzen will. Nachdem fast 100 Jahre das Fließband Arbeitsweise und Arbeitstakt der Produktion bestimmten, entwickeln sich neue Arbeitsweisen und eine neue Fabrik­organisation. Die Rolle des Menschen bei der automatisierten Produktion besteht vor allem in der Programmierung der Maschinen, der Entwicklung von Handhabungseinrichtungen, Steuerungs- und Regelungssystemen und der Überwachung der automatisierten Produktion. Aus dem eigentlichen Produktionsprozess scheidet er immer mehr aus.

Die Entwicklung der Industrieroboter verlief weitgehend zeitgleich mit der der NC-Maschinen und durchlief dieselben Etappen bei der Entwicklung der Steuerungs- und Regelungstechnik. Im Jahr 1959 wurde der erste Schweißroboter für einfache Aufgaben wie das Punktschweißen entwickelt, im Jahr 1969 wurde der erste Lackierroboter in der Automobilindustrie eingesetzt. Industrieroboter sind in der Regel ortsfest in Käfigen installiert. Die Automobilindustrie ist noch heute der größte Abnehmer von Industrierobotern. In Japan betrug die Roboterdichte in der Automobilindustrie im Jahr 2014 ungefähr 1400 Industrieroboter pro 10 000 Arbeiter, in Deutschland etwa 1100, jeder zehnte Arbeitsplatz wird also von Robotern bedient ([56]). Ab dem Jahr 1974 begann sich die Verwendung von Mikrocontrollern und Mikroprozessoren zur Steuerung der Industrieroboter durchzusetzen. Im Jahr 1975 begann die Entwicklung von Montagerobotern, die ab dem Jahr 1980 mit Kameras und weiteren Sensoren ausgestattet wurden.

Führend in der Anwendung von Industrierobotern sind derzeit Japan, Südkorea und Deutschland. Seit dem Jahr 2010 ist die Anzahl der installierten Roboter jährlich um mindestens 7 % gewachsen, zwischen 2017 und 2019 wird ein weltweites jährliches Wachstum um 13 % erwartet ([56]), wobei China mit 25 % des Gesamtabsatzes inzwischen der größte Absatzmarkt ist. Für 2018 wird erwartet, dass China die weltweit größte Zahl an Industrierobotern installiert haben wird. Die chinesische Regierung führt seit längerem eine Technologieoffensive durch, um zu den hochentwickelten Industriestaaten aufzuschließen, weil China inzwischen kein Billiglohnland mehr ist. Dazu hat sie das Programm „Made in China 2025“ beschlossen, das sich am deutschen Konzept von „Industrie 4.0“ orientiert ([57]). Die größten Hersteller von Industrierobotern und Automatisierungseinrichtungen sind die japanische Firma Mitsubishi, die Schweizer Firma ABB und die japanische Firma Fanuc. In Deutschland stellt unter anderem die Firma Kuka, die im Jahr 2016 von einer chinesischen Firma übernommen wurde, Industrieroboter her.

Ab dem Jahr 1985 begann die Entwicklung von mobilen Industrierobotern, den sogenannten Servicerobotern. Während Industrieroboter ortsfest aufgestellt sind und Menschen von ihrem Aktionsradius abgeschirmt werden, sollen sich Serviceroboter frei bewegen. Sie müssen mit Menschen gefahrlos zusammenarbeiten können, daher wird auch die Bezeichnung kollaborative oder kooperative Roboter („cobots“) gebraucht. Bei Servicerobotern spielen die Sensorik, Beweglichkeit, Lern-, Greif- und Kommunikationsfähigkeit in Echtzeit eine große Rolle. Für die erforderlichen nachgiebigen Materialien und Greifmechanismen werden neue Wissensgebiete geschaffen, die zum Beispiel Erkenntnisse aus der Biologie benutzen. Beispiele für die derzeitige Generation von Servicerobotern sind die Roboter ‚Baxter‘ der Firma Rethink Robotics oder der UR5 von Universal Robotics ([1], Seite 227, [58]). Vor allem eine Eigenschaft ist an diesen und ähnlichen Robotertypen hervorzuheben: Sie müssen nicht programmiert werden, man kann ihnen durch Führung des Arms zeigen, was sie tun sollen (teach in Verfahren). Statt des teuren Programmierers kann das der Arbeiter tun, der durch ihn ersetzt werden oder mit ihm zusammenarbeiten soll. Mit der Entwicklung der Serviceroboter sind mehrere Erwartungen verbunden: So die, dass sie die Verlagerung von Industrie aus Hochlohnländern in Niedriglohnländer stoppen können, weil ungelernte Arbeit von Servicerobotern übernommen werden kann, sie sollen auch den demografisch bedingten Rückgang der Arbeitsbevölkerung ausgleichen. In der Altenpflege wird ebenfalls ein großes Potential für humanoide Serviceroboter gesehen.

Wie bei Computern sinken auch die Preise von Robotern ständig. Kostete im Jahr 2005 ein typischer Schweißroboter noch 182 000 US $, so waren es im Jahr 2014 133 000 US $. Bis zum Jahr 2025 sollen die Kosten nochmals um mehr als 20 % sinken ([58]). Größer als der Markt für Industrie- und Service­roboter ist der Markt für Haushaltsroboter. Wurden im Jahr 2013 178 000 Industrieroboter und 21 000 industrielle Serviceroboter verkauft, so waren es in demselben Jahr 2,7 Millionen Haushaltsroboter ([38], Seite 25, 26).

Wesentliche Fortschritte fanden vor allem in der Beweglichkeit der Roboterarme, der Greiftechnik und ihrer Steuerung statt. Die immer präziseren Bewegungsabläufe von Roboterarmen und Handhabungseinrichtungen werden durch ausgefeilte schnelle Graphik- und Steuerungsprogramme und verbesserte Sensoren erreicht. Wurde zu Beginn der Entwicklung die Bewegung des Roboterarms über drei Achsen gesteuert, so sind es heute teilweise erheblich mehr. Die zunehmende Ausstattung der Roboter mit Sensoren mit verbesserter Mustererkennung und die größere Beweglichkeit erlauben es, sie nicht nur bei Routinearbeiten in immer gleicher Umgebung mit fest vorgegebenen Bewegungen einzusetzen, sondern auch in sich ändernden Umgebungen, wo sie der Situation entsprechend reagieren müssen. Ein Fachgebiet, das sich mit derartigen Themen beschäftigt, ist die Mechatronik und die Künstliche Intelligenz. Die Zusammenarbeit von Mensch und Roboter erfordert neben fortgeschrittenen Sensoren und nachgiebigen Materialien eine Reaktion in Echtzeit und eine Spracherkennung für die Anweisungen von Menschen.

Nach der Darstellung der Automatisierung in der traditionellen Industrieproduktion soll noch auf zwei weitere technische Entwicklungen eingegangen werden, die die Produktion und die Distribution verändern, den sogenannten „3D-Druck“ und die Entwicklung von Transportdrohnen.

3D-Druck ist der populäre Name für additive Fertigungsverfahren, auch generative Fertigungsverfahren genannt ([59]). Gemeinsam ist diesen Prozessen, dass sie mit unterschiedlichen Verfahren – meist mit Lasertechnologie – und mit unterschiedlichen Materialien das gewünschte Endprodukt aus vorher berechneten Geometriedaten Schicht für Schicht aufbauen. Diese Verfahren sind ein Gegenstück zur CNC–Fertigung, in der ein Rohling durch Abtragen in die gewünschte Endform gebracht wird. Die additive Fertigung braucht im Idealfall keine Nachbearbeitung, verbraucht weniger Material und benötigt kaum menschliche Eingriffe. Als Beispiele seien aus dem medizinischen Bereich die Herstellung von Hüftgelenksprothesen oder von Zahnersatz genannt. Die individuelle Situation wird gescannt und daraus der Ersatz berechnet und mit additiven Verfahren erstellt. Für die Lieferung von Ersatzteilen bei nicht mehr produzierten Maschinen und Geräten ergibt sich für den Hersteller die Möglichkeit der geringeren Bevorratung von Ersatzteilen, da sie auf Anforderung additiv aufgebaut werden können. Additive Verfahren beschleunigen die Prototypenfertigung, was schnellere Produktzyklen möglich macht. Insbesondere hat dieses Verfahren bei der Herstellung kleiner Bauteile, komplexer Bauteilgeometrien, der Gewichtseinsparung und bei der Erzeugung von Bauteilen mit speziellen mechanischen Anforderungen Vorteile. Es ist zu erwarten, dass die Bereiche zunehmen, in denen additive Verfahren zum Standard und zur Serienfertigung werden ([38], Seite 31 folgende).

Unbemannte Flugkörper, populär Drohnen genannt, werden schon seit langem für militärische Zwecke entwickelt. Dienten sie erst zur Ausspähung von Zielen, so später auch zu ihrer Ausschaltung. Den Feuerbefehl gibt in der Regel noch der Mensch. Dies könnte aber auch heute schon ein Programm übernehmen, zum Beispiel ein Gesichtserkennungsprogramm für einen Menschen. Derartige autonome Killerroboter sind preiswert, leicht herzustellen und zu bedienen, was die Hemmschwelle für ihren Einsatz senkt. In der zivilen Nutzung sollen unbemannte Flugkörper, Multicopter genannt, vor allem zu einer Umstellung der Logistik in Transport und Produktion dienen. Zunehmend werden Waren über Internethändler bestellt. Für das Zusammensuchen einer Bestellung werden zum Teil schon Service­roboter eingesetzt und für die Zustellung werden Multicopter und andere Transportroboter erprobt. Im Produktionsprozess können Multicopter oder Serviceroboter die gerade benötigten Teile liefern. In der Landwirtschaft spielen Multicopter ebenfalls eine wichtige Rolle, zum Beispiel, um Zeitpunkt und Menge des Einsatzes von Dünger und Pestiziden oder den besten Erntezeitpunkt zu ermitteln. Die Digitalisierung der Landwirtschaft („smart farming“, „Landwirtschaft 4.0“) findet bisher relativ wenig Aufmerksamkeit in der Öffentlichkeit.

Abschließend noch zwei Anmerkungen und ein kurzes Resümee: Seit Ende des zweiten Weltkriegs wurden viele weitere technische Neuerungen entwickelt, die bahnbrechend waren, aber nicht zu grundlegenden Veränderungen im Produktionsprozess führten. Als Beispiel sei die Lasertechnik genannt, die beim Messen, Schweißen und Schneiden große technische Fortschritte brachte. Zum Zweiten: Der griechische Philosoph Heraklit schrieb, dass der Krieg der Vater aller Dinge sei. Wir haben im Vorangegangenen gesehen, dass viele der geschilderten technischen Entwicklungen ihren Ausgangspunkt in militärischen Anforderungen hatten. Es waren aber nicht spezifische militärische Besonderheiten, die zu den Entwicklungen führten, sondern die Tatsache, dass für militärische Zwecke immer staatliches Geld zur Verfügung steht.

Resümee: Wie beschrieben hat die gegenwärtige Automatisierungsphase ein besonderes Merkmal. Ersetzten die bisherigen technischen Revolutionen vor allem menschliche Routinetätigkeit, so ermöglichen es die heutigen technischen Möglichkeiten, menschliche Arbeit auch bei Nichtroutinetätigkeit zu ersetzen.

 

    1. Automatisierung der Produktion nach dem zweiten Weltkrieg

Die Geschichte der bisherigen technischen Revolutionen des Produktionsprozesses haben gezeigt, dass ihr Zeitraum in Jahrzehnten zu bemessen ist. Das liegt wesentlich daran, dass es Zeit braucht, bis sich technische Neuerungen breit durchsetzen und damit die Produktionsverhältnisse verändern. Obige Darstellung der fortschreitenden Automatisierung ergibt, dass wir uns bereits mitten in einer industriellen Revolution befinden, wie Marx sie definiert. Mit der Automatisierung der Produktion ersetzen zunehmend rechnergesteuerte Maschinen zuvor von Menschen durchgeführte Tätigkeiten. Der Kernprozess ist, dass zunehmend Steuerungs- und Regelungsaufgaben in der Produktion von Automaten übernommen werden und daher die Führung der Maschinen immer weniger menschliche Überwachung und Eingriffe benötigt. Der Produktions­prozess wird immer mehr zu einem in sich geschlossenem System miteinander agierender Maschinen. Die in Maschinen eingebauten Sensoren und eingebetteten Systeme übernehmen dabei geistige Tätigkeiten, die früher Menschen in der Produktion ausübten. Nach meiner Zählweise handelt es sich dabei um die zweite industrielle Revolution. Dennoch wird hier der Begriff „Industrie 4.0“, wenn auch nicht im Sinne einer 4. Industriellen Revolution, benutzt, weil er ein staatlich gefördertes Programm zur Digitalisierung der Produktion und für neue digitale Geschäftsmodelle beinhaltet und allgemeiner Sprachgebrauch ist.

Die Etiketten, die für technologische Innovationen geschaffen werden, entspringen oft Marketingzwecken und haben wenig analytischen Wert. Wie ich herauszuarbeiten versucht habe, gab es zwei Revolutionen der Produktivkräfte in der Neuzeit, die ihrerseits jeweils eine vorbereitende Etappe besaßen:

  • Die industrielle Revolution, die die Hand bei der Führung des Werkzeugs ersetzte, wurde durch die Manufakturperiode vorbereitet.
  • Die zweite industrielle Revolution, die den Arbeiter bei der Führung der Maschine durch einen Automaten ersetzt, wurde durch die Fließbandproduktion vorbereitet.

Die Produktionsverhältnisse haben sich mit der bisherigen Automatisierung geändert und werden das weiter tun. Nicht nur, weil der Mensch immer weiter aus dem Produktionsprozess heraustritt, ein anderer Aspekt ist ebenfalls wichtig. Die Möglichkeit einer profitablen automatisierten Herstellung von individualisierten Produkten ist eine Abkehr von der früheren standardisierten Massenfertigung. Gefertigt wird zunehmend nach Kundenwunsch, was eine Mengensteuerung möglich macht und damit das Risiko einer Überproduktion senkt. Die „atmende“ Produktion nach Auftragslage hat auch Auswirkungen auf den Arbeitsmarkt. Denn sie erfordert zum Beispiel die Flexibilisierung der Tarifverträge bezüglich Arbeitszeiten, Leiharbeit, Teilzeitarbeit und vieles mehr. Das früher dominierende Normalarbeitsverhältnis wird zum Auslaufmodell ([29]). Teilweise im Unterschied zu früheren technischen Revolutionen steigen heute die Anforderungen an die Qualifikation für einen großen Teil der in der Produktion beschäftigten Arbeiter. Eine Reihe neuer Berufsfelder ist entstanden, weitere werden entstehen, andere verschwinden. Arbeit für geringer Qualifizierte gibt es häufig nur noch in Dienstleistungsbereichen, die Zusammensetzung und Gliederung der Werktätigen befinden sich im ständigen Wandel. Insbesondere sinkt durch die Automatisierung auch die Anzahl der in der Produktion beschäftigten Arbeiter, was die Klassenverhältnisse verändert.

Eine weitere Veränderung der Produktionsstrukturen ist schon länger zu erkennen. Wurden früher alle Komponenten des Endprodukts in einem Betrieb gefertigt, so wird inzwischen die Fertigung von Teilprodukten immer mehr in Zulieferbetriebe ausgelagert. Damit sollen Kosten gedrückt werden. Was als Kernkompetenz in einem Unternehmen bleiben muss, ändert sich aber ständig mit der technischen Entwicklung. Manche Ausgliederungen werden inzwischen wieder rückgängig gemacht, weil die ausgelagerten Prozesse sich inzwischen zu Kernkompetenzen entwickelt haben. War früher der Motorenbau die Kernkompetenz eines Automobilherstellers und wurden Elektronikbausteine von Zulieferern eingekauft, so kaufen heute Automobilhersteller Firmen, die ihnen für die Entwicklung des automatisierten Fahrens und für die Produktion alternativer Antriebe notwendig sind.

Meine Klassifizierung der gegenwärtigen Automatisierung der Produktion als zweite industrielle Revolution entspricht der Marx’schen Begrifflichkeit der Ersetzung von bisher dem Menschen vorbehaltenen Tätigkeiten durch Maschinen. In den deutschen Konzeptpapieren zu „Industrie 4.0“ wird diese als vierte industrielle Revolution bezeichnet und eine Phase der dritten industriellen Revolution von 1970 bis heute angenommen. Mir erscheint das willkürlich, da es eine kontinuierliche Entwicklung der Automatisierung von etwa 1960 an bis heute gibt ([14], Seite 488 folgende) und die mit dem Programm „Industrie 4.0“ geplanten Neuerungen die sich beschleunigende Fortsetzung der vorhergehenden Entwicklung sind. Wenn man eine neue Etappe seit dem Jahr 1960 herausheben will, so betrifft sie die Einführung von Computern in Verwaltung und Logistik seit etwa 1980. Dies hat den Anstieg der Zirkulationskosten für das Kapital begrenzen können, war aber keine Revolution des Produktionsprozesses ([60], Seite 62). Was sich derzeit ändert, ist die Geschwindigkeit der Einführung neuer Automatisierungstechniken. Das liegt an der Erweiterung der Einsatz­möglichkeiten von Robotern und ihrer Verbilligung. Laut VW kostet die Roboterstunde zwischen 3 und 6 Euro, ein menschlicher Arbeiter knapp 50 Euro die Stunde ([2], Seite. 236).

Eine Entwicklung zu einer neuen gesellschaftlichen Betriebsweise ist derzeit nicht zu erkennen. Es ist eine Situation, die Marx so beschreibt ([15], Seite 496): „Die Umwälzung der gesellschaftlichen Betriebsweise, dies notwendige Produkt der Umwälzung des Produktionsmittels, vollzieht sich in einem bunten Wirrwarr von Übergangsformen:“

 

    1. Das Projekt „Industrie 4.0“

Zunächst gilt es zu untersuchen, was die mit „Industrie 4.0“ zusätzlich verbundenen Schlagwörter wie „cyber-physikalisches System“ (CPS), „Internet der Dinge“, „Cloud computing“ oder „smarte Fabrik“ bedeuten.

Der Begriff „Internet der Dinge“ wurde 1999 am MIT (Massachusetts Institute of Technology) im Rahmen der Entwicklung einer firmenübergreifenden RFID-Struktur geprägt ([61]). Die RFID-Technik (RFID Radio frequency Identification) dient vor allem der Lokalisierung von Dingen, zum Beispiel bei der Paketverfolgung, also der Rationalisierung in der Logistik. Diese Technik ist schon länger im Einsatz, wie jeder weiß, der ein Paket erwartet. Es gibt weitere Verfahren, um Daten über kurze Distanzen auszutauschen. Diese Verfahren benötigen weniger Energie als die in Kapitel 4.2 genannten Mobilfunkverfahren und kommen in unterschiedlichen Anwendungen zum Einsatz.

Die Ziele des „Internets der Dinge“ gehen aber weiter. Es geht um „smarte Dinge“ und „smarte Fabriken“, die mittels IP-Adressen eindeutig identifizierbar, durch Sensoren wahrnehmungsfähig, durch Mikrocontroller reaktionsfähig und durch Funk oder Internet kommunikationsfähig sind. So kann ein Lackierroboter zum Beispiel den Füllstand seiner Farben ermitteln und eine Nachbestellung veranlassen oder eine Maschine den Bearbeitungszustand eines Werkstücks an die nächste Bearbeitungsstation mitteilen. Damit einher geht ein neues Geschäftsmodell, bei dem das an den Kunden ausgelieferte Produkt während seines ganzen Einsatzes vom Hersteller überwacht und gewartet wird, das sogenannte „Produktlebenszyklusmanagement“, auch „smart services“ genannt. So kann wie beim carsharing eine Dienstleistung verkauft werden anstelle der Maschine, die sie erbringt. Wird zum Beispiel eine elektrische Antriebsleistung benötigt, so rechnet der Hersteller des Elektromotors die Nutzungszeit des Elektromotors und die vorausschauende Wartung ab, anstatt den Elektromotor zu verkaufen (pay per use). Die durch Automatisierung geänderte Produktionslogik erfordert auch eine geänderte Geschäftslogik und führt zu neuen Geschäftsmodellen. Auch andere Geschäftsmodelle ändern sich. Durch die Möglichkeit der Produktion bis zur Losgröße 1 kann der Kunde bis zum tatsächlichen Produktionsbeginn Änderungen an seiner Bestellung vornehmen. Für die Unternehmen verringert sich durch diese Art der Produktion das Risiko einer Überproduktion am Käuferwillen vorbei.

Die Planung von „smarten Fabriken“, ihrer Bestandteile und Produkte soll vorab durch Simulationen auf Computern erfolgen. Es wird ein „digitaler Zwilling“ („digital twin“) der Anlage, der geplanten Prozesse, der Logistik und der Produkte erstellt, wodurch bereits am Modell optimiert werden kann. Auch die „smart services“ sind ein von Sensoren im Produkt informierter „digitaler Zwilling“ eines Produkts, der nach Bedarf eine Wartung von Verschleißteilen veranlasst.

Für das „Internet der Dinge“ ([38], Seite 44 folgende) sind sichere, schnelle und standardisierte Kommunikationsstrukturen notwendig. Bei der Beschreibung des automatisierten Fahrens wurde bereits der zukünftige Mobilfunkstandard 5G genannt, der Kommunikation in Echtzeit mit hohen Datenraten ermöglicht. Die Informations- und Kommunikationstechnik wird immer mehr zur Schlüssel­technologie bei der weiteren Digitalisierung von Produktion und Gesellschaft. Auch das Cloud-Computing, die Nutzung von Informationen, Programmen und Rechenkapazitäten im Internet gehört dazu. Durch Funkkommunikation und die Anbindung an das Internet wird aus einem Gegenstand ein sogenanntes „cyber-physikalisches System“ und aus dem Produktionsprozess ein „cyber-physikalisches Produktionssystem“. Ein Merkmal dieser Entwicklung ist, dass sich Maschinen und Geräte selbst überwachen und eventuell erforderliche Maßnahmen zu ihrer weiteren Funktionsfähigkeit selber kommunizieren, wo früher der Mensch beobachten und kommunizieren musste und die entsprechenden Maßnahmen manuell veranlassen musste.

Die Vernetzung und Kommunikation aller Bestandteile des Produktionsprozesses über Internet und Funk ist ein Bestandteil der „smart factory“. Es handelt sich dabei um eine horizontale und vertikale Vernetzung: Beschrieben wurde bereits die vertikale Vernetzung im Produktionsprozess, die von der Konstruktion und Berechnung zur Fertigung, die horizontale besteht in der Kommunikation zwischen den einzelnen Produktionsschritten. Bereits vorhanden, aber in weiterem Ausbaustadium ist der Bereich der Logistik. Veranschaulichen wir das am Beispiel einer Autobestellung: Ein Kunde bestellt ein Modell mit einem bestimmten Motor und Ausstattungspaket a, b, c… und Einzelwünschen x, y, z… . Dieses individuelle Produkt kann nur zu akzeptablen Preisen produziert werden, wenn das Fahrzeug entsprechend der zu verbauenden Teile automatisch zu den passenden Fertigungszellen transportiert wird, wo die Einbauteile automatisiert montiert werden. Die Produktion von Losgröße 1 ist ein Hauptziel von „Industrie 4.0“. Zu solcher Produktion gehört auch, dass das gewünschte Einbauteil zum richtigen Zeitpunkt am gewünschten Ort ist, was eine funktionierende komplexe Logistik in der Produktion voraussetzt.

Der Bereich der Logistik umfasst aber nicht nur die Zulieferung zum Produktionsprozess, seine Organisation und die Berücksichtigung von Kundenwünschen. Dazu gehört auch die Belieferung des Endkunden und die schon erwähnte vorausschauende Wartung bis zur Endnutzung. Mit der zunehmenden Bestellung von Waren über Internethändler verschwindet nicht nur verstärkt der traditionelle Einzelhandel. Der Internethändler benötigt eine ausgeklügelte Lagerlogistik, um die gewünschten Waren zusammenzustellen. Der Transport erfolgt bisher hauptsächlich über die Straße, es ist aber zu erwarten, dass er in Zukunft auch über automatisierte Systeme erfolgt.

Fassen wir die Ziele und Bestandteile des Konzepts von „Industrie 4.0“ zusammen:

  • Hauptziel ist die individuelle automatisierte Produktion von smarten Gegenständen. Dazu werden die Geschäftsmodelle und die Logistik so umgestellt, dass die Betreuung des Kunden von der Bestellung bis zur Endnutzung des Gegenstands automatisiert über eingebettete Systeme und Funk- oder Internetkommunikation stattfinden kann. Mit dieser Strategie wollen die hochindustrialisierten Länder der Konkurrenz der aufstrebenden Industriestaaten begegnen, wobei China inzwischen ähnliche Konzepte vorantreibt.

Wie wir gesehen haben, sind die zentralen technologischen Bestandteile bei der Automatisierung des Fahrens und bei „Industrie 4.0“ im Wesentlichen gleich, ihre Vielfalt ist in der Produktion größer. Benötigt werden:

  • Schnelle Sensoren für alle prozessrelevanten Größen
  • Eingebettete Systeme, die Sensordaten in Echtzeit verarbeiten und automatisch Aktionen veranlassen
  • Nutzung von externen Daten, Wissen und Rechenleistung zur Steuerung von Prozessen über schnelle Funksysteme in Echtzeit
  • Lern- und Kommunikationsfähigkeit der Systeme
  • Standardisierung

Dabei sind Sensoren und eingebettete Systeme schon länger ein Bestandteil der Automatisierung. Relativ neu sind die Entwicklungen zur Vernetzung und Kommunikation von Dingen und Prozessen. Der Zwang zu einer weitergehenden Standardisierung ist Folge der Vernetzung von Produkten unterschiedlicher Hersteller. Angetrieben wird die Verbreitung der neuen Automatisierungstechniken durch die Hoffnung auf Extraprofite aufgrund einer schneller steigenden Produktivität der sie nutzenden Einzelkapitale sowie durch das Vorhandensein von Konkurrenz.

Zum Entwicklungsstand der deutschen Industrie ist anzumerken: Sie ist im Maschinen- und im Industrieroboterbau konkurrenzfähig, bei Servicerobotern eher nicht. Nur teilweise konkurrenzfähig ist die deutsche Industrie in Bereichen, die der Cyberkomponente von „Industrie 4.0“ zuzuordnen sind, wie der Informations- und Kommunikationstechnik und in einigen Bereichen der Softwareentwicklung. Auch bei der Entwicklung von Chips und Prozessoren sind seit langem die USA und die fernöstlichen Technologiestaaten führend.

Wie bei der Elektromobilität und dem autonomen Fahren strebt China auch bei „Industrie 4.0“ und der Künstlichen Intelligenz eine Technologieführerschaft an. Seit dem Jahr 2008 lenkt das chinesische Ministerium für Industrie und Informationstechnologie die Industrie in die von ihr gewünschte Richtung und hat große Fördermittel zur Verfügung. Der riesige Inlandsmarkt erlaubt es, ausländischen Herstellern die eigenen Standards vorzuschreiben und bietet außerdem eine Datenbasis für die Entwicklung für einige Verfahren der „Künstlichen Intelligenz“. Demgegenüber sind die entsprechenden Kompetenzen in Deutschland auf verschiedene Bundesministerien aufgeteilt, die von unterschiedlichen Parteien geführt werden. Es ist den letzten Bundesregierungen nicht einmal gelungen, die in den Koalitionsverträgen vereinbarten Ziele für eine bessere und schnellere Informations- und Kommunikationsstruktur zu erreichen. Mit der weiteren Durchsetzung von „Industrie 4.0“ ist zu erwarten, dass sich die Gewichte bei der Technologieführerschaft zwischen den Industriestaaten verändern.

Wie schon dargelegt, ist „Industrie 4.0“ die Fortsetzung der seit den 1960er Jahren stattfindenden Automation. Das Besondere der beschleunigten Entwicklung der letzten Jahre ist, dass automatische Systeme in immer größeren Bereichen anwendbar und preislich immer mehr der menschlichen Arbeitskraft überlegen sind und außerdem komplexere Aufgaben übernehmen können.

Fortsetzung:

-> Mögliche Auswirkungen der Automatisierung auf den Arbeitsmarkt