+49 (0) 421 9600-10
31.7.2020 - Jann Raveling

Seit wann gibt es die Digitalisierung? Teil I

Digitalisierung / Industrie 4.0
Eine Reise in die Geschichte des Computers und der Digitalisierung
Einer der ersten Computer: Der ENIAC
Einer der ersten Computer: Der ENIAC © U.S. Army Photo

Wann begann die Digitalisierung? Eine Frage, die nicht so einfach zu klären ist. Der Begriff „Industrie 4.0“ – der in Deutschland oft synonym gebraucht wird – taucht erst ab 2011 auf. Auf der Suche nach dem Ursprung der Digitalisierung müssen wir aber viel früher starten. Der erste Teil unseres zweiteiligen Artikels „Die Geschichte der Digitalisierung“.

Historikerinnen und Historiker beginnen ihre Analysen gerne mit dem Auseinandernehmen und Erforschen von Begriffen. Bei dem Wort „digital“ ist der Wortstamm das Lateinische „digitus“, das „Finger, Zehe“ meint und im Weiteren auf das Abzählen von Zahlen unter 10 an den Fingern anspielt. Im Englischen steht das Wort „digit“ neben „Zahl“ auch für „Finger“. Die Hand hat zehn Finger – und Zehn als Zahl dargestellt besteht aus 1 und 0, zugleich auch die beiden Grundzustände eines Computers im Binärsystem, Strom aus und Strom an.

Die breite Verwendung des Begriffs „digital“ im heutigen Sinne ist bedeutend jünger. Sie kommt auf mit den ersten Computern, die digital rechneten, also mit dem Binärsystem 1 und 0. Diese entstanden in den späten 1930er/frühen 1940er Jahren. So entwickelte 1937 der deutsche Ingenieur Konrad Zuse den Z1. Dieser war selbst noch mechanisch gebaut und ähnelte mehr Rechenschiebern oder Rechenmaschinen, die es bereits seit Jahrhunderten gab. Das Besondere an ihm: Er konnte als erster mit den binären Zahlen rechnen und war gleichzeitig frei programmierbar.

Ein weiter Weg von den ersten Rechnern bis zum Supercomputer in der Tasche
Ein weiter Weg von den ersten Rechnern bis zum Supercomputer in der Tasche © WFB/Enderle

Kurze Zeit später entstanden Computer, die schon eher unseren heutigen PCs ähneln, wie der amerikanische ENIAC 1944 und der deutsche Zuse Z4 1945. Beide rechneten elektronisch, wenn auch mit Elektronenröhren und Relais, statt den heute verwendeten Transistoren. Eine Ähnlichkeit, die sich aber nur auf die inneren Werte bezog: Schließlich nahm ENIAC eine Halle von 10 mal 17 Metern ein! 1954 entstand der amerikanische TRADIC, der Transistoren statt Elektronenröhren zur Berechnung verwendete – und nur noch so groß wie drei Kühlschränke war. TRADIC steht für TRansistorized Airborne DIgital Computer – wo wir unseren Begriff „digital“ wiederfinden.

Null und Eins – das Geheimnis der Digitalisierung

Aber warum war es für die Geschichte des Computers so wichtig binär zu rechnen? Binäre Zahlen haben nur zwei eindeutige Zustände, entweder 0 und 1. Das macht die Unterscheidung auf Hardware-Ebene – also in einer Elektronenröhre, einem Transistor oder Rechenschieber – einfacher als eine Vielzahl von Zuständen. Die beiden Zustände 0 und 1 sie lassen sich elektrisch mit „Strom an“ und „Strom aus“ darstellen, statt mit verschiedenen Spannungszuständen (z. B. 1 Volt = Ziffer 1, 2 Volt = Ziffer 2), was komplexe Schaltungen erfordern würde. Das macht sie zugleich auch fehlersicherer bei Kopie und Speicherung. Außerdem kann jede Art von Informationsmuster einfach in Binärcode gespeichert werden, was sie universell einsetzbar macht. All das definierte der Mathematiker Claude Shannon bereits 1948 in dem Aufsatz “A Mathematical Theory of Communication“ (PDF).

Bipolar-Transistoren, die kleinsten Bau- und Rechenelemente eines modernen Computers, können genau zwei Dinge: Strom durchlassen oder nicht durchlassen – sie sind eben „an“ und „aus“, Zustände, die im Binärsystem „0“ und „1“ entsprechen. So lässt sich mit „Strom an“ und „Strom aus“ rechnen. Und weil man Transistoren sehr gut sehr klein bauen kann, eignen sie sich so gut, um aus ihnen leistungsfähige Computer herzustellen. Zum Größenvergleich: Die kleinsten Transistoren sind circa 20 bis 30 Nanometer groß – etwa 250-mal kleiner als ein rotes Blutkörperchen. Computerchips bringen heute Milliarden von Transistoren auf der Größe eines Fingernagels unter und können dank dieser Miniaturisierung so schnell rechnen.

Klein, kleiner, Transistor: Dank Nano-Bauweise so leistungsfähig
Klein, kleiner, Transistor: Dank Nano-Bauweise so leistungsfähig © WFB/Enderle

Somit begann in den 1950er Jahren der unaufhörliche Siegeszug des Digitalcomputers. Seit dieser Zeit verdoppelt sich die Geschwindigkeit eines Computers alle zwei Jahre – das berühmte Moore’s Law – und wir sehen in unserem Alltag immer mehr computerisierte Anwendungen. Spätestens mit dem Beginn des Internets nahm zudem der Datenaustausch und -Speicherung enorm zu.

Übrigens: Auch viele weitere Digitaltechnologien, die heute state-of-the-art sind, haben weit zurückreichende Ursprünge. Die künstliche Intelligenz, heute in aller Munde als das nächste große Ding, findet in den frühen 1960ern ihren Anfang. Auch aufgrund der Tatsache, dass Rechner damals noch nicht potent genug waren, wurde die KI jedoch lange Zeit stiefmütterlich von Wissenschaft und Wirtschaft behandelt.

Einen Moment bitte – das klingt alles gar nicht nach der Digitalisierung, die so in den Medien präsent ist!

Das ist richtig. Was wir heute unter Digitalisierung verstehen – Smartphones, Cloud, KI und co – hat wenig mit Konrad Zuse und kühlschrankgroßen Computern gemein. Dies sind aber ohne Frage die Ursprünge der Digitalisierung. Und sie sind ein wichtiger Baustein auf dem Weg zur Beantwortung unserer Ausgangsfrage: Wann begann die Digitalisierung?

Dazu sollten wir zunächst einmal klären, was mit dem Begriff Digitalisierung denn überhaupt gemeint ist. Nur damit wir eine gemeinsame Sprache sprechen. Wir verstehen heute darunter einen gesellschaftlichen Prozess, der den massiven Einsatz von Digitaltechnologien in unserem Alltag beschreibt und der zu einem Wandel der Funktionsweise von Gesellschaft, Arbeit und Wirtschaft beiträgt. All das war in den 50ern noch nicht der Fall, wo die „elektronische Revolution“ eher in den E-Gitarren des Rock’n’Roll erklang.

Rock'n'Rechner: Von der E-Gitarre zur Industrie 4.0
Rock'n'Rechner: Von der E-Gitarre zur Industrie 4.0 © WFB/Enderle

Um der Digitalisierung richtig zu verstehen und ihr letztendlich auf die Schliche zu kommen, müssen wir uns noch einen zweiten Prozess ansehen, der untrennbar mit der Digitalisierung verbunden ist und den wir eigentlich meinen, wenn wir davon sprechen: die digitalisierte Automatisierung.

Warum die Geschichte der Automatisierung für unsere Fragestellung so wichtig ist und was es mit den vier industriellen Revolutionen auf sich hat – dazu mehr in unserem Folgeartikel „Die Geschichte der Digitalisierung – Teil II“.



Welche Services die WFB Wirtschaftsförderung Bremen GmbH bei der Digitalisierung Ihres Unternehmens bietet, finden Sie auf der Übersichtsseite Digitalisierung.

Digitalisierung / Industrie 4.0
10.08.2020
Ein Shootingstar im Holzgeschäft

Da kommt einer, der alles anders macht: Innerhalb weniger Jahre baut der Bremer Michel Kahrs einen rasant wachsenden Onlinehandel auf und krempelt damit eine ganze Branche um. Von einem, der nur Holz im Kopf hat. Und auf Unterstützung durch die WFB und BAB setzt.

zum Holzprofi
Digitalisierung / Industrie 4.0
07.08.2020
Die Geschichte der Digitalisierung – Teil II

Seit wann gibt es die Digitalisierung? Wir werfen einen Blick in die Geschichte des Computers und der Automatisierung, um eine Antwort zu finden. Im zweiten Teil der Reihe geht es um die Herkunft des Begriffes Industrie 4.0 und seine Bedeutung für unsere Frage.

Mehr erfahren
Digitalisierung / Industrie 4.0
06.08.2020
11 Förderprogramme für die Digitalisierung

Die Idee ist da, aber die Finanzierung noch nicht? Dann aufgepasst! 11 Programme, die helfen, Digitalprojekte zu verwirklichen und Unternehmen so fit für die Digitalisierung zu machen.

zum Kompetenzzentrum Mittelstand