START | ALLGEMEINE INFOS | AKTUELLES | TERMINE | PROJEKTE | DOWNLOADS | BUCHTIPPS | KONTAKT | LINKS | ZURÜCK


Aus der Entwicklungsgeschichte der Elektronischen Datenverarbeitung


Wir wissen nicht, wann der Mensch begann, mit Zahlen und Zahlensystemen umzugehen. Über Jahrtausende hinweg begnügte er sich mit seinen naturgegebenen Rechen- und Zählhilfsmitteln - den Fingern. Und auch heute noch findet man zahlreiche Naturvölker, die nur mit den Fingern zählen. Doch das Hauptproblem, das alle früheren Kulturvölker hatten, war die Darstellung von großen Zahlen und das Rechnen damit.

Erst um 1500 n. Chr. wurde das in Indien entstandene und von den Arabern nach Europa gebrachte Ziffernsystem mit dezimalem Stellenwert bei uns gebräuchlich. Von hier aus hatte es sich über die ganze Welt verbreitet und war die Grundvoraussetzung für die heutige Rechentechnik.

Schon immer war der Mensch bestrebt, sich durch technische Hilfsmittel das Leben auch beim Zählen und Rechnen zu erleichtern. Das älteste bekannte Rechengerät war der Abakus (ca. 1100 v. Chr. in China). Sein System beruhte auf der unterschiedlichen Anordnung von beweglichen Kugeln auf mehreren Stabreihen, die in einem Rahmen saßen. Der Abakus ähnelte der „Rechenmaschine" unserer ABC-Schützen und war in fast allen Kulturkreisen bekannt.

1623 entwickelte der Tübinger Professor für Mathematik und Astronomie Wilhelm Schickard an der dortigen Universität eine Rechenmaschine mit Zahnradgetriebe, die Additionen und Subtraktionen durchführen konnte.

1642 stellte der französische Mathematiker Blaise Pascal eine Rechenmaschine vor, die dem Arbeitsprinzip des Schickardschen Rechners verwandt war.

1672 konstruierte Gottfried Wilhelm Freiherr von Leibniz eine Rechenmaschine, deren bedeutendster Bauteil eine von ihm erfundene Staffelwalze war. Er entwickelte auch das Dualsystem (binäre System), das für den Einsatz auf Reichenmaschine geeigneter ist als das Dezimalsystem.

1774 stellte der schwäbische Pfarrer Matthäus Hahn die erste Rechenmaschine serienmäßig vor.

1801 setzte der französische Textilingenieur Joseph-Marie Jacquard erstmalig Lochkarten zur automatischen Steuerung von Webstühlen ein. Dieses Ereignis gilt als Geburtsstunde der heute in der Technik ganz alltäglichen Automation.

1833 baute der englische Mathematiker Charles Babbage die erste Differenzenmaschine, die Logarithmen oder dritte Potenzen erstellen konnte und schon damals die Grundfunktionen „Eingabe, Verarbeitung der Daten und Ausgabe“ (EVA-Prinzip) unserer heutigen modernen Computer enthielt.

1866 übertrug der Deutschamerikaner Hermann Hollerith das Lochkartenprinzip auf einen ganz anderen Bereich. Er konstruierte 1886 eine Lochkartenapparatur zur Aufbereitung statistischen Materials, die 1890 bei der 11. amerikanischen Volkszählung mit großem Erfolg eingesetzt wurde. Damit hielt die Automation Einzug in die Büros und das Zeitalter der automatischen Datenverarbeitung (ADV) begann. Was zehn Jahre zuvor noch 500 Helfer beinahe sieben Jahre beschäftigte, schaffte Hollerith mit 43 Zählmaschinen und ebensoviel Bedienungspersonal in knapp vier Wochen.

1941 gab es die erste funktionsfähige Datenverarbeitungsanlage mit Programmsteuerung. Das von dem Deutschen Konrad Zuse 1934 entworfene Konzept führte zum Bau der Z 3, nach dem er schon vorher Z 1 und Z 2 gebaut hatte. Neben den vier Grundrechenarten konnte die Z 3 noch einige andere Rechenoperationen durchführen, z. B. Wurzelziehen. Fest eingebaute Arbeitsabläufe waren durch Tastendruck abrufbar. 15 bis 20 arithmetische Operationen konnte in einer Sekunde durchgeführt werden, eine Multiplikation dauerte vier bis fünf Sekunden.

1944 konnte Professor Howard H. Aiken von der Harvard-Universität die erste von ihm in Zusammenarbeit mit der  IBM entwickelte MARK I in Betrieb nehmen. Hierbei handelte es sich um die erste elektronische Rechenanlage.

Im Gegensatz zur Z 3 von Zuse war MARK I ein Riese. Sein Frontfläche war 15 m lang und fast zweieinhalb Meter hoch. Elektromechanische Schaltelemente übernahmen das Zählen. Für eine Addition brauchte MARK I nur noch 0,3 Sekunden, die Multiplikation zweier zehnstelliger Zahlen dauerte ca. 6 Sekunden und eine Division etwa 11 Sekunden.

Somit wurde aus der automatischen die elektronische Datenverarbeitung, die im Zuge der von der Raketen- und Raumfahrttechnik entwickelten elektronischen Bauelemente einen nie geahnten Aufschwung nahmen, so dass wir heute nur von der EDV sprechen, obwohl die Elektronik eigentlich nur die Bauelemente, aber nicht die eigentliche Aufgabe betrifft.

1946 wurde an der Pennsylvania-Universität von John Presper Eckert und John William Mauchly der erste Rechner mit Elektronenröhren (1. Computergeneration) hergestellt. Der ENIAC benötigte über 140 m² Grundfläche, dafür rechnete er jedoch 2.000-mal schneller als MARK I. Hier tauchte auch zum ersten Mal der Begriff  „Computer“ auf (engl.: to compute = rechnen).

1955 war es der Transistor, der den zweiten großen Abschnitt in der Computergeschichte einleitete. Seine Vorteile: geringeres Gewicht und Abmessungen, kaum störanfällig und fast unbegrenzte Lebensdauer. Alles Eigenschaften, die die Elektronenröhre nicht hatte. Das machte ihn zum bevorzugten Steuer- und Schaltelement für die Elektronik. Nun wurden umfangreiche Rechenaufgaben, die früher wegen ihres Kosten- und Zeitaufwandes nicht in Angriff genommen werden konnte, möglich.

1962 gilt als Beginn der dritten Computergeneration.

Mit der Züchtung von besonderen Kristallen, den so genannten Monolithen, begann eine völlig neue Generation von EDV-Anlagen, da eine zuvor kaum für denkbar gehaltene Verminderung des Raumbedarfs möglich wurde.

Eine Schaltgruppe (Modul) vereinigte mehrere Transistoren und Widerstände in Salzkorngröße auf einer Keramikplatte. Konnte man mit den Rechnern der zweiten Generation 1.300 Additionen pro Sekunde durchführen, ermöglichte die neue Technologie 160.000 Additionen in der gleichen Zeit.

1958 erfand Jack S. Kilby den integrierten Schaltkreis. Dabei wurden die Funktionen von Transistoren, Widerständen und Dioden in Siliziumkristalle integriert. Für Speicherzwecke wurde ein Chip von 9 mm² entwickelt, der 64 Schaltkreise enthielt und damit 64 bit speichern konnte. Die Schaltgeschwindigkeit lag bei 54 Nanosekunden, dem 54-milliardstel Teil einer Sekunde.

Das „Gehirn“ der guten alten Z 3, das noch einige Kubikmeter Raum beanspruchte, lässt sich dadurch in einer Streichholzschachtel unterbringen. Die Größe eines Rechners wird heute im wesentlichen von der notwendigen Mechanik bestimmt. Hätten wir kleinere Hände zur Bedienung der Tasten und bessere Augen zum Ablesen der Skalen, so könnten die Taschenrechner spielend auf Millimetergröße schrumpfen.

1968 entwickelte Gary Boone den ersten Mikroprozessor, der auf einem kleinen Siliziumplättchen alle Elemente der Zentraleinheit eines Computers hat.

1973 wurde von der US-amerikanischen Firma Intel der erste und damit richtungweisende 8-bit-Mikroprozessor 8080 auf den Markt gebracht. Damit begann die 4. Computergeneration.

1985 entstand der erste 32-bit-Prozessor in Großrechenanlagen der 5. Computergeneration.

Ein Ende der stürmischen Entwicklung in der Mikroelektronik ist nicht abzusehen. Der Computer dringt in Bereiche vor, die bislang dem denkenden und fühlenden Menschen vorbehalten waren.


Bürowirtschaft | Fonotypie | Kurzschrift | Textformulierung | Textverarbeitung