Johnny-Simulator/Aufbau eines Rechners
Historische Bemerkungen
Die Geschichte des Computers kann hier natürlich nicht einmal ansatzweise erzählt werden, daher nur ein paar Bemerkungen und Literaturverweise.
Rechenmaschinen, die dem Menschen das stumpfsinnige Rechnen erleichtern sollten, gibt es schon lange. Schon im 17. Jahrhundert wurden mechanische Rechenmaschinen konstruiert, die addieren und subtrahieren konnten und auch das Multiplizieren und Dividieren stark erleichterten [1]. Als einer der Urväter solcher Maschinen gilt Wilhelm Schickard (1592-1635), das linke Bild zeigt seine Rechenmaschine. Solche mechanischen Rechenmaschinen wurden bis in die 1970er Jahre gebaut (rechtes Bild).
Neben einfachen Rechenoperationen war es lange der Traum von Mathematikern und Ingenieuren, auch komplexe Rechenabläufe mit vielen Rechenschritten zu automatisieren. Einer der Pioniere dieser Entwicklung war Charles Babbage (1791-1871), der im 19. Jahrhundert verschiedene Maschinen konstruierte, die aber mit der damaligen Feinmechanik nicht zu realisieren waren; erst nach 1990 konnte man seine Maschine nachbauen.
Ebenfalls mechanische Probleme hatte der deutsche Ingenieur Konrad Zuse (1910-1985) mit seinem mechanischen Rechner Z1. Bei seinem berühmt gewordenen Rechner Z3 aus dem Jahr 1941, der als der erste funktionsfähige Digitalrechner gilt, wurden daher elektromechanische Relais verwendet, bei denen Magnetspulen Mehrfachschalter betätigen [2]. Damit lassen sich komplexe Strukturen allein durch Verkabelung realisieren. Ein Nachbau der Z3 steht im Deutschen Museum München, in [3] findet sich auch ein Link zu einer Simulation eines Teils der Maschine. Waren die Relais ein gewaltiger Fortschritt gegenüber der reinen Mechanik, so konnte man wegen der darin enthaltenen mechanischen Schalter doch keine schnell arbeitenden Computer aufbauen; der Rechner Z3 hatte eine Geschwindigkeit von 5,3 Hz, also 5,3 Takte pro Sekunde.
Eine sehr viel höhere Geschwindigkeit konnte man mit Elektronenröhren erreichen. Der ENIAC (Electronic Numerical Integrator and Computer) aus dem Jahr 1946 bestand (unter anderem) aus mehr als 17000 solcher Röhren und wog 27 Tonnen ENIAC. Im Vergleich zu den 5,3 Hz des elektro-mechanischen Zuse Z3 zeigen die 10 kHz (10000 Hz) des ENIAC den gewaltigen Fortschritt dieser elektronischen Technologie [1]. Die wesentliche informatische Struktur auch der heutigen Rechner, die in diesem Skript beschrieben wird, ist nach dem ungarisch-amerikanischen Mathematiker John von Neumann (1903-1957) benannt und stammt letztlich aus dieser Röhren-Zeit der Computer.
Das Problem der Elektronenröhren waren einerseits ihre Störanfälligkeit und andererseits ihr Platzbedarf und extremer Energieverbrauch (die Elektronen werden in den Röhren durch glühende Drähte freigesetzt). Außer für große Forschungseinrichtungen, Industrieunternehmen und das Militär waren solche Rechner praktisch unbezahlbar.
Die Erfindung des Transistors, eines elektronischen Bauteils auf Halbleiterbasis, ermöglichte in den Folgejahren, immer kleinere und leistungsfähigere Rechner zu bauen. Man spricht in diesem Zusammenhang auch von „Miniaturisierung“. Mit der damit einhergehenden Verbilligung von Rechenleistung wurden Computer immer mehr Anwendern zugänglich.
In den 1980er Jahren eroberten die Computer (Home Computer und Personal Computer genannt) die Privathaushalte. Heute haben in den Industrieländern die meisten Menschen Zugang zu Computern und nutzen dies geschäftlich und privat. Die Miniaturisierung hat in den letzten Jahren angehalten: Immer kleinere Geräte verfügen heute über erstaunliche Rechenleistung, so dass zum Teil Computer selbst dort Anwendung finden, wo wir sie gar nicht mehr bemerken. Mikrocontroller werden zur Steuerung von Abläufen in vielen elektrischen und elektronischen Geräten verwendet, vor allem auch in der Automobil-Branche, ohne dass wir diese Geräte als Computer überhaupt wahrnehmen.
Eine gute Darstellung der früheren Entwicklung bieten die Bücher [2] und [3].
Eine ganz ganz kurze Zusammenfassung der Computergeschichte
Vervollständigen Sie den folgenden Lückentext:Die ersten Rechenmaschinen arbeiteten mechanisch. Mit ihrer Hilfe konnte man gut Rechnungen in den Grundrechenarten ausführen. Der Versuch, kompliziertere Berechnungen mit solchen Maschinen durchzuführen, scheiterten an Problemen der Feinmechanik. Einen ersten großen Fortschritt brachten im 20. Jahrhundert elektromechanische Relais, die allerdings wegen der beweglichen mechanischen Teile keine große Geschwindigkeit erreichten. Einer der bekanntesten solchen Rechner ist der Z3 des Ingenieurs Konrad Zuse. Deutlich schneller arbeiten Rechner auf der Basis von Elektronenröhren. Einer der ersten Rechner mit dieser Technik war der ENIAC, der jedoch sehr groß und schwer war, dazu anfällig gegenüber Störungen und einen extrem hohen Energieverbrauch hatte. Eine Lösung dieser Probleme fand sich erst mit der Erfindung des Transistors. Durch Miniaturisierung der elektronischen Schaltungen wurden PCs, Smartphones und ähnliche Kleinstcomputer überhaupt erst möglich.
Aufbau eines heutigen Personalcomputers
Schraubt man einen heutigen PC auf, ergibt sich etwa das Bild links. Oben links befindet sich das Stromversorgungsgerät, auf der rechten Seite erkennt man die Schächte, in der etwa Festplatten und DVD-Laufwerke montiert werden können.
Den wichtigste und kompliziertesten Teil sieht man etwa in der Mitte links des Gehäuses: die Hauptplatine (Motherboard) mit dem Prozessor (CPU). Eine solche Platine ist nochmal im rechten Bild gezeigt.
In der technischen Beschreibung von Rechnern (und natürlich auch der Werbung) wird vor allem auf den Prozessor (CPU, Central Processing Unit) und auf den Arbeitsspeicher (RAM, Random Access Memory) hingewiesen. Alle anderen Bestandteile (Festplattenspeicher, Ein- und Ausgabemedien wie USB-Schnittstelle, Tastatur, Maus, Graphik- und Soundkarte usw.) wollen wir hier als Peripherie (also „Umgebung“) bezeichnen.
RAM und Peripherie sind über ein so genanntes Bus-System mit der CPU verbunden (Das Wort Bus leitet sich aus dem lateinischen „omnibus“ - „für alle“ ab. Wie beim Straßen-Omnibus wird auch beim Computer-Bus das Transportsystem von verschiedenen Daten als „Verkehrsteilnehmern“ verwendet, obwohl sie unter Umständen unterschiedliche Start- und Zielpunkte haben).
Der Prozessor selbst besteht vor allem aus zwei Einheiten: dem so genannten Rechenwerk (englisch: ALU, Arithmetic Logic Unit), das mathematische und logische Operationen ausführen kann und dem Steuerwerk (englisch: Control Unit), das letztlich alle Abläufe des Rechners steuert.
Englisches und deutsches Fachvokabular
Das Fachvokabular der Computertechnik stammt großteils aus dem Englischen, allerdings gibt es für viele Begriffe auch sinnvolle deutsche Übersetzungen. Unterhalten sich Computerfreaks, geht Englisch und Deutsch oft wild durcheinander, von den Abkürzungen ganz zu schweigen. Konstruieren Sie eine "Übersetzungstabelle". Manche Begriffe werden im Text erklärt; bei anderen muss man sich informieren (z.B. im Internet) oder eben auch mal "glücklich raten".
CPU | Prozessor |
RAM | Arbeitsspeicher |
Hard Disk | Festplatte |
I/O | Ein- und Ausgabe |
Interface | Schnittstelle zwischen verschiedenen Teilen eines Computersystems |
Control Unit | Steuerwerk |
ALU | Rechenwerk |
- ↑ Precht, M. u.a.: EDV-Grundwissen: Eine Einführung in Theorie und Praxis der modernen EDV. Addison-Wesley, 2004. ISBN 978-3827321299
- ↑ Wieland, H.R.: Computergeschichte(n) - nicht nur für Geeks. Galileo Computing, 2011. ISBN 978-3836215275
- ↑ Cerzuzzi, P.: The History of Modern Computing. MIT Press, 2003. ISBN 978-0262532037