LOG IN Leitseite

Nach oben ] Editorial ] Thema ] [ Grundbildung ] SaN ] C & A ] Forum ] [2000]

 


[LOG IN]


LOG IN: 18 (1998) Heft 5: Grundbildung

Besuch in einem Technikmuseum

Eine Unterrichtsreihe zur Vorbereitung, Durchführung und Auswertung eines Besuchs in einem Technikmuseum

(Teil 1)

von Ingo-Rüdiger Peters (Koordination1)

Die Geschichte der Datenverarbeitung stellt keine gradlinige Entwicklung dar, sondern besteht aus vielfältigen Ereignissen, Versuchen, Irrwegen, Interessen und Konflikten. Entsprechend zahlreich sind die Möglichkeiten, die Geschichte unter verschiedenen Gesichtspunkten zu betrachten. Diese Vielfalt eröffnet im Unterricht einen weit gespannten Spielraum im Setzen von Schwerpunkten und beim Berücksichtigen der individuellen Lernsituation. Andererseits stellt diese Vielfalt auch besondere Ansprüche an die jeweilige Lehrkraft: Sie muß sich in historische Fakten einarbeiten, Material beschaffen, Strukturen herausarbeiten und didaktisch aufbereiten. Der Besuch eines Technikmuseums – insbesondere eines Computermuseums – ist dabei eine große Hilfe. Denn er bietet "begreifbare" Geschichte und eine Fülle von Anknüpfungspunkten im nachbereitenden Unterricht.

Am Beispiel eines Besuchs im Deutschen Technikmuseum Berlin wird im folgenden eine der Möglichkeiten der unterrichtlichen Behandlung im Rahmen der informationstechnischen Grundbildung aufgezeigt. Im ersten Teil werden die Ziele der Unterrichtseinheit erörtert und Sachinformationen gegeben. Im zweiten Teil (siehe nächstes Heft) wird die konkrete Unterrichtsplanung mit den einzelnen Lernabschnitten vorgestellt.

Geschichte zum Verständnis der Gegenwart

Entsprechend den meisten Rahmenplananforderungen soll die ITG den Schülerinnen und Schülern Grundkenntnisse über den Einsatz von Computern vermitteln und den Umgang mit dem PC ermöglichen.

Der Computer ist heute zu einem Werkzeug geworden, ohne das viele Bereiche unseres täglichen Lebens nicht mehr denkbar sind. Am Arbeitsplatz steht der Computer als Text-, Buchungs-, Informations- und Kommunikationssystem. Informationen werden in Sekundenschnelle in alle Welt übermittelt und weiterbearbeitet. Die Schüler bemerken tagtäglich, in welch rasantem Tempo hier Entwicklungen vor sich gehen, die meisten wissen jedoch sehr wenig über die Geschichte der Computertechnologie. Zu einer intensiven Beschäftigung mit dem Computer gehört unseres Erachtens auch die Aneignung von Wissen zu vorausgegangenen Erfindungen und Entwicklungen, die Grundlage für das heutige Niveau waren. Wenn man heute die Schreibmaschine oder ein modernes Textbearbeitungsgerät benutzt, wenn man größere oder kleinere Beträge für die verschiedenen Rechenvorgänge in Computer per Knopfdruck eingibt, wenn man in Sekundenschnelle Fotokopien zieht, so bedenkt man nur selten den immensen Zeitaufwand und die technischen Schwierigkeiten, mit denen diese Arbeiten noch vor wenigen Jahren bzw. Jahrzehnten verbunden waren. Technik- oder gar Computermuseen bieten dabei bestmögliche Voraussetzungen für eine praxisnahe Beschäftigung mit der Geschichte der Informationstechnik.

Des weiteren geht es im ITG-Unterricht um die Ausbildung von Fertigkeiten im Umgang mit dem PC. Dies wird durch die Anforderung, die Ergebnisse des Museumsbesuchs zu dokumentieren, einen hohen Stellenwert im Rahmen eines solchen Museumsbesuchs als Unterrichtsprojekt erhalten.

Der Weg durch die Geschichte bedeutet nicht eine zusätzliche Erschwernis des Lehr- und Lernstoffes. Das Verständnis für die moderne Naturwissenschaft und Technik wird erleichtert. Die Beschäftigung mit der Technikgeschichte kann einen erheblichen Beitrag dazu leisten, die gegenwärtige Diskussion durch Information zu versachlichen.

Das oft vernachlässigte Interesse an dem bloßen Funktionieren bestimmter technischer Einrichtungen ist nicht nur legitim, sondern geradezu Voraussetzung für weitergehende historische Einordnungen. Die Menschen sind nicht dieser Technik ausgeliefert, sondern sie haben sie mit ihrem Denken und ihren wirtschaftlichen Bedürfnissen zu allen Zeiten bewußt oder unbewußt gestaltet. Um zu zeigen, daß zwischen der Technik einer Epoche und anderen Aspekten der jeweiligen Zeit enge wechselseitige Zusammenhänge bestehen, ist ein Besuch eines Museums durchaus zu empfehlen. Somit wird das Phänomen "Technik" historisch eingeordnet, ist ein wenig besser zu verstehen und seine isolierte Betrachtung wird aufgehoben.

Die Beschäftigung mit den o.a. Lerninhalten verhilft den Schülerinnen und Schülern zu den in den meisten Rahmenplänen geforderten Grundkenntnissen, die nicht nur den Anwendungsbereich, sondern ebenso den gesellschaftlichen Bereich umfassen sollen.

Ziele derUnterrichtseinheit

Die Ziele der vorliegenden Unterrichtseinheit sind folgende:

Die Schüler lernen den Computer in Anwendungssituationen (hier bei der Gestaltung einer Wandzeitung) kennen.
Die Schüler lernen anhand der Exponate im Museum die Bedeutung des Computers für unsere Welt (hier in der historischen Dimension) kennen.

Im Berliner Rahmenplan für die ITG sind beispielsweise folgende Ziele als verbindlich ausgewiesen, die ebenfalls erreicht werden sollen:

1."[…] typische Anwendungen der Informationstechnik und ihre Einsatzfelder kennen."Dies wird in diesem Projekt anhand der Exponate neben den zugehörigen Erklärungen vermittelt. Die Schüler sollen die neuen Informationen sammeln und zu einer Wandzeitung zusammenstellen.
2."[…] Einsatz der Informationstechniken exemplarisch in Anwendungsbeispielen benutzen können."Dies wird durch die Umsetzung der handschriftlich gesammelten Informationen in ausstellungsgeeignete gedruckte Texte – eventuell mit eingefügten Bildern – erreicht.
3."[…] den Einsatz der Informationstechniken an den behandelten Beispielen beschreiben können."In diesem Projekt geschieht das durch die berichtartige Erstellung einer Wandzeitung, deren Beiträge sich die Schüler gegenseitig vorstellen werden.
4."[…] die Bedeutung einschließlich der Chancen und Grenzen der Informationstechniken […] einschätzen und beurteilen können."In der Entwicklung neuer Informationstechniken liegt zugleich die Überwindung alter Grenzen der Informationstechnik. So wird den Schülern deutlich werden, daß neue Technologien (neue Informationstechnologien) jeweils die Überwindung alter Grenzen bedeuten, ohne daß im Einzelfall die Bedeutung der Innovation für die Zukunft bei deren Erfindung deutlich wird bzw. werden kann. Außerdem gibt es Zeiten, die gleichsam nach Neuerungen rufen: z.B. Erfindung des Radars im 2. Weltkrieg, wobei hier eine gesellschaftliche bzw. politische Anforderung zur Problemlösung besteht.

Darüber hinaus werden in diesem Unterrichtsprojekt weitere spezielle Ziele verfolgt:

Die Schüler sollen die historische Entwicklung der Computertechnik bzw. auch von deren Vorgängern im Rahmen eines Museumsbesuchs und dessen Auswertung kennenlernen.
Die Schüler wenden ihre im vorangegangenen Unterricht gewonnenen Kenntnisse und Fähigkeiten an, um eine Wandzeitung zu erstellen.
Die Schüler lernen im Rahmen der selbständigen Anfertigung ihrer Wandzeitungsbeiträge künstlerische und grafische Gestaltungselemente bzw. -möglichkeiten unter Verwendung des Rechners kennen und anzuwenden.
Durch die selbständige Vorbereitung der Wandzeitung müssen die Schüler eine selbständige analytische Auswertung der im Museum zuvor betrachteten Exponate durchführen.
Die Beschäftigung mit den Exponaten soll die Schüler an eine kritische Auseinandersetzung mit der Computertechnik heranführen.
Die Schüler lernen eigene und fremde Arbeiten in geeigneter Weise kritisch zu würdigen, d.h. sie werden zu einer kritischen Würdigung ihrer Arbeitsergebnisse rückschauend bei der Betrachtung der Wandzeitung befähigt.

Wie sich allesentwickelte …

Historischer Überblick

Bereits vor über 5000 Jahren benutzen die Babylonier ein Rechenbrett. Auf diesem befanden sich Linien, die verschiedene Größenordnungen repräsentierten und auf denen man mit Rechensteinen rechnete. Das Rechenbrett wurde in Europa hauptsächlich vom 10. bis 14. Jahrhundert verwendet.

Mit Adam Riese (1492 bis 1559) setzte sich in Mitteleuropa das Rechnen mit arabischen Ziffern durch, anstatt auf dem Rechenbrett die Rechensteine hin- und herzuschieben.

Im 17. Jahrhundert entwarf der Franzose Blaise Pascal eine Rechenmaschine, die mit Hilfe kleiner Rädchen einfache Addier- und Subtrahieraufgaben lösen konnte. 1650 gab es das erste funktionstüchtige Modell dieser Rechenmaschine, die kommerziell allerdings ein Flop wurde.

Ebenfalls im 17. Jahrhundert arbeitete der Deutsche Gottfried Wilhelm Leibniz an der Idee einer Rechenmaschine. Er glaubte, es sei "absolut unwürdig für Große Geister, die Zeit wie ein Sklave mit langweiliger Rechenarbeit verbringen zu müssen". Seine funktionstüchtige Maschine beherrschte bereits die vier Grundrechenarten, setzte sich kommerziell aber ebenfalls nicht durch. Weit wichtiger für die Entwicklung der heutigen Computer war allerdings die von Leibniz entwickelte "eindeutige Sprache", die nur wahre oder falsche Aussagen zuließ. Er beschrieb in einer Arbeit vom 15. März 1679 ein neues Zahlensystem, das nur auf zwei Ziffern (0 und 1) aufgebaut sein sollte. Daraus entstand später das duale Zahlensystem.

1784 baute der Deutsche Johann Müller eine funktionstüchtige Differenzmaschine mit Druckwerk, die mit 14stelligen Zahlen rechnen konnte.

Im 19. Jahrhundert entwarf der Engländer Charles Babbage, angeregt durch die vielen Fehler in den damaligen astronomischen Tafeln, die Differenzmaschine Nr. 1, die sogar Logarithmen berechnen konnte. Er begann 1833 mit dem Bau dieser Rechenmaschine. Seine Maschine sollte jedoch nicht im Dual-, sondern im Zehnersystem arbeiten. Der Nachbau dieser Maschine wurde 1991 fertiggestellt und kann fehlerfrei mit 21stelligen Zahlen rechnen. Die Pläne für die Differenzmaschine Nr. 2 enthielten getrennte Baugruppen für Speicher und Rechenwerk. Sie sahen sogar ein Druckwerk vor, über das die Ergebnisse ausgegeben werden konnten. Gesteuert werden sollte sie mit Lochkarten, wie sie der Franzose Joseph-Marie Jacquard für seine Webstühle ersonnen und im Jahre 1805 vorgestellt hatte.

Von 1848 bis 1850 entwickelte George Boole, der sich in seinem Beruf als Lehrer unterfordert fühlte, die "logischen Verknüpfungen" ("Boolesche Algebra"), die Grundlage der heutigen Computertechnik sind. Die von ihm eingeführten logischen Operatoren für Konjunktion (UND), Disjunktion (ODER) und Negation (NICHT) verknüpfen Aussagen miteinander und entwickeln dadurch neue Aussagen.

Der Deutschamerikaner Hermann Hollerith entwarf 1884 für die amerikanische Volkszählung eine elektro-mechanische Rechenmaschine, die Lochkarten lesen konnte. Während 1880 ein Heer von 500 Sachbearbeitern sieben Jahre für die Auswertung benötigte, lagen 1890 die Ergebnisse bereits vier Wochen später vor.

In Berlin begann im Jahr 1936 der Deutsche Konrad Zuse mit dem Bau eines im dualen Zahlensystem arbeitenden Rechengerätes, der "Zuse 1" (Z1). Diesem Gerät sollten die Ausgangswerte in dezimaler Form eingegeben werden können. Anschließend sollte es die Zahlen automatisch in Dezimalzahlen umwandeln, die Rechnungen im Dualsystem ausführen und das Ergebnis schließlich wieder in dezimaler Form ausgeben. Die Z1 war ein mechanischer Rechner und besaß Rechenwerk, Steuerwerk und Speicher, die voneinander getrennt waren. Zuse hatte mit diesem Konzept große Weitsicht bewiesen, insbesondere die Trennung von Rechenwerk und Speicher ist in heutigen Computer-Architekturen selbstverständlich. Der Speicher bestand aus 16 Speicherzellen mit je 24 Bit. Der Rechner konnte mit Gleitkommazahlen rechnen. Zuse entwickelte hierfür die "Schaltalgebra", die auf der Booleschen Algebra beruht. 1938 beendete Zuse seine Arbeit an der Z1.

Ebenfalls 1936 beendete der britische Mathematiker Alan M. Turing den ersten Entwurf eines bahnbrechenden Aufsatzes. Darin machte er den intuitiven Begriff der Berechenbarkeit von Zahlen mit Hilfe einer fiktiven Maschine handhabbar: Nur was mit ihrer Hilfe berechnet werden kann, gilt als überhaupt berechenbar. Eine solche Turing-Maschine besteht aus einem unendlichen Speicher und einem kleinen Prozessor, der lediglich einfachste Umwandlungen von Nullen und Einsen vollführen kann. Turing gelang es zu zeigen, daß eine so primitive Maschine gleichwohl als Universalrechner arbeiten kann. Der Speicher sollte dafür zwei Arten von Angaben enthalten: die Daten des zu lösenden Problems und das, was man inzwischen das Programm nennen würde.

Bis 1941 entwickelte Zuse zunächst die Z2, in der das Rechenwerk durch elektromechanische Relaisschaltungen realisiert war, während der Speicher noch immer aus mechanischen Schaltgliedern bestand. Sie diente vornehmlich zur Erprobung der Relaistechnik.

Aufgrund der guten Erfahrungen mit der Z2 begann Zuse 1939 mit der Entwicklung der Z3. Diese entsprach in ihrer Grundstruktur der Z1, jedoch war sie vollständig in elektromechanischer Relaistechnik gefertigt. Der Speicher bestand aus 64 Speicherzellen mit je 24 Bit. Er bestand aus 1800 Relais, während die Recheneinheit aus 600 Relais bestand und zwei Speicherzellen, die Register, besaß. Die Steuerung erfolgte über einen Lochstreifen aus 35-mm-Kinofilm. Dem Programmierer standen neun Befehle zur Verfügung: zwei für Ein- und Ausgabe, zwei für das Laden und Lesen des Speichers und fünf für die arithmetischen Operationen (1, 2, 3, 4 sowie Quadratwurzel).

Die Entwicklung ging bis zur Z4, die Ende 1944 fertiggestellt wurde, und mit Relais arbeitete. Zuse entwickelte 1946 seinen "Plankalkül" – die erste Programmiersprache.

Den ersten vollständigen Computer, den "SSEC", präsentierte IBM 1948. Er besaß neben 13500 Elektronenröhren noch 21400 Relais. Instruktionen und Daten konnten im voraus in Papierstreifen gestanzt werden.

Am 30. Juni 1948 wurde in den Bell Telephone Laboratories der erste Transistor entwickelt.

1958 lötete Jack St. Clair Kilby bei Texas Instruments den ersten Chip zusammen. Etwa zeitgleich wurde von Robert Noyce ebenfalls ein Chip entwickelt. Noyce brachte nicht nur verschiedene Bauteile unter, er schaffte es auch, sie durch in den Chip eingebaute Leitungen untereinander zu verbinden. Später wurde Noyce einer der Mitbegründer von Intel.

1976 bauten die Amerikaner Steven Jobs und Stephen Wozniak in der Garage ihrer Eltern aus handelsüblichen Bauteilen den ersten Apple, ein komplettes Computersystem für den Schreibtisch. Der "Homecomputer" war geboren.

1981 präsentierte IBM den ersten "Personal Computer" (PC) auf der Basis des Intel Prozessors 8086.

Zahlensysteme

Man unterscheidet, je nach Art der Zusammenfassung der Zeichen, Additions- und Positionssysteme:

Additionssysteme

Das bekannteste Beispiel für ein Additionssystem ist die römische Zahlenschreibweise. Von den Grundzeichen werden je zehn zur nächsthöheren Gruppe zusammengefaßt; dazwischen gibt es noch keine Hilfszeichen.

Das Wesen dieses Additionssystems besteht darin, daß alle Zahlzeichen durch Aneinanderfügen von möglichst wenigen dieser sieben Zeichen gebildet werden. Dabei gilt noch die Regel, daß stets das Zeichen für die größere Zahl links von dem für die kleinere steht. Diese Regel erfährt eine Ausnahme durch das Bestreben, möglichst wenig Ziffern zu verwenden. Neun kann dargestellt werden als VIIII (5+4) oder IX (10–1); die kürzere Schreibweise wird bevorzugt. Steht das Zeichen einer kleineren Zahl links, so ist die entsprechende Zahl zu subtrahieren statt zu addieren. Es ist aber nicht gestattet, mehrere Grundzeichen oder ein Hilfszeichen voranzustellen.

Die Zahlzeichen sind im allgemeinen sehr lang und daher unübersichtlich; schriftliche Rechnungen sind im Additionssystem äußerst umständlich.

Positionssysteme

Die gebräuchlichsten Positions- oder Stellenwertsysteme sind das dekadische Positionssystem (Dezimalsystem) und das dyadische Positionssystem (Binär- oder Dualsystem). Aber nicht nur 2 und 10 sind als Grundzahlen eines Positionssystems geeignet. Jede natürliche Zahl b>1 kann als Basis dienen.

Die Stellenwerte im Dezimalsystem sind die Potenzen der Basis 10, also 0, 1, 10, 100, 1000, …; aber auch 0,1, 0,01, 0,001 usw. Es besitzt die zehn Ziffern 0, 1, 2, 3, 4, 5, 6, 7, 8 und 9.

75 = 7·10 + 5·1
= 7·101 + 5·100
1997 = 1·1000 + 9·100 + 9·10 + 7·1
= 1·103 + 9·102 + 9·101 + 7·100
12,8 = 1·10 + 2·1 + 8·0,1
= 1·101 + 2·100 + 8·10-1

Das Dezimalsystem ist wegen seiner Übersichtlichkeit und guten Handhabbarkeit bei schriftlichen Rechnungen fast ausnahmslos in der ganzen Welt gebräuchlich.

Die Stellenwerte im Dualsystem sind die Potenzen der Basis 2, also 0, 1, 2, 4, 8, 16, 32, 64, 128 usw. Diese Stellenwerte liegen wesentlich dichter zusammen als die des Dezimalsystems; die Zahlzeichen werden deshalb verhältnismäßig lang. Dafür werden aber nur zwei Ziffern benötigt: 0 und 1 (auch O und L).

7 = 1·4 + 1·2 + 1·1
= 1·22 + 1·21 + 1·20
= LLL
9 = 1·8 + 0·4 + 0·2 + 1·1
= 1·23 + 0·22 + 0·21 + 1·20
= LOOL
22 = 1·16 + 0·8 + 1·4 + 1·2 + 0·1
= 1·24 + 0·23 + 1·22 + 1·21 + 0·20
= LOLLO

Das Dualsystem ist Grundlage der heutigen Computer, da sich die Ziffern in idealer Weise über die elektrischen Zustände "Spannung liegt an" (1 oder auch "high") und "Spannung liegt nicht an" (0 oder auch "low") darstellen lassen. Mit Hilfe elektrischer Schaltungen auf der Basis von Relais, Elektronenröhren oder Transistoren können logische Verknüpfungen (UND, ODER und NICHT) realisiert und somit Berechnungen ausgeführt werden.

Mit Hilfe negativer Exponenten ist im Dualsystem auch die Darstellung von Dezimalzahlen möglich. So ist z.B. die Binärzahl 10,11 (LO,LL) zu verstehen als 1?21 + 0?20 + 1?2-1 + 1?2-2, die der Dezimalzahl 2 + 0 + 0,5 + 0,25 = 2,75 entspricht.

Der ASCII

Der Begriff ASCII ist eine Abkürzung für "American Standard Code for Information Interchange". Computer verarbeiten elektrische Signale, wobei die Zustände "Spannung liegt an" bzw. "Spannung liegt nicht an" unterschieden werden. Datenverarbeitungsanlagen beruhen heute auf dem dualen System, d.h. diesen beiden Zuständen ordnet man die Zahlenwerte "1" und "0" zu. Daten werden durch Codierung mehrerer solcher Zahlenwerte (Bits) dargestellt. Damit sich Daten zwischen verschiedenen Anwendungen und Anwendern austauschen lassen, benutzt man zu ihrer Verschlüsselung vereinbarte Standards, die von allen verstanden werden können. In der Computerwelt ist der ASCII ein allgemein gebräuchliches Verschlüsselungsverfahren. Historisch bedingt unterscheidet man ASCII (sieben Bit) und erweiterten ASCII (acht Bit), wobei Bit als Kurzwort für "binary digit" steht. Mit sieben Bit lassen sich 27=128, mit acht Bit 28=256 Zeichen codieren. Dabei werden den Zeichen (Steuerzeichen und druckbare Zeichen) eindeutig Zahlen zugeordnet (vgl. auch Andreas Schwill in LOG IN 5/6’94, S.100-104, und Helmut Witten in LOG IN 3’95, S.50-53).

Der Nachteil des ASCII besteht darin, daß man wegen der Codierung von lediglich 128 Zeichen nur über einen eingeschränkten Zeichenvorrat verfügt; so ist es z.B. nicht möglich, auf nationale Sonderzeichen Rücksicht zu nehmen. Diesen Nachteil hat man mit dem erweiterten ASCII überwunden. Mit ihm lassen sich 256 Zeichen codieren, so daß es nun möglich ist, nationale Schriftzeichen zu berücksichtigen.

Die fünf Computergenerationen und die Entwicklung der Rechenleistung

Die Entwicklung des Computers hängt in starkem Maße mit der Schalttechnik und den dazu verwendeten Bauelementen zusammen.

Die Computerder ersten Generation

Alle Rechner, deren interne Schaltungen aus mechanischen oder elektromechanischen (Relais) Elementen sowie aus Elektronenröhren bestehen, werden zur ersten Computergeneration gezählt, so auch Zuses Rechner Z1, Z2, Z3, Z5, Z11 und Z22. Die Rechengeschwindigkeiten dieser Rechner waren im Vergleich zu heute noch äußerst gering. So bewältigte z.B. Zuses Z3 sechs Additionen in der Sekunde, doppelt so viel wie der erste amerikanische Rechenautomat MarkI von 1944.

Die Computerder zweiten Generation

Nach der Erfindung des Transistors im Jahre 1948 durch die Amerikaner Bardeen, Brattain und Shockley vollzog sich bei den elektronischen Schaltelementen, aus denen ein Computer besteht, eine rasante Entwicklung zu immer kleineren Bauteilen. Mit dem Einsatz des Transistors als Einzelbauelement kann von der zweiten Computergeneration gesprochen werden. Transistoren, Dioden, Widerstände und Kondensatoren wurden auf postkartengroße Schaltkarten montiert und miteinander verdrahtet. Eine Weiterentwicklung dieser Technik waren die gedruckten Schaltungen, Kunststoffplatten mit Kupferleiterbahnen, die die einzelnen Bauelemente verbanden. Dadurch entstand die Möglichkeit, Leiterplatten in großer Stückzahl industriell herzustellen. Die Folge war, daß die Datenverarbeitungsanlagen billiger, leistungsfähiger, schneller und wartungsfreundlicher wurden. Der Computer wurde für die Produktion, den Handel und die Verwaltung interessant. Die ersten serienmäßig gebauten Computer der Welt, die der zweiten Generation angehören, sind die Siemensanlage 2002 und Zuses Z23.

Die Computerder dritten Generation

Ab 1962 entstanden Rechner, deren Bauteile, d.h. Transistoren, Dioden, Widerstände und Kondensatoren, bis zur Größe von Salzkörnern miniaturisiert und zu Schaltgruppen (Modulen) zusammengefaßt waren. Diese Rechner werden zur dritten Computergeneration gezählt. Dieses Verfahren wurde unter dem Namen "Hybridtechnik" bekannt, d.h., daß verschiedene Technologien zur Herstellung einer elektronischen Schaltung miteinander verdrahtet werden, z.B. Schaltgruppen mit einzelnen Widerständen, Dioden, Transistoren und Kondensatoren. Die Rechengeschwindigkeit erhöhte sich wiederum erheblich. Während die Computer der zweiten Generation pro Sekunde etwa 1300 Additionen durchführten, bewältigten die Computer der dritten Generation bereits 160000 Additionen pro Sekunde. Typische Beispiele der dritten Generation sind das System IBM 360 oder der deutsche Telefunken-Rechner TR 440.

Die Computerder vierten Generation

Mit der Entwicklung integrierter Schaltkreise, auch ICs (Integrated Circuits) genannt, begann Mitte der 60er Jahre die vierte Computergeneration. Die einzelnen Bauteile einer Schaltung wurden zusammen mit ihren Verbindungsleitungen in das Innere von Siliziumkristallen integriert. So konnten mehrere Schaltkreise auf einem einzigen Siliziumplättchen untergebracht werden, dem Chip. Beispiele für diese Generation sind der IBM-Rechner 370 oder die Siemensanlage 4004.

Die Computerder fünften Generation

Die fünfte Computergeneration wurde Ende der 70er Jahre durch die Entwicklung des Mikroprozessors und der damit entstehenden Home Computer und insbesondere durch die Personal Computer (PCs) eingeleitet, wenngleich es heute schwerfällt, die Vielzahl der Rechnertypen und die rasante technische Entwicklung überhaupt noch in dieses Generationenkonzept einzuordnen. Grundlage für die Entstehung der PCs bildeten die immer komplexer werdenden Integrierten Schaltungen. So wurde es möglich, Chips mit mehr als 100 Gattern (Schaltgliedern) zu produzieren, die es erlauben, komplette Prozessoren (Rechnerkern oder Zentraleinheit des Rechners) auf der Größe eines Fingernagels unterzubringen. Dieselben Entwicklungen sind auch auf dem Gebiet der Speichertechnik zu beobachten. In der Anfangszeit der IC-Technik brachte man auf einem Speicherchip von ca. 100 mm2 Grundfläche 70 Bit (0 oder 1) unter, 1995 hatte IBM bereits 4 Millionen Bit (4 Megabit) auf einem Speicherchip erreicht. Die Europäische Gemeinschaft plante, bis 1996 mit "Jessi" den ersten 64-Millionen-Bit-Chip zu entwickeln. Die Geschwindigkeit dieser kleinen Rechner liegt bei weitem über der, die in der dritten Computergeneration erreicht wurde. Eine genaue Angabe kann aufgrund der vielen unterschiedlichen Rechner nicht gemacht werden, der Vergleich sollte dennoch durch ein Beispiel möglich sein. Ein durchschnittlicher PC bewältigt ca. 2,5 Millionen Additionen in einer Sekunde. Großrechner wie z.B. eine CRAY bewältigen dagegen 5 Milliarden Operationen in der Sekunde. Ihre Geschwindigkeit liegt also im Nanosekundenbereich.

Mit der Einführung der Mikroelektronik wandelten sich auch die Anwendungsbereiche des Computers. Der im Gegensatz zu seinen Vorgängern sehr preiswerte PC hielt Einzug in alle Bereiche der Wirtschaft, in kleine, mittelständische und große Unternehmen, in Schulen und Universitäten und in private Haushalte. Neben den PCs entstanden spezielle Arbeitsplatzrechner (Workstations), die über mehrere 32-Bit-Prozessoren (Zentraleinheiten) verfügen, die sich die Gesamtheit der anfallenden Arbeiten teilen (vgl. "Thema" in LOG IN 5’93). Dadurch kann ein solcher Rechner multifunktionale Aufgaben übernehmen, aber auch Spezialaufgaben wie Grafikverarbeitung, Desktop-Publishing (Seitengestaltung mit Schrift und Grafik), Softwareentwicklung sowie wissenschaftliche und kaufmännische Probleme in kürzester Zeit bearbeiten. Aufgaben, die bis vor kurzem nur zentral mit Großrechnern zu bewältigen waren, können heute dezentral am einzelnen Arbeitsplatz bewältigt werden.

Für Filme, aufwendige Simulationen, 3-D-Darstellungen und ähnliche rechenintensive Aufgaben werden aber heute noch Großrechner gebaut, deren Rechenleistungen weit über die der PCs und selbst großer Workstations hinausgehen. In ihnen ist eine Vielzahl von Mikroprozessoren integriert, die parallel arbeiten. Neben dem wohl bekanntesten Rechner der Superlative, der CRAY, wurde Ende der 80er Jahre in Berlin in Zusammenarbeit mit der Gesellschaft für Mathematik und Datenverarbeitung (GMD) der Supercomputer SUPRENUM entwickelt, der aus bis zu 256 parallel geschalteten Einzelplatinenrechnern bestehen konnte, von denen jeder 20 Millionen Rechenoperationen pro Sekunde bewältigte. Jeder Rechner verfügte damals über einen eigenen Hauptspeicher für 8 Millionen Zeichen (8 Megabyte) und eine Spezialeinheit (einen eigenen Prozessor) für die schnelle Kommunikation mit den anderen Rechnern im Rechnercluster. In der vollen Ausbaustufe, die Ende 1989 verwirklicht wurde, konnte dieser Rechner 5 Milliarden Rechenoperationen in der Sekunde bewältigen und gehörte zu dieser Zeit zu den leistungsstärksten Rechnern der Welt (vgl. auch Dorsch, 1989).

(wird fortgesetzt)

Ingo-Rüdiger Peters
Freie Universität Berlin
Zentralinstitut für Fachdidaktiken
Arbeitsbereich Lehrerfortbildung
Informatische Bildung
Habelschwerdter Allee 45
14195 Berlin
E-Mail: irpeters@csi.com


Literatur