Konrad Zuses Z3 leitete digitales Zeitalter ein

Konrad Zuse an seinem 80. Geburtstag im Atelier seines Hauses in Hünfeld

von Ursula A. Kolbe

Vor 75 Jahren begann das digitale Zeitalter in Berlin. Überraschend, für viele Menschen gelten doch oftmals die USA als die Wiege der digitalen Revolution. Das Computer-Zeitalter begann jedoch in den 30er Jahren in Berlin-Kreuzberg, als Konrad Zuse im heimischen Wohnzimmer der Eltern den Z3 erfand.

Seitdem verändert dieser die Welt wie seinerzeit die Dampfmaschine oder das Automobil. Ob im Alltag und noch mehr im Arbeitsleben.
Und die Erde, sie dreht sich weiter. Es stellen sich jeden Tag neue Fragen, wie die Digitalisierung die Welt weiter verändern wird, was in den TOP-Hochschulen und Industrielaboren erdacht und entwickelt wird.

Über all das wollen sich das Zuse-Institut Berlin und der „Tagesspiegel“ am 11. Mai 2016 in Berlin mit herausragenden digitalen Vordenkern austauschen. Unternehmen können sich präsentieren und so relevante Forschungsthemen und Wissenschaftler kennenlernen sowie Kontakte zu Startups, Young Professionals und interessierten Nachwuchs knüpfen.

Mit Blick auf diese Tagung hat im Vorfeld eine unabhängige Jury des Zuse-Institutes 75 solcher Wegbereiter(innen) des digitalen Zeitalters ermittelt, die „Der Tagesspiegel“ täglich bis zur Konferenz in einer Serie vorstellt.
Sie alle an dieser Stelle aufzuführen, würde den Rahmen des Beitrags sprengen. Deshalb nur einige Namen, Wegmarken, Blicke in die digitale Zukunft.

Pioniere auf dem Weg ins digitale Zeitalter

Konrad Zuse (1910 bis 1995) war Ingenieur, Erfinder, Maler, Visionär, wird heute fast einhellig auf der ganzen Welt als Schöpfer des ersten frei programmierbaren Rechners Z3 in binärer Schalttechnik und Gleitpunktrechnung, der wirklich funktionierte, anerkannt – heute Computer genannt.

Schon als Zehnjähriger baute er eine Treppenlichtschaltung aus Blech und Nägeln, konstruierte Baupläne. Mit 21 Jahren entwarf er ein elliptisches Kino. Insgesamt tragen über 50 Patente seinen Namen.

Er war es auch, der die erste Computerfirma Europas gründete. Mit dem Z4 konstruierte Zuse den ersten kommerziell vertriebenen Computer und erfand die erste höhere Programmiersprache. Er nannte sie „Plankalkül“.

Die Prototypen Z1 und Z3 wurden im Zweiten Weltkrieg zerstört. Konrad Zuse selbst und sein Sohn Horst Zuse haben Nachbauten dieser Maschinen angefertigt, die ein beeindruckendes Zeugnis von den Anfängen des Computers ablegen. Zu sehen sind sie jetzt im Deutschen Technikmuseum Berlin.

Der Nachbau der Z3 von Zuses ältestem Sohn Horst „tourt“ seit 2010 durch zahlreiche Museen, Universitäten und Messen, macht jetzt bis auf Weiteres Halt im Deutschen Technikmuseum Berlin. Prof. Zuse führt hier die Maschine den Besuchern persönlich vor. (Termine siehe Internet).

Der britische Physiker und Informatiker Tim Berners-Lee, 1955 in London geboren, hat mit dem World Wibe Web ein weltumfassendes Medium erfunden. Er verzichtete auf die Patentierung und daraus resultierende Einnahmen, um die Entwicklung des Webs nicht durch Copyright-Auseinandersetzungen und konkurrierende Techniken zu behindern. Ein wahres Geschenk an die Menschheit.

Heute ist er Professor am Massachusetts Institute of Technology (MIT) und wacht als Direktor des World-Wibe-Web-Consortiums (W3C) über das Netz. Auf dem Weltwirtschaftsforum in Davos sprach er sich dafür aus, das Recht auf Anonymität unter bestimmten Bedingungen einzuschränken – um beispielsweise Angriffe von Stalkern auf Frauen zu verhindern.

Als einer der wichtigsten technischen Wegbereiter des digitalen Zeitaltes kann der Physiker William Shockley (1910 bis 1989) gelten. Gemeinsam mit seinen Kollegen John Bardeen und Walter Brattain entwickelte er 1947 den Transistor in den BellTelephone Laboratories an der amerikanischen Ostküste in New Yersey. Dieser ersetzte die Elektronenröhre als Schalter und Verstärker, ermöglichte integrierte Schaltkreise und Mikrochips. 1956 bekam das Trio den Physik-Nobelpreis.

Als Entwickler von Mac, iPod und iPhone revolutionierte Steve Paul Jobs (1955 bis 2011) nicht nur die Computerindustrie, sondern auch die Musik- und Kommunikationsbranche. Weggefährten beschreiben ihn als getrieben, übermäßig ehrgeizig, als einen, der in Extremen dachte.

Neu war 1984 der Macintosh, kurz Mac: Der erste Computer, der mit einer grafischen Benutzeroberfläche – Symbole statt Befehlszeilen – zum Verkaufsschlager wurde. Bedient wurde er über eine Maus, auch das war zum damaligen Zeitpunkt eine Neuheit.

1976 gründete Jobs mit seinen Kumpeln Steve Wozniak und Ronald Wayne in der legendären Garage seines Elternhauses die Firma Apple. Bereits ein Jahr später hatte sich der Apple II gut verkauft.

Die amerikanischen Informatiker Ken Thompson (geboren 1943) und Dennis Ritchie (1941 bis 2011) entwickelten 1969 das Betriebssystem Unix, das zusammen mit abgeleiteten Systemen in mehr Geräten eingesetzt wird als Windows. Es steckt heute in allen Apple-Rechnern.

Jimmy Wales (geboren 1966 in Huntsville, Alabama) ist Hauptgründer der Online-Enzyklopädie Wikipedia. Sie ist kostenfrei zugänglich. Seine Wikipedia umfasst mittlerweile mehr als 37 Millionen Artikel in fast 300 Sprachen. Ein „Opfer“: Den Brockhaus – von Wales einst als Vorbild in puncto Qualität bezeichnet – hat es bereits „erwischt“. Seit 2014 ist er nur noch antiquarisch zu haben.

Schultaschenrechner können nicht nur rechnen, sondern spielend mit mathematischen Formeln umgehen. Die Grundlage dafür schuf die Mathematikerin Jean E. Sammet (geb. 1928 in New York). Sie setzte nach ihrem Studium als Programmiererin beim Branchenprimus IBM einen Leitgedanken Zuses um.

Er hatte den Traum, dass Computer dem Menschen das Rechnen abnehmen.
Dachte Zuse noch an Zahlen, hatte Sammet auch die Algebra im Blick. Sie entwickelte den „Formula Manipulation Compiler“, kurz Formac. Damit war es möglich, mathematische Formeln per Computer zu verändern. Das fehlerträchtige Umformen von Gleichungen durch den Menschen war nicht mehr nötig. Computeralgebra ist heute weit verbreitet.

Mensch und Maschine müssen im Computer zusammenkommen, vertrat die Mathematikerin Grace Hopper (1906 bis 1992) ihren Standpunkt. Das Verbindungsglied ist der Compiler (Übersetzer); ein Programm, das die am Menschen orientierte Programmiersprache in die Maschinensprache des Rechners übersetzt.

Grace Hopper hat diesen ersten Compiler erfunden, Frances E. Allen (1932 geb.) entscheidende Beiträge für die Verbesserung dieser Programme geleistet. 2006 erhielt sie als erste Frau den Turing-Preis, den Nobelpreis der Computerwissenschaft.

Die Forscher Charles Kao (geb. 1333 in Schanghai) sowie die beiden Amerikaner Robert Maurer (geb. 1924) und John MacChesney (geb. 1929) schufen ein globales Netz aus Glasfasern. Ohne Lichtwellenleiter wäre das Internet in seiner heutigen Form undenkbar. Erst Glasfaserkabel, die mittels Lichtimpulsen in der gleichen Zeit viel mehr Daten übertragen können als Kupferkabel, haben den massiven Informationsaustausch ermöglicht.

Die weltweit verlegten Glasfaserkabel sind zusammen mehr als eine Milliarde Kilometer lang – aneinandergeknüpft würden sie mehr als 25.000mal um die Erde reichen. Eine gute Übersicht sowie detaillierte Informationen darüber bietet die interaktive Karte unter www.submarinecablemap.com. Lediglich die Antarktis ist noch nicht an das globale Netzwerk angeschlossen.

Brettspiele sind einer der Prüfsteine für Computerentwickler. Der Kanadier Jonathan Schaeffer (geb. 1957) schuf ein Dame-Programm, das die vollständige Lösung des Spiels erreicht und von keinem Menschen zu schlagen ist. Er ist nationaler Schachmeister und studierte Mathematik.

Schaeffer setzte auf parallele Berechnungen und nutzte 18 Jahre lang die überschüssige Rechenleistung in den Studentenpools der Universität von Alberta, wo er Professor ist. Mit seiner Lösung ist klar, dass die Dame bei beiderseitig optimalen Zügen stets zu einem Unentschieden führt.

Der Selfmademan Heinz Nixdorf (1925 bis 1986) schaffte aus dem Nichts ein deutsches Computerwunder: Er schrumpfte die Riesenrechner auf Schreibtischformat und brachte den Computer in Banken, Behörden, Unternehmen. Leider verschlief Anfang der 80er Jahre seine AG den Megatrend, wurde 1990 an Siemens verkauft.

Ob Gollum in „Herr der Ringe“, Carl im Pixar-Film „Oben“ oder Charaktere in der virtuellen Welt eines Computerspiels – ohne Nadia Magnenat –Thalmann, eine Pionierin der Computergrafik, würden die Figuren viel weniger lebensecht wirken. Heute hilft sie mit ihren virtuellen Menschen der Medizin.

Ein autonomer Roboter namens Nadine, den Magnenat-Thalmann entwickelte, ist rein äußerlich fast ihr Zwilling. Nadine kann Menschen, ihre Mimik und Emotionen erkennen und antworten.

Wie gesagt, die Auflistung ließe sich fortsetzen. Mehr über diese Persönlichkeiten und die Tagung am 11. Mai selbst unter www.science-match.info.