Frankfurter Allgemeine Zeitung Dienstag, 6. Juni 2000, Nr. 130 / Seite 49
Warum die Zukunft uns nicht braucht

Die mächtigsten Technologien des 21. Jahrhunderts - Robotik, Gentechnik und Nanotechnologie - machen den Menschen zur gefährdeten Art

von Bill Joy

Mit Gentechnik, Nanotechnologie und Robotik öffnen wir eine neue Büchse der Pandora, aber offenbar ist uns das kaum bewusst.

„Computer werden einen freien Willen haben. Sie werden spirituelle Erfahrungen für sich reklamieren. Und die Menschen, deren Denken noch immer von der Arbeit organischer Neuronen abhängt- werden ihnen glauben" (Ray Kurzweil).

Entnommen dem Band "Robot" von Hans Moravec, Oxford University Press 1999
Wir erleben eine Revolution. Wer redet davon? Die Thesen, die Bill Joy in Wired veröffentlichte, sind in Deutschland über ein paar zaghafte Interviews nicht hinausgekommen - obgleich sie mit den aktuellen Debatten, etwa um das neue amerikanische Verteidigungssystem, ursächlich zu tun haben - und durchaus mit Einsteins Brief vom 2. August 1939 verglichen werden können. Wir veröffentlichen Joys Thesen hier leicht gekürzt - aber wegen der Bedeutung des Themas in noch immer ungewöhnlicher Länge. Wir wissen, was wir den Lesern damit zumuten. Wir glauben aber, dass diese Zumutung nichts ist im Vergleich zu den Zumutungen der neuen Technologien. In den nächsten Monaten werden wir detailliert auf sie eingehen - unter anderem durch Gespräche und Beiträge von Ray Kurzweil, Hans Moravec, Ben Goertzel, Nathan Myhrvold und Danny Hillis. Gleichzeitig werden europäische Bioinformatiker, Hirnforscher und Genforscher die Thesen Joys und ihre Weiterungen diskutieren. Dabei geht es auch um Joys anfechtbare These vom Verzicht. Das essentielle Buch von Ray Kurzweil, auf das sich Joy bezieht, erschien auf Deutsch unter dem Titel „Homo S@piens" bei Kiepenheuer & Witsch.

Seit ich mich mit der Entwicklung neuer Technologien befasse, haben deren ethische Dimensionen mich interessiert, aber erst im Herbst 1998 wurde mir bewusst, welche Gefahren uns im einundzwanzigsten Jahrhundert erwarten. Mein Unbehagen nahm seinen Anfang, als ich Ray Kurzweil begegnete, dem verdientermaßen berühmten Erfinder der ersten Lesemaschine für Blinde und vieler anderer erstaunlicher Dinge. Wir hatten beide einen Vortrag auf der George Gilder's Telecosm Conference gehalten, und ich traf ihn zufällig in der Hotelbar, nachdem wir unsere Sitzungen hinter uns gebracht hatten. Ich saß mit John Searle zusammen, einem Philosophen aus Berkeley, der sich mit Fragen des Bewusst-seins beschäftigt. Ray setzte sich zu uns, und es begann ein Gespräch, dessen Gegenstand mir bis heute nachgeht.

Ich hatte Rays Vortrag verpasst und ebenso die anschließende Diskussion, an der er und John teilgenommen hatten; die beiden griffen den Faden dort wieder auf, wo sie ihn hatten fallen lassen, und Ray erklärte, die technische Entwicklung werde sich weiter beschleunigen, wir würden selbst zu Robotern oder mit ihnen verschmelzen, und John entgegnete, das werde nicht geschehen, weil Roboter kein Be-wusstsein entwickeln könnten.

Solche Dinge hatte ich schon früher gehört und dabei stets gedacht, empfindungsfähige Roboter gehörten in das Reich der Science-fiction. Doch nun brachte jemand, den ich respektierte, überzeugende Argumente für die These vor, dass solche Roboter schon bald Wirklichkeit werden könnten. Ich war vor allem deshalb verblüfft, weil Rav bereits bewiesen hatte, dass er die Zukunft vorauszusehen und zu gestalten vermochte. Ich wusste bereits, dass neue Technologien wie Gentechnik und Nanotechnologie uns die Möglichkeit geben, die Welt grundlegend zu verändern, aber ein realistisches Szenario für intelligente Roboter in allernächster Zukunft überraschte mich.

Man kann solcher Durchbrüche leicht überdrüssig werden. Fast täglich hören wir in den Nachrichten von irgendeinem technologischen oder wissenschaftlichen Fortschritt. Aber dies war keine gewöhnliche Voraussage. In der Hotelbar gab Ray mir einen Vorabdruck mit einem Auszug aus seinem damals im Erseheinen begriffenen Buch „The Age of Spiritual Machines" (auf Deutsch erschienen unter dem Titel „Homo S@piens". Leben im 21. Jahrhundert), in dem er eine Utopie vorstellt und die Voraussage macht, dass die Menschen durch die Verschmelzung mit der Robotertechnik nahezu Unsterblichkeit erlangen werden.

Die Lektüre verstärkte mein Unbehagen noch; ich war mir sicher, dass er die Gefahren und die Wahrscheinlichkeit eines schlechten Ausgangs dieser Entwicklung noch untertrieben darstellte. Am stärksten beunruhigte mich eine Passage, in der ein dystopisches Szenario geschildert wurde:

„Zunächst einmal wollen wir annehmen, dass es den Computerwissenschaftlern gelingt, intelligente Maschinen zu entwickeln, die alles besser können als der Mensch. In diesem Fall wird alle Arbeit wahrscheinlich von riesigen, hochorganisierten Maschinensystemen erledigt, so dass man auf menschliche Arbeit verzichten kann. Dann gibt es zwei Möglichkeiten: Man könnte den Maschinen erlauben, ihre Entscheidungen selbst und ohne menschliche Kontrolle zu treffen, oder der Mensch könnte die Kontrolle über die Maschinen behalten. Falls man den Maschinen erlaubt, ihre Entscheidungen selbst zu treffen, lassen sich die Ergebnisse nicht abschätzen, denn wir können unmöglich voraussehen, wie solche Maschinen sich verhaften werden..."

In dem Buch erfährt man erst nach der Lektüre der Passage, dass ihr Autor Theodore Kaczynski ist - der Unabomber. Ich setzte mich wahrhaftig nicht für Kaczynski ein. In einer 17 Jahre dauernden Terrorkampagne haben seine Bomben drei Menschen getötet und zahlreiche andere verwundet. Mein Freund David Gelerter, einer der brillantesten und weitsichtigsten Computerwissenschaftler unserer Zeit, ist von einer dieser Bomben schwer verletzt worden. Wie viele meiner Kollegen hatte auch ich das Gefühl, ich könne durchaus das nächste Ziel des Unabombers sein.

Kaczynskis Taten waren mörderisch und kriminell. Er ist eindeutig ein Maschinenstürmer, aber damit hat man seine Argumentation noch nicht entkräftet. So schwer es mir auch fiel, ich musste zugeben, dass der in dieser Passage geäußerte Gedanke nicht ganz abwegig war. Ich fühlte mich gedrängt, ihm zu widersprechen. Kaczynskis dystopische Vision beschreibt unbeabsichtigte Folgen, ein bekanntes Problem in der Entwicklung und Anwendung von Technologien, das eng mit Murphys Gesetz zusammenhängt: „Was schief gehen kann, das geht auch irgendwann einmal schief." (Eigentlich stammt das Gesetz von Finagle und musste daher Finagles Gesetz heißen -was wiederum beweist, dass Finagle Recht hatte.) Der übermäßige Einsatz von Anti-biotika hat zu dem wohl größten Problem dieser Art geführt: zur Entstehung antibio-tikaresistenter und daher weitaus gefährlicherer Bakterien. Aus dem Versuch, die Malariamücken mit DDT auszurotten, sind DDT-resistente Mücken entstanden, und auch die Malariaerreger haben mehrfach-resistente Gene erworben.

Die Ursache solcher Überraschungen scheint klar: Die betreffenden Systeme sind komplex; sie umfassen Wechselwirkungen und Rückkopplungsprozesse zwischen zahlreichen Teilen. Jede Veränderung solch eines Systems löst eine Kette von Reaktionen aus, die sich nur schwer voraussehen lassen; das gilt insbesondere für Systeme, in denen menschliches Handeln eine Rolle spielt.

Ich begann. Freunden das Kaczynski-Zitat aus Kurzweils Buch zu zeigen; ich gab ihnen das Buch, ließ sie das Zitat lesen und beobachtete ihre Reaktion, wenn sie entdeckten, wer das geschrieben hatte: der Unabomber. Etwa um dieselbe Zeit stieß ich auf Hans Moravecs Buch „Robot: Evolution from Mere Machine to Transcendent Mind" (auf Deutsch erschienen unter dem Titel „Computer ergreifen die Macht"). Moravec gehört zu den führenden Forschern auf dem Gebiet der Robotik und war Mitbegründer des weltweit größten Robotik-Forschungsprogramms an der Carnegie Mellon University. Sein Buch gab mir weiteres Material an die Hand, das ich an meinen Freunden ausprobieren konnte, Material, das Kaczynskis Argumentation überraschenderweise stützte.

Ich beschloss, mit meinem Freund Danny Hillis zu reden. Danny hat sich einen Namen als Mitbegründer der Thinking Machines Corporation gemacht, die einen sehr leistungsfähigen Parallel-Supercomputer gebaut hat. Obwohl ich gegenwärtig die Position des Chief Scientist bei Sun Microsystems bekleide, bin ich doch eher Rechnerarchitekt als Wissenschaftler, und ich schätze Danny wegen seiner Kenntnisse auf dem Gebiet der Informatik und der Physik mehr als jeden anderen. Außerdem ist er ein angesehener Zukunftsforscher, der in langen Zeiträumen denkt - vor vier Jahren gründete er die Long Now Foundation, die eine Uhr mit einer geplanten Lebensdauer von 10 (XX) Jahren baut, um die Aufmerksamkeit auf die beschämende Kurzsichtigkeit der Gesellschaft zu lenken.

Ich flog nach Los Angeles, um mit Danny und seiner Frau Pati essen zu gehen. Ich spulte mein inzwischen vertrautes Routineprogramm ab, trug die Ideen und Passagen vor, die mir solches Unbehagen bereiteten. Dannys Antwort - vor allem im Blick auf Kurzweils Szenario einer Verschmelzung des Menschen mit den Robotern - kam rasch und setzte mich in Erstaunen. Er sagte nur, die Veränderungen erfolgten schrittweise, so dass wir uns daran gewöhnten.

Aber ich war nicht vollkommen überrascht. In Kurzweils Buch hatte ich ein Zitat von Danny gelesen, in dem er sagte: „Ich liebe meinen Körper nicht mehr oder weniger als andere, aber wenn ich mit einem Körper aus Silicium 200 Jahre alt werden kann, werde ich ihn nehmen." Offenbar hatte er seinen Frieden mit dieser Entwicklung und ihren Risiken gemacht, während mir das schwer fiel. Als ich so über Kurzweil, Kaczynski und Moravec redete und nachdachte, kam mir ein Roman in den Sinn, den ich vor fast zwanzig Jahren gelesen hatte: „The White Plage" von Frank Herbert (auf Deutsch erschienen unter dem Titel „Die weiße Pest"); darin wird ein Molekularbioioge durch die sinnlose Ermordung seiner Familie in den Wahnsinn getrieben. Um sich zu rächen, entwickelt und verbreitet er einep neuen, hoch infektiösen Erreger, der selektiv tötet. (Ein Glück, dass Kaczynski Mathematiker und kein Molekularbiologe war.) Ich musste auch an die Borg aus Star Trek denken, diese halbbiologischen Roboterwesen mit stark destruktiven Neigungen. Katastrophen nach Art der Borg sind eine Spezialität der Science-fiction. Warum hatte ich mich nicht schon früher mit solchen Robo-ter-Dystopien befasst? Und warum kümmerten andere Menschen sich so wenig um diese albtraumhaften Szenarien?

Ein Teil der Antwort liegt sicher in unserer Einstellung gegenüber dem Neuen, in unserer Neigung, Neues sogleich als vertraut zu empfinden und es fraglos anzunehmen. Da wir ständig neue wissenschaftliche Durchbrüche erleben, müssen wir uns erst noch klar machen, dass die stärksten Technologien des einundzwanzigsten Jahrhunderts - Robotik, Gentechnik und Nanotech-noiogie - ganz andere Gefahren heraufbeschwören als die bisherigen Technologien.

Vor allem Roboter, technisch erzeugte Lebewesen, und Nanoboter besitzen eine gefährliche Eigenschaft: Sie können sich selbständig vermehren. Eine Bombe explodiert nur einmal, aus einem einzigen Roboter können viele werden, die rasch außer Kontrolle geraten.

In den letzten fünfundzwanzig Jahren hat man viel an der Entwicklung von Computernetzen gearbeitet, in denen das Senden und Empfangen von Nachrichten die Möglichkeit unkontrollierter Vermehrung eröffnet. In einem Computer oder Computemetz kann solche Vermehrung lästig sein; schlimmstenfalls legt sie den Computer oder das Netzwerk lahm. In den neuen Technologien dagegen gehen von der unkontrollierten Vermehrung sehr viel größere Gefahren aus; dort drohen erhebliche Schäden an der materiellen Welt.

Jede dieser Technologien eröffnet auch ungeahnte Möglichkeiten: Die Aussicht auf annähernde Unsterblichkeit, die Kurzweil in seinen Roboterträumen voraussieht, treibt uns voran; die Gentechnik wird schon bald zur Behandlung und vielleicht auch Heilung der meisten Krankheiten eingesetzt werden; Nanotechnologie und Nanomedizin werden diese Möglichkeiten noch erweitern. Zusammen könnten sie unsere Lebenserwartung beträchtlich verlängern und die Lebensqualität verbessern. Die vielen kleinen, individuell erfahrbaren Vorteile dieser Technologien führen jedoch zu einer gewaltigen Ansammlung von Macht und zugleich zu großen Gefahren.

Was war im zwanzigsten Jahrhundert anders? Natürlich bargen die Technologien, die den nuklearen, chemischen und biologischen Massenvernichtungswaffen zugrunde lagen, gewaltige Potentiale, und die Waffen stellen eine ebenso große Gefahr dar. Aber zum Bau von Atomwaffen benötigte man zumindest in der Anfangszeit seltene - tatsächlich sogar nahezu unerreichbare - Rohstoffe und ein durch Geheimhaltung geschütztes Wissen; auch der Bau biologischer und chemischer Waffen verlangte einigen Aufwand. Die Technologien des ein-undzwanzigsten Jahrhunderts - Genetik, Nanotechnologie und Robotik - bergen dagegen Gefahren, die sich in ganz anderen Dimensionen bewegen. Und am gefährlichsten ist wohl die Tatsache, dass selbst Einzelne und kleine Gruppen diese Technologien missbrauchen können. Dazu benötigen sie keine Großanlagen und keine seltenen Rohstoffe, sondern lediglich Wissen.

An die Stelle der Massenvernichtungswaffen tritt damit die Gefahr einer wissensbasierten Massenvernichtung, die durch das hohe Vermehrungspotential noch deutlich verstärkt wird. Ich denke, es ist nicht übertrieben, wenn ich sage, wir stehen an der Schwelle zu einer weiteren Perfektion des Bösen in seinen extremsten Ausprägungen; und diesmal werden die so geschaffenen schrecklichen Möglichkeiten nicht nur Nationalstaaten zur Verfügung stehen, sondern auch einzelnen Extremisten.

Als ich begann, mich mit Computern zu befassen, deutete nichts daraufhin, dass ich einmal mit solchen Problemen konfrontiert würde. Mein Leben lang habe ich das Bedürfnis gehabt, Fragen zu stellen und Antworten zu suchen. Schon mit drei Jahren konnte ich lesen, und mein Vater stellte mich dem Schulleiter der Grundschule vor; auf seinem Schoß sitzend, las ich ihm eine Geschichte vor. Ich kam früh in die Schule, übersprang später eine Klasse und flüchtete mich in Bücher - ich hatte einen unglaublichen Drang, zu lernen. Ich stellte zahllose Fragen und trieb die Erwachsenen damit manchmal zur Verzweiflung.

Als Teenager interessierte ich mich sehr für Naturwissenschaft und Technik. Ich wäre gerne Amateurfunker gewesen, hatte aber nicht das nötige Geld für die Ausrüstung. Der Amateurfunk war das Internet der damaligen Zeit; es bestand die Gefahr, dass man süchtig danach wurde und sich in seinem Zimmer verkroch. Ganz abgesehen von den Kosten, war meine Mutter entschieden dagegen; Amateurfunk kam nicht in Frage, ich war schon ungesellig genug.

Donnerstagabends gingen meine Eltern zum Bowling; wir Kinder blieben allein zu Haus. Und donnerstags wurde Gene Rod-denberrys ursprüngliche Star-Trek-Serie gesendet, die großen Eindruck auf mich machte. Von dort übernahm ich den Gedanken, dass die Menschen eine Zukunft im Weltraum haben, ganz wie im Western, mit Heldengestalten und Abenteuern. Roddenber-rys Vision der kommenden Jahrhunderte war stark durch moralische Werte geprägt, die ihren Niederschlag in Regeln wie der Hauptdirektive fanden; danach sollte vermieden werden, in die Entwicklung technisch weniger weit fortgeschrittener Zivilisationen einzugreifen. Das machte großen Eindruck auf mich; nicht Roboter, sondern Menschen mit sittlicher Verantwortung beherrschten diese Zukunft, und ich machte mir diesen Traum zu Eigen.

In der Highschool war ich besonders gut in Mathematik, und als ich mein Ingenieurstudium an der University of Michigan begann, belegte ich gleich Mathematikvorlesungen für höhere Semester. Die Lösung mathematischer Probleme war eine aufregende Herausforderung, doch als ich die Computer entdeckte, fand ich sie noch interessanter: Maschinen, denen man ein Programm eingab, das Probleme zu lösen versuchte und die Lösung gleich noch überprüfte. Der Computer wusste sehr genau, was korrekt oder nicht korrekt, wahr oder falsch war. Waren meine Ideen korrekt? Der Computer konnte es mir sagen. Das war sehr verführerisch.

Ich hatte das Glück, einen Job als Programmierer früher Supercomputer zu finden, und ich entdeckte die erstaunliche Fähigkeit großer Rechenanlagen, fortgeschrittene Entwürfe numerisch zu simulieren. Als ich Mitte der siebziger Jahre in Berkeley mein Promotionsstudium aufnahm, begann ich, bis spät in die Nacht und manchmal ganze Nächte hindurch aufzubleiben und neue Welten im Computer zu erfinden. Probleme zu lösen. Den Code niederzuschreiben, der unbedingt geschrieben werden wollte.

In seinem biografischen Roman „The Agony and the Ecstasy" (auf Deutsch erschienen unter dem Titel „Michelangelo") beschreibt Irving Stone sehr lebendig, wie Michelangelo die Figuren aus dem Stein befreite, den „Bann des Marmors" löste und den Bildern in seinem Kopf Gestalt verlieh. In meinen ekstatischsten Augenblicken entstand die Software im Computer auf ganz ähnliche Weise. Wenn ich sie mir vorstellen konnte, hatte ich das Gefühl, sie existierte bereits in der Maschine und müsse nur noch freigesetzt werden. Die ganze Nacht aufzubleiben schien da nur ein kleiner Preis, um sie zu befreien und der Idee konkrete Gestalt zu verleihen.

Anfang der achtziger Jahre ertrank ich fast in Arbeit. Unix, das ich mit entwickelt hatte, war sehr erfolgreich, mein kleines Projekt hatte bald genug Geld und Personal beisammen, aber nicht das Geld war in Berkeley das Problem, sondern der Platz -es gab einfach keine Räume für die Leute, die das Projekt benötigte. Als die anderen Gründer von Sun Microsystems an mich herantraten, ergriff ich daher die Gelegenheit und schloss mich ihnen an. Bei Sun blieb es dann in der Frühzeit der Workstations und Personalcomputer bei den langen Arbeitstagen, und ich hatte das Glück, an der Entwicklung fortgeschrittener Mikroprozessor- und Internettechnologien wie Java und Jini mitwirken zu können.

Aus alledem dürfte hinreichend hervorgehen, dass ich kein Maschinenstürmer bin. Ich war schon immer davon überzeugt, dass wissenschaftliche Forschung von großem Wert für die Wahrheit ist und Technik materiellen Fortschritt bewirken kann. Die industrielle Revolution hat die Lebensqualität der Menschen in den letzten Jahrhunderten beträchtlich verbessert, und was mein eigenes Berufsleben angeht, hatte ich stets vor, nach sinnvollen Lösungen für reale Probleme zu suchen - ein Problem nach dem anderen. Ich bin nicht enttäuscht worden. Meine Arbeit hat größere Wirkung erzielt, als ich jemals gehofft hätte, und findet so weite Anwendung, wie ich es unmöglich hätte erwarten können. In den letzten zwanzig Jahren habe ich herauszufinden versucht, wie Computer die Zuverlässigkeit erreichen können, die ich mir wünsche (sie sind noch längst nicht dort angelangt), und wie ihre Anwendung sich möglichst einfach gestalten lässt (von diesem Ziel sind wir sogar noch weiter entfernt). Trotz mancher Fortschritte erscheinen die verbleibenden Probleme fast entmutigend schwierig.

Ich war mir zwar immer schon der kaum lösbaren ethischen Probleme bewusst, die im Zusammenhang mit den Folgen der Technik auf Gebieten wie der militärischen Forschung auftreten, doch hatte ich nicht erwartet, auch auf meinem Gebiet mit solchen Problemen konfrontiert zu werden, oder zumindest nicht so bald.

Vielleicht ist es auf dem Höhepunkt des Wandels besonders schwer, die Folgen zu überblicken. Offenbar erkennen Wissenschaftler und Techniker die Folgen ihrer Entdeckungen und Innovationen häufig nicht, solange das Fieber der Neuerungen sie gefangen hält: Wir haben uns lange von dem unbändigen Wunsch nach Erkenntnis treiben lassen, der das Wesen der Wissenschaft ausmacht, und dabei übersehen, dass der ständige Drang zu neuen, leistungsfähigeren Technologien ein Eigenleben entwickeln kann.

Mir ist schon lange klar, dass die großen Fortschritte im Bereich der Informationstechnologie nicht von Computerwissenschaftlern, Rechnerarchitekten oder Elektroingenieuren ausgehen, sondern von Physikern. Die Physiker Stephen Wolfram und Brosi Hasslacher führten mich Anfang der achtziger Jahre in die Chaostheorie und die Theorie nichtlinearer Systeme ein. In Gesprächen mit Danny Hillis, dem Biologen Stuart Kauffman, dem Physiker und Nobelpreisträger Murray Gell-Mann und anderen lernte ich in den neunziger Jahren komplexe Systeme kennen. In jüngster Zeit schließlich gaben mir Hasslacher sowie der Elektroingenieur und Apparatephysiker Mark Reed Einblick in die unglaublichen Möglichkeiten der Molekularelektronik.

In meiner eigenen Arbeit als Mitentwickler dreier Mikroprozessorarchitekturen -Spare, picoJava und MAJC - und bei diversen Imptementierungen dieser Systeme habe ich Moores Gesetz aus erster Hand und sehr genau kennen gelernt. Moores Gesetz hat die exponentielle Verbesserung der Hatbleitertechnologie korrekt vorausgesagt. Bis letztes Jahr glaubte ich, die von Moores Gesetz vorausgesagte Verbesserungsrate könne nur bis etwa 2010 anhalten, weil dann bestimmte physikalische Grenzen erreicht wären. Mir war nicht klar, dass zur rechten Zeit eine neue Technologie bereitstünde, die für einen weiteren gleichmäßigen Fortschritt sorgen kann.

Dank rascher, radikaler Fortschritte im Bereich der Molekularelektronik - in der einzelne Atome und Moleküle an die Stelle der mit Hilfe lithografischer Techniken erzeugten Transistoren treten - und dank der zugehörigen Nanotechnologien sollten wir in der Lage sein, die von Moores Gesetz vorausgesagte Entwicklungsgeschwindigkeit auch für weitere dreißig Jahre zu erreichen oder zu übertreffen. 2030 werden wir wahrscheinlich in großen Mengen Maschinen produzieren können, die eine Million Mal leistungsfähiger sind als die heutigen Personalcomputer - und das wird ausreichen. um Kurzweils und Moravecs Träume zu verwirklichen.

Die Verbindung dieser Computerleistung mit den manipulativen Fortschritten der Physik und dem vertieften genetischen Wissen wird gewaltige Veränderungen ermöglichen, Wir werden die Welt vollkommen neu gestalten können, im Guten wie im Schlechten. Replikations- und Schöpfungsprozesse, die bisher der Natur vorbehalten waren, geraten in den Einflussbereich des Menschen. Bei der Entwicklung von .Computerprogrammen und Mikroprozessoren hatte ich nie das Gefühl, eine intelligente Maschine zu entwerfen. Soft- und Hardware sind so zerbrechlich und den Maschinen fehlt so offensichtlich jede „Denkfähigkeit", dass dies alles mir noch weit in der Zukunft zu liegen schien.

Doch da wir nun schon in dreißig Jahren mit einer dem Menschen vergleichbaren Computerleistung rechnen können, drängt sich mir ein anderer Gedanke auf: dass ich mich möglicherweise an der Entwicklung von Instrumenten beteilige, aus denen einmal die Technologie hervorgehen könnte, die unsere Spezies verdrängen wird. Wie fühle ich mich bei diesem Gedanken? Sehr unbehaglich. Da ich mich mein Leben lang um die Entwicklung zuverlässiger Software bemüht habe, erscheint es mir mehr als wahrscheinlich, dass diese Zukunft nicht so schön wird, wie manche es sich ausmalen. Meine persönliche Erfahrung sagt mir, dass wir dazu neigen, unsere Fähigkeiten auf diesem Gebiet zu überschätzen.

Sollten wir uns angesichts der unglaublichen Leistungsfähigkeit der neuen Technologien nicht lieber fragen, wie wir am besten mit ihnen koexistieren können? Und wenn die technologische Entwicklung wahrscheinlich oder auch nur möglicherweise zur Auslöschung unserer Art führt, sollten wir dann nicht besser vorsichtig sein?

Die Robotik träumt zunächst einmal davon, intelligente Maschinen könnten uns die Arbeit abnehmen, uns ein Leben in Muße ermöglichen und wieder in den Garten Eden zurückversetzen. George Dyson warnt jedoch in seinem Buch „Darwin Among the Machines", in dem er die Geschichte solcher Ideen nachzeichnet: „Im Spiel des Lebens und der Evolution sitzen drei Spieler am Tisch: der Mensch, die Natur und die Maschinen. Ich bin entschieden auf der Seite der Natur. Aber ich fürchte, die Natur steht auf der Seite der Maschinen." Dieser Meinung ist auch Moravec, wenn er sagt, wir könnten die Begegnung mit der überlegenen Spezies Roboter möglicherweise nicht überleben.

Wie schnell ließe sich solch ein intelligenter Roboter realisieren? Angesichts der zu erwartenden Fortschritte in der Rechnerleistung wäre dieser Schritt bis 2030 verstellbar. Und wenn erst einmal ein intelligenter Roboter existiert, ist es nur noch ein kleiner Schritt hin zu einer Spezies intelligenter Roboter, das heißt zu einem Roboter, der Kopien seiner selbst herzustellen vermag.

Die Robotik träumt des Weiteren davon, den Menschen schrittweise durch Robotertechnologie zu ersetzen, so dass wir gleichsam Unsterblichkeit erlangen, indem wir unser Bewusstsein abspeichern; diesen Pro-, zess meinte Danny Hilhs, als er davon sprach, wir würden uns schrittweise daran gewöhnen: und diesen Prozess beschreibt auch Ray Kurzweil mit so gesetzten Worten in seinem Buch „The Age of the Spiritual Machines". (Anfänge sehen wir bereits in der Implantation von Computerchips in den menschlichen Körper.)

Doch wenn wir uns in unserer eigenen Technologie abspeichern, welche Chance haben wir dann, hinterher noch wir selbst oder auch nur menschliche Wesen zu sein? Mir scheint es sehr viel wahrscheinlicher, dass ein Roboter nichts mit einem Menschen in unserem Verständnis zu tun hat, dass die Roboter keineswegs unsere Kinder sein werden und dass auf diesem Wege das Menschsein verloren gehen wird.

Die Gentechnik verspricht, die Landwirtschaft durch Erhöhung der Ernteerträge und Verringerung des Pestizideinsatzes zu revolutionieren; Zehntausende neuer Bakterienarten, Pflanzen, Viren und Tiere zu erzeugen; die geschlechtliche Fortpflanzung durch Klonen zu ersetzen oder dadurch zu ergänzen; Heilmethoden für zahlreiche Krankheiten zu entwickeln, unser Leben zu verlängern und unsere Lebensqualität zu verbessern und vieles andere mehr. Es besteht kein Zweifel, dass diese tiefgreifenden Veränderungen in der Biologie bevorstehen und dass unser Bild vom Leben dadurch grundlegend in Frage gestellt wird.

Techniken wie das Klonen von Menschen haben unsere Aufmerksamkeit für die tiefgründigen ethischen und moralischen Fragen geschärft, vor die uns diese Techniken stellen. Wenn wir uns zum Beispiel mit Hilfe der Gentechnik in mehrere, nicht als gleich geltende Arten aufspalteten, wäre die Idee der Gleichheit gefährdet, auf der das ganze demokratische System aufbaut.

Angesichts der gewaltigen Möglichkeiten der Gentechnik kann es nicht verwundern, dass ihre Anwendung große Sicherheitsprobleme mit sich bringt. Mein Freund Armory Lovins hat kürzlich zusammen mit Hunter Lovins in einem Leitartikel ein ökologisches Bild dieser Gefahren gezeichnet. Dort heißt es unter anderem: „Die neue Botanik richtet die Entwicklung der Pflanzen nicht an ihrem evolutionären, sondern an ihrem ökonomischen Erfolg aus." Armory hat sich in seinem langen Berufsleben vor allem mit dem effizienten Einsatz von Energie und Rohstoffen befasst, indem er die vom Menschen geschaffenen Systeme einer ganzheitlichen Betrachtung unterzog: diese ganzheitliche Betrachtung findet häufig einfache Lösungen für ansonsten sehr schwierig erscheinende Probleme und lässt sich auch auf dem genannten Gebiet sinnvoll einsetzen.

Nachdem ich Lovins' Leitartikel gelesen hatte, sah ich in der „New York Times" vom 19. November 1999 einen Artikel von Greg Easterbrook über gentechnisch veränderte Lebensmittel; die Schlagzeile lautete: „Nahrung für die Zukunft: Eines Tages wird Reis auch Vitamin A enthalten. Sofern nicht die Maschinenstürmer siegen."

Sind Armory und Hunter Lovins Maschinenstürmer? Gewiss nicht. Ich denke, wir alle hätten nichts gegen Reis mit eingebautem Vitamin A, wenn er mit der nötigen Sorgfalt entwickelt würde und insbesondere mit Blick auf die mögliche Gefahr, dass Gene die Artenschranke überspringen könnten. Das Bewusstsein für die möglichen Gefahren der Gentechnik beginnt zu wachsen, wie sich in dem Leitartikel der Lovins zeigt. Eine breitere Öffentlichkeit weiß um die gentechnisch veränderten Pflanzen und zeigt sich besorgt; offenbar ist man nicht damit einverstanden, dass solche gentechnisch veränderten Lebensmittel nicht als solche ausgewiesen werden müssen.

Aber die Gentechnik ist schon weit vorangeschritten. Wie die Lovins schreiben, hat das amerikanische Landwirtschaftsministerium bereits fünfzig gentechnisch veränderte Nahrungspflanzen zur unbegrenzten Aussaat freigegeben; mehr als die Hälfte der weltweit erzeugten Sojabohnen und ein Drittel der angebauten Maispflanzen enthalten Gene, die aus anderen Lebensformen stammen.

Die Gentechnik wirft viele wichtige Fragen auf; meine Sorge gilt eher einem besonderen Aspekt, der Gefahr nämlich, dass sie die Möglichkeit bieten könnte, zufällig, aus militärischen Gründen oder bewusst im Sinne eines Terroranschlags eine Weiße Pest auszulösen.

Einen Ausblick auf die zahlreichen wunderbaren Möglichkeiten der Nanotechnologie gab erstmals 1959 der Physiker und Nobelpreisträger Richard Feynman in einem Vortrag, der später unter dem Titel  "There's Plenty of Room at the Bottom" veröffentlicht wurde. Besonders beeindruckt hat mich Mitte der achtziger Jahre Eric Drexlers Buch "Engines of Creation", in dem er sehr schön beschreibt, wie man durch die Manipulation der Materie auf atomarer Ebene eine utopische Zukunft schaffen kann, in der Überfluss herrscht, weil man nahezu alles billig zu produzieren vermag und in der die Nanotechnologie im Verein mit der Künstlichen Intelligenz fast alle Krankheiten und körperlichen Probleme zu lösen imstande ist.

Ein späteres Buch: "Unbounding the Future" (auf Deutsch erschienen unter dem Titel „Experiment Zukunft: die nanotech-noiogische Revolution"), das Drexier zusammen mit Chris Peterson und Gayie Per-gamit verfasste, geht näher auf einige Veränderungen ein, wie sie durch „Assembler", die auf molekularer Ebene arbeiten, herbeigeführt werden könnten. Solche „Monteure" könnten Solarenergie zu unglaublich niedrigen Kosten gewinnen, Krebs und gewöhnliche Erkältungen durch eine Stärkung des menschlichen Immunsystems heilen, die Umwelt vollständig von Schadstoffen befreien, billigste Supercomputer im Taschenformat und überhaupt so ziemlich alles zu den denkbar niedrigsten Kosten herstellen. Raumflüge so selbstverständlich machen, wie Interkontinentalflüge es heute schon sind, und schließlich auch ausgestorbene Arten wieder zum Leben erwecken.

Ich erinnere mich, dass ich mich nach der Lektüre von "Engines of Creation" sehr wohl fühlte. Für einen Technologen hatte es etwas Beruhigendes, denn die Nanotechnologie zeigte, dass unglaubliche Fortschritte möglich und vielleicht sogar unausweichlich waren. Wenn die Nanotechnologie unsere Zukunft war, bestand gar kein Grund für mich, so viele Probleme in der Gegenwart mit solcher Hast anzugehen. Drexlers utopische Zukunft würde in angemessener Zeit Wirklichkeit werden; ich konnte mein Leben geradeso gut hier und jetzt genießen. Angesichts seiner Vision hatte es keinen Sinn, immer wieder ganze Nächte durchzuarbeiten.

Mit Drexlers Vision hatte ich auch einigen Spaß. Gelegentlich beschrieb ich anderen, die noch nichts davon gehört hatten, die Wunderwerke der Nanotechnologie. Und nachdem ich ihnen die Ohren voll geredet hatte, gab ich ihnen als Hausaufgabe auf, mit Hilfe der Nanotechnologie einen Vampir und zugleich auch ein geeignetes Gegenmittel zu schaffen.

Dass diese Wunderwerke auch deutliche Gefahren in sich bargen, war mir sehr wohl bewusst. 1989 sagte ich auf einer Tagung zur Nanotechnologie: „Wir können nicht einfach unserer Wissenschaft nachgehen und die ethischen Fragen ausblenden." Die Gespräche, die ich später mit Physikern rührte, brachten mich allerdings zu der Überzeugung, dass die Nanotechnologie möglicherweise gar nicht - oder jedenfalls nicht so bald - funktionieren würde. Kurz darauf zog ich nach Colorado, und der Schwerpunkt meiner Arbeit verlagerte sich auf Software fürs Internet, vor allem auf Ideen, aus denen später Java und Jini hervorgingen.

Dann, im vergangenen Sommer, erzählte mir Brosi Hasslacher, dass die Molekularelektronik auf Nanoebene das Stadium praktischer Realisierung erreicht hat. Das war neu für mich, und ich denke, für viele andere auch. Diese Nachricht veränderte meine Einstellung gegenüber der Nanotech-noiogie grundlegend. Als ich Drexlers „En-gines of Creation" nach mehr als zehn Jahren nochmals las, erschrak ich, wie wenig ich doch von dem langen Abschnitt über Gefahren und Hoffnungen" behalten hatte; unter anderem hatte er dort beschrieben, dass die Nanotechnologie auch zur Herstellung von „Zerstörungsmaschinen" genutzt werden kann. Wenn ich diese warnende Abschnitte heute lese, bin ich erstaunt, wie naiv Drexlers Vorschläge für Sicherheitsvorkehrungen wirken; auch sind die Gefahren nach meiner heutigen Einschätzung sehr viel größer, als er damals offenbar glaubte. (Nachdem Drexler zahlreiche technische und politische Probleme im Zusammenhang mit der Nanotechnologie vorausgesehen und beschrieben hatte, gründete er in den späten achtziger Jahren das Foresight Institute, das dazu beitragen soll, "die Gesellschaft auf fortgeschrittene Technologien vorzubereiten", und insbesondere auf die Nanotechnologie.)

Der Durchbruch zur Konstruktion der "Assembler" dürfte mit einiger Wahrscheinlichkeit in den nächsten zwanzig Jahren erfolgen. Die Molekularelektronik -das neue Teilgebiet der Nanotechnologie, in dem einzelne Moleküle als Schaltelemente füngieren - wird sich wohl sehr schnell entwickeln und noch in diesem Jahrzehnt ausgesprochen lukrativ werden, so dass immer größere Investitionen in diesen Bereich fließen dürften.

Wie die Kerntechnik, so lässt sich leider auch die Nanotechnologie leichter für zerstörerische als für konstruktive Zwecke nutzen. Die Nanotechnologie bietet leicht erkennbare militärische und terroristische Anwendungsmöglichkeiten, und man braucht nicht einmal ein Selbstmörder zu sein, um destruktive nanotechnische Instrumente massiv einzusetzen, denn diese Instrumente lassen sich so konstruieren, dass sie ihre Zerstörungskraft selektiv entfalten und zum Beispiel nur bestimmte Regionen oder bestimmte Menschen mit spezifischen genetischen Merkmalen treffen.

Der Preis des faustischen Handels, der uns die Nanotechnologie beschert, ist ein schreckliches Risiko, die Gefahr nämlich, dass wir die Biosphäre zerstören, von der alles eben abhängt.

Die Technologien, die in den atomaren, biologischen und chemischen Massenvernichtungswaffen des zwanzigsten Jahrhunderts Anwendung finden, waren und sind weitgehend militärischen Charakters und wurden in staatlichen Forschungseinrichtungen entwickelt. In deutlichem Gegensatz dazu handelt es sich bei Gentechnik, Nanotechnologie und Robotik um kommerziell genutzte Technologien, die fast ausschließlich von privaten Unternehmen entwickelt werden. In unserer Zeit eines triumphierenden Kommerzialismus liefert die Technologie - unter Zuarbeit der Wissenschaft - eine Reihe nahezu magischer Erfindungen, die Gewinne unerhörten Ausmaßes versprechen. Aggressiv folgen wir den Versprechen dieser neuen Technologien innerhalb eines entfesselten, globalisierten Kapitalismus mit seinen vielfältigen finanziellen Anreizen und seinem Wettbewerbsdruck.

Wir hätten aus dem Bau der ersten Atombombe und dem atomaren Wettrüsten, das darauf folgte, etwas lernen sollen. Wir haben damals große Fehler gemacht, und die Parallelen zur gegenwärtigen Situation sind beängstigend. Wie groß sind die Gefahren, die uns heute drohen, nicht nur von Atomwaffen, sondern von all diesen Technologien? Wie groß ist das Risiko, dass wir uns selbst ausrotten?

Der Philosoph John Leslie ist dieser Frage nachgegangen und dabei zu dem Schluss gelangt, dass die Gefahr einer Austöschung der menschlichen Art bei dreißig Prozent liegt, während Ray Kurzweil unsere Chance auf ein wenig mehr als 50:50 veranschlagt, wobei er allerdings einräumt, man sage ihm nach, ein unverbesserlicher Optimist zu sein. Diese Schätzungen sind nicht ermutigend, dabei berücksichtigen sie nicht einmal die Wahrscheinlichkeit vieler schrecklicher Szenarien, die nur in die Nähe einer Auslöschung kommen.

Angesichts solcher Aussichten raten manche uns ernsthaft, die Erde möglichst bald zu verlassen. Wir sollen mit Von-Neu-mann-Sonden die Milchstraße kolonisieren und von einem Sonnensystem zum nächsten hüpfen. Dieser Schritt wird in etwa fünf Milliarden Jahren unvermeidlich sein (oder auch früher, wenn unserer Milchstraße in etwa drei Milliarden Jahren mit der Andro-meda-Galaxis kollidiert), doch wenn wir Kurzweil und Moravec beim Wort nehmen, könnte er schon in der Mitte dieses Jahrhunderts erforderlich werden.

Welche moralischen Implikationen wären mit solch einem Schritt verbunden? Falls wir die Erde so bald schon verlassen müssen, um den Fortbestand der menschlichen Art zu sichern, wer übernimmt dann die Verantwortung für das Schicksal der Zurückbleibenden (und das werden die meisten sein)? Und selbst wenn wir zu den Sternen flüchten, ist es nicht wahrscheinlich, dass wir die Probleme mit uns nehmen oder dass sie uns folgen? Unser Schicksal auf der Erde und unser Schicksal in der Galaxis scheinen unlösbar miteinander verbunden.

Nach einer anderen Idee soll eine Reihe von Abwehrschilden gegen die Gefahren der einzelnen Technologien errichtet werden. Die von der Reagan-Administration vorgeschlagene Strategic-Defence-Initiati-ve war ein Versuch, solch einen Schild gegen einen möglichen atomaren Angriff der Sowjetunion zu schaffen. Arthur C. Clarke, der an vielen vertraulichen Diskussionen zum Thema beteiligt war, sagte dazu: „Obwohl es möglich schien, unter gewaltigen Kosten ein lokales Verteidigungssystem zu schaffen, das ,nur' einen kleinen Prozentsatz der ballistischen Raketen durchließ, war der viel gerühmte nationale Schutzschirm Unsinn. Luis Alvarez, der wohl größte Experimentalphysiker unseres Jahrhunderts, sagte mir einmal, die Anhänger solcher Vorstellungen, seien ,sehr kluge Köpfe ohne jeden gesunden Menschenverstand'."

Clarke meinte weiter: "Wenn ich in meine oft getrübte Kristallkugel schaue, nehme ich an, dass ein vollständiges Verteidigungssystem vielleicht in hundert Jahren möglich sein wird. Aber die dafür erforderliche Technologie würde als Nebenprodukt so schreckliche Waffen hervorbringen, dass niemand mehr einen Gedanken an etwas so Primitives wie ballistische Raketen verschwenden würde."

In "Engines of Creation" macht Drexler den Vorschlag, einen aktiven nanotechnolo-gischen Schild - eine Art Immunsystem für die Biosphäre - zu schaffen, um uns vor gefährlichen Replikatoren jeglicher Art zu schützen, die aus Labors entkommen oder in bösartiger Absicht freigesetzt werden könnten. Aber der Schild, den er vorschlägt, wäre gleichfalls mit gewaltigen Gefahren verbunden, weil niemand ausschließen konnte, das& er AutoH&munproMeme auslöste und die Biosphäre seinerseits angriffe.

Auf ähnliche Schwierigkeiten stieße die Konstruktion von Schutzschilden gegen Robotik oder Gentechnik. Diese Technologien sind zu mächtig, als dass wir uns in der zur Verfügung stehenden Zeit vor ihnen schützen könnten. Und selbst wenn wir solche Schutzschilde entwickeln könnten, wären die Nebenwirkungen ihrer Entwicklung mindestens ebenso gefährlich wie die Technologien, vor denen sie uns schützen sollen.

Diese Möglichkeiten sind also sämtlich entweder nicht wünschenswert oder nicht realisierbar oder beides zugleich. Die einzig realistische Alternative, die ich sehe, lautet Verzicht: Wir müssen auf die Entwicklung allzu gefährlicher Technologien verzichten und unserer Suche nach bestimmten Formen des Wissens Grenzen setzen.

Mit der Gentechnik, der Nanotechnoio-gie und der Robotik öffnen wir eine neue Büchse der Pandora, aber offenbar ist uns das kaum bewusst. Ideen lassen sich nicht wieder zurück in eine Büchse stopfen; anders als Uran oder Plutonium müssen sie nicht abgebaut und aufgearbeitet werden, und sie lassen sich problemlos kopieren. Wenn sie heraus sind, sind sie heraus. Churchill meinte einmal in seiner unnachahmlichen Art, die Amerikaner täten immer das Richtige, nachdem sie alle anderen Alternativen sorgfältig geprüft hätten. In diesem Fall jedoch müssen wir mehr Voraussicht walten lassen; wenn wir das Richtige erst am Schluss tun, könnte es schon zu spät sein, überhaupt noch etwas zu tun.

Ich denke tatsächlich, die Situation war 1945 einfacher als heute. Bei den Nukleartechnologien konnte man kommerzielle und militärische Nutzung hinreichend klar voneinander trennen; die Überwachung war nicht schwer, weil Atomtests sehr auffällig sind und Radioaktivität leicht gemessen werden kann. Die militärische Forschung lag in den Händen staatlicher Forschungseinrichtungen wie Los Alamos, so dass die Ergebnisse sehr lange geheim gehalten werden konnten.

Bei Gentechnik, Nanotechnologie und Robotik dagegen lassen kommerzielle und militärische Anwendung sich nur schwer trennen; angesichts ihres ökonomischen Potentials kann man sich kaum vorstellen, dass nur staatliche Forschungseinrichtungen sich mit ihnen befassten. Angesichts ihrer kommerziellen Bedeutung erforderte ein Verzicht Überwachungssysteme, wie man sie für biologische Waffen geschaffen hat, nur dass sie in diesem Fall ganz andere Größenordnungen annehmen müssten. Dadurch entstünden unvermeidlich Spannungen zwischen der Notwendigkeit einer unserem Schutz dienenden Überwachung und der Privatsphäre sowie dem Anspruch auf private Verfügungsgewalt über Informationen. Gegen diesen Verlust an Freiheit wird es ohne Zweifel starke Widerstände geben.

Viele Menschen, die von den Gefahren wissen, bleiben weiterhin schweigsam. Ich weiß nicht, wo diese Menschen ihre Angst verstecken.

Meine Begegnung mit Ray Kurzweil und John Searle liegt jetzt mehr als ein Jahr zurück. Wenn ich mich umschaue, sehe ich einige Gründe zur Hoffnung: in mahnenden Stimmen, die zu Vorsicht und Verzicht raten; in Menschen; die wie ich besorgt sind. Auch fühle ich mich persönlich verantwortlich - nicht für die Arbeit, die ich schon getan habe, sondern für die Arbeit, die ich möglicherweise noch leisten werde an der Schnittstelle mehrerer Wissenschaften.

Doch viele Menschen, die um die Gefahren wissen, bleiben schweigsam. Spricht man sie darauf an, heißt es, das sei doch alles nicht neu - als wäre das Wissen um die möglichen Entwicklungen bereits Reaktion genug. Sie sagen, die Universitäten seien doch voll von Biochemikern, die sich den ganzen Tag mit diesen Dingen beschäftigen. Sie sagen, darüber sei doch schon genug geschrieben worden, von Fachleuten, die Bescheid wüssten. Sie klagen, meine Sorgen und Argumente seien ein alter Hut.

Ich weiß nicht, wo diese Menschen ihre Angst verstecken. Als Architekt komplexer Systeme betrete ich diese Arena ohne Vorurteile. Sollte ich deswegen weniger besorgt sein? Ich weiß, dass aus berufenem Mund schon viel darüber geredet worden ist. Aber hat es die Menschen erreicht?

Meine Hoffnung richtet sich auf eine breite Diskussion der von mir hier angesprochenen Fragen. Eine Diskussion mit Menschen aus den verschiedensten Lebensbereichen und in einem Klima, das weder durch Technikangst noch durch blindes Vertrauen in die Technik geprägt ist.


Frankfurter Allgemeine Zeitung -- Feuilleton Samstag, 10. Juni 2000, Nr. 134 / Seite 41


Bill Joy
Massenauftritt in San Francisco

Unter dem Beifall von mehr als elftausend Zuhörern und in der Atmosphäre eines Rockkonzerts hat Bill Joy, Cybervisionär und Chefwissenschaftler von Sun Microsystems, abermals eine heute noch kaum vorstellbare Steigerung der Computerkraft vorausgesagt. Bevor eine physische Grenze erreicht werde, so sagte Joy vor Tausenden von Softwareentwicklern aus aller Welt, sei aufgrund enormer Fortschritte in der Molekularelektronik und Nanotechnologie noch dreißig Jahre lang eine ungeheure Entwicklungsgeschwindigkeit garantiert. Die immer komplexeren und muskulöseren Geräte würden zudem immer billiger. Zu Buche schlügen vor allem Kosten des Vertriebs und Managements. Dennoch versprach Joy den gebannt lauschenden Programmentwicklern „enorme Geschäftsmöglichkeiten“ und stellte ihnen in Aussicht, „lots of money“ zu verdienen. Von der Kehrseite der Medaille (F.A.Z. vom 6. Juni) diesmal aber kein Wort, die apokalyptische Warnung blieb aus. Die frohe Botschaft, die Joy einer Gemeinde überbrachte, die hier nach Zigtausenden und weltweit nach Millionen zählt, wurde nur durch seine zurückhaltende, jede Gefühlsregung meidende Präsentation eingeschränkt. Im gigantischen Betonpalast des Moscone Center stand der noch jungenhaft wirkende Computerguru mit der leicht melancholischen Miene dann auch fast ein wenig verlassen auf einer Bühne. Dennoch war klar, wer der Star war. J.M.



Druecken Sie den ZURÜCK-knopf in Ihrem Browser oder klichen Sie hier, um zurück zur Übersicht zu gelangen.