Travels

to the

Nanoworld

Travels to the Nanoworld. Miniature Machinery in Nature and Technology
Hardback: Perseus Books, Cambridge, MA, May 1999,
ISBN 0-306-46008-4, $ 25.95 , 254 + xiii pp.
Paperback: Perseus Books January 2001, ISBN 0-738-20444-7, $ 16.00, 254 + xiii pp.

 

I. Einführung: Willkommen in der Nanowelt

 

Einen Motor, der nur einige hunderttausendstel Millimeter mißt und läuft und läuft und läuft. Einen Datenspeicher, der auf einem tausendstel Millimeter sieben Megabyte aufnehmen kann. Einen Katalysator, der den reaktionsträgen Stickstoff aus der Luft bei Zimmertemperatur und Atmosphärendruck in Ammoniak umwandeln kann.

Solche und ähnliche heute noch unerhörte Dinge mag sich manch einer von den Zukunftstechnologien erhoffen, die sich auf die der Größenskala im Nanometerbereich ansiedeln und deshalb unter dem Sammelbegriff "Nanotechnologie" zusammengefaßt werden. Die Vorsilbe "nano" heißt eigentlich nichts weiter als "ein milliardstel", oder, mathematisch ausgedrückt, 10--9. Ein Nanometer ist demnach ein milliardstel Meter oder ein millionstel Millimeter (Abb. 1).

Es geht also um komplizierte und leistungsfähige Maschinen, die nur einige millionstel Millimeter groß sein dürfen. Undenkbar? Keineswegs, denn die Evolution hat diese Aufgabe schon längst gelöst. Der Motor -- ein System aus den Proteinen Actin und Myosin -- treibt unsere Muskeln an. Der Datenspeicher -- ein Chromosom, d.h. ein vielfach verwundenes und verknäultes Molekül des Erbmaterials DNA -- bestimmt unsere genetische Identität. Und der Katalysator -- ein Enzym namens Nitrogenase -- ist die Spezialität der Knöllchenbakterien, die mit Hülsenfrüchtern in Symbiose leben und diese mit Dünger direkt aus der Luft versorgen.

Dies sind nur drei Beispiele aus den unendlich vielen kniffligen technischen Problemen, die lebende Zellen scheinbar mühelos bewältigen. Das zugrundeliegende Konstruktionsgeheimnis, das sich offenbar in 3 Milliarden Jahren Evolutionsgeschichte so bewährt hat, daß wir keine andere Lebensform kennen oder uns auch nur vorstellen können, ist das Baukastenprinzip. Die Nanotechnologie der Natur verwendet Kettenmoleküle, die aus einer geringen Zahl einheitlich kleiner Bausteine nach Maß zusammengesetzt werden können. Die gesamte Datenverarbeitung der Erbinformation kommt mit dem vier-Buchstaben-System aus, und die meisten Funktionen der lebenden Zelle werden von Proteinen ausgeführt, die ausschließlich oder hauptsächlich aus einem Satz von 20 Aminosäuren aufgebaut sind. Wir wollen diese "natürlichen Nanomaschinen" einmal näher betrachten und sehen, inwieweit sie bei der Entwicklung neuer Technologien als Vorbild dienen oder zumindest Anregungen und Ideen liefern können.

 

 

Moleküle: Ohne sie gäbe es kein Leben

Atome, die "Unteilbaren" werden allgemein als die Grundbausteine der Materie betrachtet. Zwar kann man sie unter extremen Bedingungen -- etwa in einem Kernreaktor oder Teilchenbeschleuniger -- zerlegen oder miteinander verschmelzen, doch im Hausgebrauch sind sie tatsächlich unteilbar. (Allenfalls kann man ihnen in einer chemischen Reaktion einige ihrer Elektronen entreißen, doch dadurch ändert sich ihre Masse nicht nennenswert.) Die physikalischen Eigenschaften der Atome bestimmen, ob und wie sie sich zu Molekülen zusammenschließen können. Bildung, Eigenschaften und Umwandlung von Molekülen zu beschreiben ist Aufgabe der Chemie -- ohne Atome keine Chemie.

Moleküle ihrerseits können nur zwei oder aber viele tausend Atome enthalten. Im letzteren Fall spricht man von Makromolekülen, auch wenn diese immer noch so klein sind, daß man sie im Lichtmikroskop nicht sehen kann. Im Gegensatz zu den eintönigen, aus endlos vielen gleichen Einheiten aufgebauten Makromolekülen der Kunststoffe (Polyethylen, Polyvinylchlorid, etc.), den sogenannten Homopolymeren, enthalten Heteropolymere verschiedene Bauelemente. Sie können in der Abfolge ihrer Bausteine Information speichern, und sie können eine Funktion erfüllen. Diese beiden Eigenschaften qualifizieren sie als Bausteine des Lebens -- ohne Moleküle kein Leben.

Wie klein sind denn nun Atome und Moleküle? Atome lassen sich kaum ausmessen, da sich ihre Elektronenwolke theoretisch beliebig weit in den Raum erstreckt. Nimmt man jedoch in einem Molekül aus zwei gleichen Atomen den halben Abstand der Atomkerne als Maßstab für den Radius, so sind alle Atome kleiner als ein Nanometer. Nach dieser Definition beträgt zum Beispiel der Durchmesser eines Wasserstoffatoms 0.06 nm, der des 32 mal so schweren Schwefelatoms 0.20 nm. Kleine Moleküle können wenige Nanometer messen, Makromoleküle können im ausgestreckten Zustand Mikrometer lang werden, im verknäuelten Zustand beträgt ihr Durchmesser typischerweise 10 bis 100 Nanometer (Abb.1).

In diesem Größenbereich können die Makromoleküle der lebenden Zelle Information speichern, weiterreichen und in Funktion umsetzen. Die Desoxyribonukleinsäure (DNA), vermutlich das prominenteste Molekül unserer Zeit, ist für die Information zuständig, die Proteine führen die Funktion aus. Ribonukleinsäure (RNA) kann beides und gilt deshalb vielen Wissenschaftlern als aussichtsreicher Kandidat für die Rolle des Urmoleküls, das vor der Entwicklung der komplizierten DNA-RNA-Protein-Maschinerie die Evolution des Lebens überhaupt ermöglichte.

Diese Moleküle agieren in der Regel als selbständige Maschinen in dem nanotechnologischen Großbetrieb der lebenden Zelle -- einige Beispiele hierfür werden in Teil II näher erläutert. Im Gegensatz dazu haben wir Menschen in der Vergangenheit Moleküle stets nur in großer Zahl verwendet. Eine wäg- und sichtbare Menge eines in Trockensubstanz vorliegenden mittelgroßen Proteins, z.B. 1 Milligramm des Enzyms Uricase, das zur Bestimmung der Harnsäurekonzentration im Blut eingesetzt wird, enthält etwa 6 Billiarden Moleküle, die in der Regel, wenn wir das Protein in einem diagnostischen Test einsetzen, alle dasselbe tun.

Um Maschinen im Nanometermaßstab konstruieren zu können, müssen wir Makromoleküle aufbauen, die ähnlich effizient sind wie die biologischen, und wir müssen sie für voll nehmen, d.h. wir müssen lernen, einzelnen Molekülen eine Aufgabe zuzuteilen, und deren Erfüllung abzufragen. Von den ersten Vorstößen in dieser Richtung handelt Teil III dieses Buches.

Doch mit der Zusammenfügung der Atome zu Makromolekülen allein erhalten wir noch keine Nanomaschinen. Deren Stärke liegt nämlich (unter anderem) in den schwachen Wechselwirkungen.

 

 

Wechselwirkungen: Die Schwächsten setzen sich durch

Mit dem klassischen Repertoire der organischen Chemie, die sich damit beschäftigt, Bindungen zwischen Atomen (hauptsächlich Kohlenstoff, aber auch Wasserstoff, Sauerstoff, Stickstoff und andere) so zu bilden und zu brechen, daß sich neuartige oder interessante Moleküle bilden, könnte man noch keine lebende Zelle nachbauen. So wichtig diese chemischen (kovalenten) Bindungen für die Synthese der Makromoleküle auch sind, bleiben sie doch für viele essentielle Vorgänge im Alltagsleben der Zelle zu starr und unflexibel. Eine stabile kovalente Bindung zu brechen erfordert oft die Verwendung eines Katalysators, eines großen Überschusses eines Reaktionspartners, oder -- im Labor -- hohe Temperaturen und spezielle nichtwäßrige Lösungsmittel.

Die Natur behilft sich mit der Nutzung einer Vielfalt sogenannter schwacher Wechselwirkungen (Abb. 2). Dazu zählen hauptsächlich

-- die Wasserstoffbrückenbindung (der wir unter anderem auch den ungewöhnlich hohen Siedepunkt des Wassers, und damit eine weitere Voraussetzung für die Entstehung des Lebens auf der Erde verdanken),

-- die elektrostatische Anziehung zwischen gegensätzlich geladenen Molekülteilen (Salzbrücken),

-- die van-der-Waals Anziehung zwischen der negativ geladenen Elektronenwolke eines Atoms und dem positiven Kern eines anderen, sowie

-- die Zusammenballungstendenz fettartiger, wassermeidender Molekülteile, die sogenannte hydrophobe Wechselwirkung (siehe Teil II, Kap. 2).

Wasserstoffbrücken halten zum Beispiel die Doppelhelix der DNA zusammen, und die lokalen Helix- und Faltblatt- Unterstrukturen der Proteine. Salzbrücken dienen oft der Bindung geladener Substrate an ein Enzym. Van-der-Waals-Wechselwirkungen können aufgrund ihrer kurzen Reichweite und geringen Stärke nur dort wirken, wo Molekülteile in komplementärer Paßform "einrasten". Die hydrophobe Wechselwirkung schließlich hält die Membranen aus Lipid-Doppelschichten zusammen, welche jede lebende Zelle von der Außenwelt abgrenzen, sowie in vielen Zellen auch Unterabteilungen ("Organellen") definieren. Sie ist auch die wesentliche treibende Kraft, die Proteine bei physiologischer Temperatur in dem kompakten, zu komplizierten Überstrukturen gefalteten Zustand hält, den diese zur Ausübung ihrer jeweiligen Funktion benötigen.

Alle diese Bindungen können durch Variation der Bedingungen leicht geöffnet und wieder geschlossen werden, was oft eine Voraussetzung für die Funktion der biologischen Makromoleküle ist. Damit zum Beispiel die DNA "gelesen", also zu RNA oder neuer DNA umgeschrieben werden kann, muß die Doppelhelix-Struktur an der Stelle, die gerade gelesen wird, aufgelöst werden. Damit das Sauerstoff-Speicherprotein des Muskels, Myoglobin, Sauerstoff aufnehmen oder abgeben kann, muß es seine Struktur lokal umordnen, um einen Kanal zu öffnen, der die Bindungsstelle mit der Außenwelt verbindet. Doch nicht nur für diese schnellen, lokalen Umordnungsprozesse sind die schwachen Wechselwirkungen lebensnotwendig. Sie ermöglichen außerdem die Zusammenlagerung makromolekularer Komponenten zu hochkomplizierten Systemen ohne Unterstützung durch andere Moleküle, die nicht Bestandteil des aufzubauenden Systems sind, die Selbstorganisation.

 

 

Selbstorganisation: Gemeinsam sind wir stark

Die Fabrik, in der das Darmbakterium Escherichia coli seine Proteine herstellt, das bakterielle Ribosom, besteht aus einer großen und einer kleinen Untereinheit, die insgesamt drei RNA-Moleküle und 52 verschiedenen Proteine enthalten. Obwohl Dutzende von Arbeitsgruppen in aller Welt seit mehr als zwei Jahrzehnten versuchen, den genauen Aufbau und die Funktionsweise des Ribosoms zu entschlüsseln, ist dies bis heute noch nicht vollständig gelungen Nimmt man es auseinander und reinigt die einzelnen Komponenten, so hat man am Ende 55 Töpfchen mit je einer Sorte Moleküle in wäßriger Lösung. Schüttet man nun alle Töpfchen, die mit einem S für "small subunit", die kleinere Untereinheit des Ribosoms, markiert sind, wieder zusammen, so bildet sich die funktionsfähige kleine Untereinheit wie von selbst. Bei der großen Untereinheit muß man in zwei Schritten vorgehen, d.h. erst die RNA mit einer bestimmten Teilgruppe der Proteine mischen, und dann die übrigen Proteine zufügen, um die Untereinheit wiederherzustellen. Gibt man schließlich die beiden Untereinheiten zusammen, so erhält man vollständig funktionsfähige Ribosomen. Und das ausschließlich durch vier Mischvorgänge, ohne irgendeine Stütze, oder ein Hilfsmittel, das die Bildung bestimmter Strukturen oder Wechselwirkungen begünstigt hätte.

Dieses spektakuläre, aber keineswegs einzigartige Beispiel zeigt ein wichtiges Prinzip der Nanotechnologie des Lebens auf. Die Maschinenteile sind so konstruiert, daß sie von selbst funktionsfähige Maschinen bilden. Es bedarf keines Baumeisters, keines Plans, keines Gerüsts -- die Strukturen tragen ihre Bestimmung schon in sich. Ähnlich lassen sich komplette Viren, etwa Tabakmosaikvirus (TMV; Abb. 3), oder Mikrotubuli, die röhrenförmigen Fasern des Zellskeletts, rekonstituieren.

Ein Beispiel, wie sich Forscher das Prinzip der Selbstorganisation erfolgreich zu eigen gemacht haben, um einen künstlichen Ionenkanal zu konstruieren, ist in Kapitel III.1. beschrieben. Doch, obwohl die Rekonstitution natürlicher Systeme, die sich wie das Ribosom von selbst zusammenfügen ("Assembly-Systeme") bereits vor Jahrzehnten im Reagensglas nachvollzogen werden konnte (TMV: 1972, kleine ribosomale Untereinheit: 1968, große Untereinheit: 1974), ist die Nutzung dieses Phänomens für synthetische Systeme nur selten versucht worden, und die Wissenschaft der schwachen Wechselwirkungen, die supramolekulare Chemie, steckt noch in den Kinderschuhen (Kap. III.1.).

Nachdem es so einfach war, die Maschinerie der Zelle zusammenzubauen, oder, ihr zuzuschauen, wie sie sich selbst zusammenbaut, wollen wir einmal sehen, was diese Wunderdinger denn eigentlich machen.

 

 

Katalyse: Chemische Reaktionen, schnell und exakt

Proteine können der Strukturbildung oder dem Transport kleiner Moleküle dienen, doch die allermeisten von ihnen beschleunigen (katalysieren) eine chemische Reaktion. In Extremfällen können sie Reaktionen, die in Abwesenheit eines Katalysators Millionen Jahre benötigen würden, in Bruchteilen von Sekunden ablaufen lassen. Proteine mit einer katalytischen Funktion bezeichnet man als Enzyme. Nachdem jahrzehntelang das Dogma bestand, daß die Rolle der Biokatalysatoren ausschließlich von Proteinen wahrgenommen wird, entdeckte man in den achtziger Jahren auch Katalysatoren, die ausschließlich RNA enthalten, die sogenannten Ribozyme.

Warum braucht die Zelle Enzyme? Zunächst einmal, um die Produktionsprozesse in ihrer chemischen Fabrik zu steuern. Katalysatoren können definitionsgemäß nicht die Richtung einer Reaktion bestimmen -- sie beschleunigen lediglich die Einstellung des durch die Umgebungsbedingungen und die chemische Natur der Reaktionspartner definierte Gleichgewicht (Abb. 4). Doch auch mit diesem scheinbar bescheidenen Einfluß können sie enorm viel erreichen. Zum Beispiel, indem sie aus einer Reihe von verschiedenen Reaktionen, die eine Substanz eingehen könnte, nur eine katalysieren. Auf diese Weise kann ein spezifischer Katalysator -- und Enzyme sind die spezifischsten Katalysatoren, die wir kennen, -- das Produktspektrum einer gegebenen Reaktionsmischung völlig verändern.

Enzyme können auch Reaktionen miteinander koppeln. Auf diese Weise können Reaktionen, die energetisch ungünstig wären und deshalb nicht von alleine ablaufen würden, etwa die Synthesen der Makromoleküle, mit einer energieliefernden Reaktion, etwa der Spaltung einer energiereichen Verbindung, angetrieben werden.

Viele Enzyme übertreffen die entsprechenden technischen Katalysatoren in ihrer Leistungsfähigkeit um Größenordnungen. So gibt es bis heute keinen technischen Katalysator, der die Ammoniaksynthese bei Atmosphärendruck und gemäßigter Temperatur betreiben könnte, wie es die Nitrogenase der Knöllchenbakterien tut.

Manche Enzyme werden im Haushalt eingesetzt, etwa bei der Quarkbereitung, zur Fleckentfernung oder im Waschmittel. Im Kosmetikbereich werden proteinabbauende Enzyme (Proteinasen) eingesetzt, und die kalt gelegte Dauerwelle kommt mit Hilfe eines Harnstoff abbauenden Enzyms (Urease) zustande.

Manche Enzyme haben in den Forschungslabors ihre eigenen Anwendungsmöglichkeiten geschaffen, oft in Verfahren, die ohne sie überhaupt nicht denkbar werden. Die prominentesten Beispiele sind die Restriktionsendonukleasen, von Bakterien als Abwehrwaffe gegen Viren entwickelt, und im genetischen Labor für die Fragmentierung von Nukleinsäuren unentbehrlich, sowie die DNA-Polymerase thermophiler Bakterien, welche die Polymerase-Kettenreaktion (ja, genau -- die aus Jurassic Park), d.h. die exponentielle Vervielfältigung von DNA ausgehend von nur wenigen Molekülen, ermöglicht hat.

Und manche Enzyme werden bereits industriell eingesetzt, bisher hauptsächlich bei einfachen Reaktionen wie dem Abbau von Stärke zu Rohrzucker (Jahresumsatz 20 Millionen Tonnen; von dem dazu benötigten Enzym Amyloglucosidase werden jährlich 15000 Tonnen hergestellt!) oder der Vergärung von Kohlenhydraten zu Alkohol, ein Verfahren das in Brasilien forciert wird, um die Abhängigkeit des Landes von Erdölimporten zu verringern.

Enzymatische Prozesse gewinnen aber auch bei der Herstellung von Pharmaka und in der Lebensmittelverarbeitung zunehmend an Bedeutung.

Obwohl es Millionen verschiedener Enzyme in der Natur gibt, deren Nutzpotential noch lange nicht ausgeschöpft ist, wäre es für viel technische Anwendungen erstrebenswert, ähnlich spezifische Katalysatoren nach Maß herstellen zu können. Zum Beispiel um die Probleme mit der begrenzten Stabilität und Haltbarkeit von Proteinen zu umgehen. Verschiedene Ansätze zur Herstellung künstlicher Enzyme werden in Teil III, Kapitel 1 vorgestellt.

Doch um ihren Stoffwechsel nicht ins Chaos zu führen, muß eine Zelle nicht nur die chemischen Reaktionen steuern, sie muß sie auch räumlich organisieren.

 

 

Kompartimentierung: Ordnung ist das halbe Leben

Den ersten Schritt zur räumlichen Eingrenzung des Geflechts aus chemischen Reaktionen, das wir als Leben bezeichnen, stellt natürlich die Entwicklung der Zelle selbst dar. Mindestens eine Doppelschichtmembran, in vielen Fällen auch eine Zellwand, sowie weitere Schichten und Zwischenräume trennen die Zelle vom Rest der Welt und verhindern, daß wertvolle Stoffe wegdiffundieren, oder Schadstoffe aus der Umgebung unkontrolliert eindringen können.

Doch auch innerhalb der Zellen herrscht Ordnung. Wir sogenannten höheren Lebewesen zählen, vom Zelltyp her gesehen, zu den Eukaryonten. Das heißt, daß jede unserer Zellen einen echten Zellkern hat. Weitere Unterabteilungen (Organellen) der Eukaryontenzelle hören auf schwierige bis unaussprechliche Namen wie etwa Mitochondrion, Endoplasmatisches Retikulum, Golgi-Apparat etc. (Abb. 5).

Wichtig ist hier jedoch nur, daß die Zelle offenbar für verschiedene Funktionen abgegrenzte Bereiche aufweist, so wie wir unsere Häuser in Wohnzimmer, Schlafzimmer, Küche, Bad, Kinderzimmer, etc. unterteilen. Das erfordert gleichzeitig weitere Arten von Nanomaschinen und -strukturen. Die Abgrenzungen zwischen den Abteilungen müssen aufgebaut werden -- nach dem, was wir über Selbstorganisation erfahren haben, liegt die Vermutung nahe, daß dieses Prinzip auch hier am Werk ist, sodaß wir keine Baukräne oder Gerüste für die Errichtung der Zwischenwände brauchen. Sind die Wände einmal da, so brauchen wir außerdem Transportwege, um den Verkehr zwischen den Zimmern zu ermöglichen. Einfache Türen würden im Fall der Zelle wenig nützen, da es ja darum geht, den Verkehr zwischen den Räumen zu kontrollieren und zu steuern. Eine Art regulierbares Ventil mag genügen, wenn Dinge aus dem volleren Raum in den leereren gelangen sollen. Doch oft besteht das Problem darin, daß Verbindungen gegen den natürlichen Trend zur Gleichverteilung transportiert werden müssen. In diesem Fall bietet sich das Prinzip der Kopplung mit einem energieverbrauchenden Prozess an, das wir bei den Enzymen schon kennengelernt haben.

Innerhalb der einzelnen Zimmer, und auch innerhalb der weitaus weniger "aufgeräumten" Bakterienzelle hatte man lange ein chaotisches Umherschwimmen aller vorhandenen Stoffe vermutet. Es zeichnet sich jedoch ab, daß auch die in Lösung befindlichen Enzyme sich räumlich organisieren. Die Nanomaschinen sind sozusagen zu einer Fertigungsstraße aufgereiht, in der das Produkt von einem Schritt zum nächsten weitergereicht werden kann. So finden sich zum Beispiel in der Nähe der Ribosomen, welche die Proteine synthetisieren, oft auch die molekularen Chaperone, die deren Faltung überwachen (Kap. II.2.).

Erst vor kurzem (1994) gelang die Entwicklung einer Methode, Biomakromoleküle oder ähnlich komplexe Systeme, zumindest in zwei Dimensionen, mit Nanometer-Präzision genau anzuordnen. Diese Technik, über die im Teil III, Kapitel 2 Näheres zu erfahren ist, erlaubt es auch, ein biotechnologisches Fließband zu konstruieren, wo das Substrat jeweils ohne diffusionsbedingte Zeit- und Stoff-Verlust von einem bearbeitenden Enzym zum nächsten weitergereicht wird.

Schließlich wollen wir, obwohl wir uns mit der Betrachtung ganzer Zellen schon verdächtig weit in den Mikrometermaßstab hinaufgewagt haben, noch einen Blick aufs große Ganze werfen.

 

 

Evolution: Vom Molekül zum Organismus

Vom Urknall bis zur Entstehung der Pflanzen und Tiere läßt sich eine Linie der zunehmenden Organisation immer größerer Zusammenhänge ziehen -- subatomare Partikel zu Atomen, Atome zu kleinen Molekülen, diese zu Makromolekülen, Makromolekülen zu Zellen und Zellen zu Vielzellern. Dabei wird die Größenskala von Femtometer (ein billionstel oder 10--12 Meter) bis zu etwa 30 m durchlaufen, wenn wir etwa an Blauwale oder Dinosaurier denken. Die Evolutionstheorie stellt eine schlüssige Verbindung für den größten Teil des Weges her, mindestens von dem ersten Makromolekül, das seine eigene Vervielfältigung bewerkstelligen konnte, -- möglicherweise eine einfache Variante der heutigen RNA -- bis zu den heutigen Lebewesen, also vom Nanometer- bis zum Meter-Maßstab, und von der Urzeit des Lebens auf der Erde (drei Milliarden Jahre vor unserer Zeit) bis heute.

Manche Forscher glauben sogar, daß das Wirken der Evolutionsprinzipien Mutation und Selektion zeitlich noch weiter zurück und räumlich in noch kleinere Dimensionen reicht. Demzufolge wären Baufehler in den sonst regelmäßigen Kristallgittern gewisser Tonmineralien die erste Form von "Erbinformation" gewesen. Demnach hätte sozusagen eine Vor-Evolution im Reich der Atome und anorganischen Festkörper stattgefunden, auf der die später entstandenen Makromoleküle aufbauen konnten. Auch die verblüffenden Fähigkeiten der Zellen und Proteine bei der Steuerung der Abscheidung von Mineralien in kristalliner oder amorpher Form (Kap. II.1.) solche Überlegungen plausibel erscheinen.

Der letzte Schritt, von der Zelle zum komplizierten Organismus, gehört eigentlich nicht mehr zu unserem Nano-Thema. Es sei jedoch kurz darauf hingewiesen, daß bei der Kommunikation zwischen Zellen, die ja im Vielzeller nötig ist und im großen Umfang stattfindet, ebenfalls ein Bereich der "natürlichen Nanotechnik" ist, von dem sich die menschlichen Informationswissenschaftler und Computertechniker noch einiges abschauen könnten.

Die Rundruf-Funktion ("Großhirn an alle") wird oft durch Hormone und die dazugehörigen Rezeptoren ausgeübt. Selbstorganisation ist hier wieder im Spiel, wenn sich ein Rezeptorkomplex in die Membran einlagert; Sulbstraterkennung und schwache Wechselwirkungen sind vonnöten, wenn das Hormon an den Rezeptor bindet, und dieser dann eine Folgereaktion auslöst.

Für ortsgerichtete Informationsübertragung hat unser Körper sein eigenes Telephon-Netz: das Nervensystem. Zusätzlich zu den bereits diskutierten Phänomenen spielen hier auch elektrische Ströme und Spannungen eine wichtige Rolle. Und, an der am meisten studierten und am besten verstandenen Stelle des Nervensystems, der Netzhaut des Auges, kommt Licht als zusätzliche Signalform hinzu. Signalumwandlung zwischen den Energieformen Licht, Elektrizität, und chemischer Energie auf der Größenskala der Zellrezeptoren ist sicherlich eines der Ziele für die Nanotechnologie.

 

 

Technik: Zurück zum Molekül

 

In einem gewissen Sinne gehen wir Menschen den Weg der Naturgeschichte vom Femtometer zum Meter jetzt wieder zurück. Die ersten Werkzeuge, die Menschen anfertigten und verwendeten, entsprachen in ihren Dimensionen unseren natürlichen Werkzeugen, den Händen und Armen. Obwohl frühe Kulturen bei der Errichtung großer Strukturen Erstaunliches leisteten, und, ohne es zu wissen, bereits Mikroorganismen zum Brotbacken und Bierbrauen einsetzten, gibt es keine Belege für die Untersuchung oder Manipulation des unsichtbar Kleinen. Atome waren zwar seit Demokrit ein philosophisches Postulat, sind aber über diesen Zustand mehr als 2000 Jahre lang nicht hinausgekommen.

Erst im 17. Jahrhundert verschaffte das Lichtmikroskop (1590 in Holland erfunden) zumindest Einblick in die Mikrowelt. Der Niederländer Antoni van Leeuwenhoek, seines Zeichens Krämer und ein krasser Außenseiter des Wissenschaftsbetriebs seiner Zeit, war der erste, der ein genügend stark vergrößerndes Mikroskop entwickelte, um die Welt der Mikroben zu entdecken (1675).

Die Fertigung kleiner Strukturen blieb bis ins 19. Jahrhundert hinein ein Privileg der Uhrmacher -- und die kamen meist mit einer Lupe aus, d.h. sie bewegten sich eher im Bereich der Zehntel Millimeter als in dem der Mikrometer. Die im 19. Jahrhundert zunächst zur exakten Wissenschaft und dann zur Leitindustrie heranwachsenden Chemie hatte zunächst einen ausgeprägten Drang zum Großen, nicht aber zum Kleinen. Erst die Miniaturisierung der Elektronikbausteine in der zweiten Hälfte dieses Jahrhunderts hat das Interesse an der Fertigung im Mikrometermaßstab geweckt.

Einblick in die Nanowelt gewähren uns seit Mitte diesen Jahrhunderts Techniken wie die Elektronenmikroskopie, Röntgenkristallographie, Neutronenbeugung, und Kernmagnetische Resonanzspektroskopie. Die Chemie hat in den vergangenen 200 Jahren gelernt, mit Molekülen umzugehen, ihren Aufbau zu beschreiben und neuartige Moleküle herzustellen. Dabei wurden die Moleküle jedoch immer in makroskopischen Mengen gehandhabt, und der Größe der analysierbaren oder synthetisierbaren Systeme waren stets Grenzen gesetzt. Zudem war die Wissenschaft von den Riesenmolekülen, die makromolekulare Chemie, lange Zeit ein Stiefkind der Chemie, das weder die Gleichstellung mit den klassischen Disziplinen (anorganische, organische und physikalische Chemie), noch eine Verselbständigung nach Art der Biochemie jemals erreichen konnte.

Die Herstellung von Nanowerkzeugen lernen wir erst jetzt, in diesem letzten Fünftel unseres Jahrhunderts. Erst jetzt nähern sich die Disziplinen der Biochemie, Chemie, Physik und Biologie, die sich mit natürlichen Nanosystemen befassen oder die Erzeugung künstlicher Nanosysteme anstreben, einander an. Erst jetzt nutzen Chemiker die Kraft der schwachen Wechselwirkungen und das Prinzip der Selbstorganisation, um synthetische Moleküle ähnlich leistungsstark zu machen wie biologische Systeme. Erst jetzt sind Materialbearbeitungsmethoden so weit miniaturisiert worden, daß man nanometergroße Strukturen aus einem Halbleitermaterial herausätzen und somit elektronische Schaltelemente ebenso wie mechanische Maschinenteile in diesem winzigen Format herstellen kann.

Vorstöße in eine neue Dimension haben das Potential, die Welt zu verändern. Ebenso wie die Entdeckung der Welt der Mikroben durch die Entwicklung des Mikroskops oder der Siegeszug der Computer nach der Erfindung des Mikrochip, können die Technologien, die uns aus der Eroberung der Nanowelt zuwachsen werden, nicht nur die Welt der Wissenschaft, sondern auch unser Alltagsleben umkrempeln. Von einigen Propheten der Nanotechnologie und von ihren Prophezeiungen wird in Teil IV die Rede sein. Von der Medizin bis zur Raumfahrt, von der Datenverarbeitung bis zum Umweltschutz reichen die prognostizierten Anwendungen der Nanomaschinen. Wir werden sehen, daß die Nanowelt auch sehr viel mit unserer Makrowelt zu tun hat.

 

 

Order Travels to the Nanoworld from:

amazon.com

amazon.de

amazon.co.uk

amazon.fr

 

 

contact

prose and passion

last update:

12.01.2005

-----------------------------7d5a01ae90 Content-Disposition: form-data; name="userfile"; filename="A:\nanutech.html" Content-Type: text/html Expeditionen in den Nanokosmos: Teil III

Travels

to the

Nanoworld

Travels to the Nanoworld. Miniature Machinery in Nature and Technology
Hardback: Perseus Books, Cambridge, MA, May 1999,
ISBN 0-306-46008-4, $ 25.95 , 254 + xiii pp.
Paperback: Perseus Books January 2001, ISBN 0-738-20444-7, $ 16.00, 254 + xiii pp.

 

III. Aufbruch in die Nanowelt: Biotechnik, supramolekulare Chemie, Nanotechnologie

Während die lebende Zelle -- vor allem dank des Baukastenprinzips<$IBaukastenprinzip> -- mit Leichtigkeit Strukturen im Nanometermaßstab konstruiert, die komplizierte Funktionen in regelbarer Weise ausführen, tun wir Menschen uns noch ein wenig schwer damit, diese Lektion von der Natur zu lernen. Dabei mag es eine Rolle spielen, daß diese Nanomaschinen bei der -- unnatürlichen -- Einteilung der Natur in Wissenschaftsdisziplinen zwischen allen Stühlen landen. Für Chemiker sind diese Systeme zu groß und zudem suspekt, da sie sich mit Hilfe von nichtkovalenten Bindungen aufbauen. Biologen haben alle Hände voll zu tun, die Maschinerie des Lebens zu verstehen, und haben meist wenig Lust, über Alternativen nachzudenken. Physiker und Materialwissenschaftler nähern sich der Nanowelt lieber von oben, indem sie mit Ätztechniken immer kleinere Strukturen in Metall- oder Halbleiter-Materialien zeichnen. Ihr Vordringen in die Nanowelt wird von den technischen Grenzen der Miniaturisierungsmöglichkeiten gebremst.

Gefragt wäre eine interdisziplinäre Strategie, die sich aus allen diesen Quellen speist, ohne den Beschränkungen der einzelnen Disziplinen zu unterliegen. Grenzüberschreitend sind denn auch die meisten der im folgenden vorgestellten Forschungsarbeiten. Dennoch habe ich meine subjektive Auswahl -- der leichteren Orientierung zuliebe -- sortiert nach Ansätzen, die in der synthetisch-organischen Chemie, der physikalischen Chemie/Kolloidchemie oder in der Biologie/Biotechnik wurzeln.

1. Vom Molekül zum Supramolekül

Moleküle, wie sie in den Labors der organischen Chemie<$Iorganische Chemie> synthetisiert und zur Reaktion gebracht werden, enthalten meist nur ein oder zwei Dutzend Atome. Der Naturstoff Taxol<$ITaxol> mit seinen knapp 120 Atomen ist bereits eine enorme Herausforderung für Synthetiker (Kap. II.3.) Im Gegensatz dazu enthalten die Moleküle des Lebens, von denen wir einige in Teil II näher kennengelernt haben, meist tausende bis zigtausende von Atomen.

Erst als man in den zwanziger Jahren unseres Jahrhunderts zu verstehen begann, daß Riesenmoleküle ein wichtiges Funktionsprinzip der Zelle sind, entstand, im wesentlichen auf der Grundlage von Arbeiten von Hermann Staudinger<$IStaudinger, H.>, die makromolekulare Chemie -- die Wissenschaft von den großen Molekülen und den Methoden, solche zu synthetisieren. Der einfachste Weg zu synthetischen Makromolekülen<$IMakromolekül> ist die Polymerisation, die Verkettung von kleinen Molekülbausteinen. Diesem Prozess verdanken wir die meisten Kunststoffe, wie sich auch oft aus deren Namen ableiten läßt (Polyethylen ist z.B. ein Polymer<$IPolymer>, das durch Verkettung von Ethylen-Molekülen entstanden ist.)

Zwischen den klassischen Disziplinen der Chemie ist die makromolekulare Chemie jedoch immer eine Stiefschwester geblieben. Der Umstand daß die ersten Polymere mehr oder weniger statistisch verteilte Kettenlängen aufwiesen, d.h. keinen reinen Stoff nach den Kriterien der organischen Chemie (einheitliches Molekulargewicht und Struktur) darstellten, führte dazu, daß die Welt der Riesenmoleküle, deren Abmessungen typischerweise im Bereich zwischen zehn Nanometern und einem Mikrometer lagen, aus der Perspektive der Chemie jahrzehntelang die "vernachlässigte Dimension" blieb.

Erst in jüngster Zeit haben verschiedene Neuerungen und Trends eine Besserung bewirkt. Was die Riesenmoleküle der Natur angeht, so haben wir gelernt, daß jedes von ihnen eine wohldefinierte Struktur hat, die seine Funktion festlegt. War es in der Gründerzeit der makromolekularen Chemie (1920er Jahre) noch umstritten, ob Proteine<$IProtein> und andere Substanzen wie Zellulose tatsächlich Riesenmoleküle oder nicht doch vielleicht eine Anhäufung kleinerer Moleküle darstellen, so ist mit der seit Beginn der Röntgenstrukturanalyse Ende der fünfziger Jahre exponentiell zunehmenden Zahl von im Detail aufgeklärten Proteinstrukturen eine eindrucksvolle Demonstration der strukturellen Bestimmtheit und Vielfalt der Makromoleküle gelungen. In den 80er Jahren trugen neuartige Synthesen großer Moleküle genau definierter Struktur, darunter die fußballförmigen Fullerene<$IFulleren> und die baumartig verzweigten Dendrimere<$IDendrimer>, dazu bei, diese Chemie salonfähig zu machen. Nicht zuletzt das Aufkommen der supramolekularen Chemie<$Isupramolekulare Chemie>, die auch nicht-kovalente Wechselwirkungen zum Aufbau komplizierter Strukturen heranzieht, erleichtert Chemikern das Vordringen in die Dimension, in der Biochemiker schon seit Generationen heimisch sind.

 

 

Der kleinste Baum der Welt:

Polymerisation mit verzweigten Bausteinen ergibt fraktale Moleküle mit interessanten Eigenschaften

Ein freistehender Baum, eine Schneeflocke unter der Lupe , oder die Küstenlinie Norwegens erscheinen den meisten Menschen ästhetischer als ein rechteckiges Hochhaus, ein runder Plastikknopf oder eine schnurgerade Autobahn. Denn wir sind gewöhnt, in der Natur fraktale (in ähnlichen Verzweigungsschritten sich zu immer feineren Verästelungen hin sich verjüngende) Strukturen vorzufinden. Unabhängig davon, ob man natürliche Objekte aus der Ferne oder unter dem Mikroskop betrachtet, entdeckt man (fast) immer Strukturen und Unterstrukturen, die häufig Fraktale<$IFraktale> darstellen.

Die Schönheit der Fraktale hat nach den Mathematikern (die dieses Naturprinzip entdeckt haben) auch die organischen Chemiker in ihren Bann geschlagen. Im Jahre 1978 synthetisierte die Arbeitsgruppe des Bonner Organik-Professors Fritz Vögtle erstmals einen molekularen Baum aus kleinen organischen Molekülen, und seit 1984 haben die verzweigten Polymere, auch "Dendrimere"<$IDendrimer> oder "Arborole" genannt, Hochkonjunktur, was sich schon an der exponentiell anwachsenden Zahl der Veröffentlichungen in diesem Gebiet ablesen läßt.

Das Prinzip, nach dem man diese wuchernden Moleküle herstellt, erinnert an den Kampf des Herakles gegen die Hydra. Man beginnt mit einem "zweiköpfigen" Molekül. Schlägt man die beiden Köpfe ab. so "wachsen" durch Reaktion mit Y-förmigen "Verzweigungsstücken" für jeden Kopf zwei neue nach. Setzt man diese Vorgehensweise über einige Generationen fort, so erhält man sehr schnell vielköpfige Hydren oder molekulare Bäume.

Die neuartigen Moleküle füllen in der Größenskala der synthetischen Chemie eine Lücke, die bisher zwischen den kleinen Molekülen der Organik und den einförmigen Kettenmolekülen der Polymerchemie klaffte. Eine wesentliche Eigenschaft der molekularen Bäume, die sie von herkömmlichen Polymeren unterscheidet, ist ihre Symmetrie. Dendrimere nehmen hochsymmetrische, oft kugelförmige Gestalt an, wenn man sie im "Generationentakt" herstellt, d.h. von einem Kern ausgeht, den man mit immer neuen Molekülschichten umgibt. Deshalb ähneln die Dendrimere in gewisser Weise den globulären (kugelförmigen) Proteinen<$IProtein>. Die Wege zur kompakten Form sind jedoch unterschiedlich: Während Proteine ihre dreidimensionale Struktur durch Zusammenfalten<$IProteinfaltung> einer langen Kette erwerben, bildet sich die Kugelform der Dendrimere von ihrem Mittelpunkt aus als Produkt eines Wachstums in alle Richtungen. Dendrimere sind deshalb symmetrischer als Proteine und können ihre dreidimensionale Struktur nicht durch Entfaltung verlieren.

Im biomimetischen Bereich, d. h. in der Nachahmung natürlicher Substanzen, liegen auch einige Anwendungsmöglichkeiten dieser synthetischen Makromoleküle<$IMakromolekül>. Läßt man Bäume aus langen wasserabstoßenden Kohlenwasserstoffketten wachsen und versieht die äußerste Schicht mit gut wasserlöslichen Alkoholgruppen, so kann man die kugelförmigen Strukturen (Micellen) nachahmen, zu denen sich Lipide (Fette) gern zusammenlagern um ihre wassermeidenden Kohlenwasserstoff-Schwänze der wäßrigen Umgebung zu entziehen. Ähnlich lassen sich Dendrimere konstruieren, die biologische Membranen nachahmen.

Aber nicht nur die Oberfläche der molekularen Kugeln kann bei der Synthese nach Belieben gestaltet werden. Auch darunter verbergen sich Qualitäten, etwa Hohlräume, in denen Gastmoleküle aufgenommen werden können. So ließen sich Dendrimere mit programmierten Oberflächeneigenschaften und Hohlräumen zum Beispiel als Transportvehikel für Pharmaka verwenden. Sorgt man dann noch dafür, daß in den Hohlraum ein elektrisch geladener oder chemisch bindungsbereiter Molekülteil hineinragt, so hat man eine regelrechte spezifische Bindungstasche kreiert, wie sie bei Enzymen oft zur Erkennung der Substrate dienen. Modellrechnungen haben ergeben, daß man mit einem Dendrimer aus 6 Generationen 10 bis 20 Moleküle des Medikaments Dopamin aufnehmen und zu den Nieren transportieren könnte. Unerwünschte Nebenwirkungen, welche die Droge im Gehirn auslösen kann, würden dadurch ausgeschlossen, daß der große Transporter im Gegensatz zu dem kleinen Dopamin-Molekül nicht in das Zentrale Nervensystem eindringen könnte.

Erst Ende 1994, nach mehr als zehnjähriger Spekulation über die Anwendungsmöglichkeiten der Dendrimere, haben sich die Hinweise auf die Nützlichkeit dieser faszinierenden Moleküle in einer Vielzahl von Anwendungsbereichen zu konkreten Fosrschungsergebnissen verdichtet, die belegen, daß Dendrimere als Katalysatoren und als Transporter geeignet und in mancher Hinsicht anderen Substanzklassen überlegen sind. Dies wurde vor allem ausgelöst durch Fortschritte in der Chemie der Kaskadenmoleküle, die es jetzt ermöglichen, funktionelle Gruppen gezielt einzubauen, und auch umschlossene Hohlräume unter der Oberfläche der Dendrimere zu konstruieren.

Die erste Synthese eines Dendrimers mit in Hohlräumen eingeschlossenen Gastmolekülen<$IGastmolekül> gelang der Arbeitsgruppe von E.W. Meijer an der Technischen Universität Eindhoven. Auf ein gewöhnliches Dendrimer mit 64 Amino-Endgruppen (Abb. 18), das eine niederländische Firma im Kilogramm-Maßstab herstellt, pfropften die Wissenschaftler chirale Aminosäuren auf, die, wie sie später beweisen konnten, eine dichte Schale mit Festkörper-Eigenschaften bildeten. Aus den spektroskopischen Eigenschaften dieser Verbindung folgerten die Forscher, daß es sich um ein Molekül mit harter Schale und weichem Kern handeln müßte, das mithin geeignet sein könnte, Gastmoleküle irreversibel festzuhalten. Tatsächlich gelang es ihnen, eine Vielzahl von Molekülen mit spezifischen spektroskopischen Eigenschaften im letzten Syntheseschritt in den Hohlräumen von ca. fünf Nanometern Durchmesser einzufangen und dann spektroskopisch nachzuweisen. Anwendungen wie kontrollierte Zielsteuerung und Freisetzung von Arzneistoffen, oder physikalische Untersuchungen an isolierten Molekülen lassen sich leicht vorhersagen.

Möglicherweise noch gewinnbringender können Dendrimere im Bereich der Katalyse (Reaktionsbeschleunigung) eingesetzt werden. Der erste Schritt in diese Richtung gelang der Arbeitsgruppe von Gerard van Koten an der Universität Utrecht. Als Ausweg aus dem uralten Dilemma zwischen homogener und heterogener Katalyse -- die homogenen Katalysatoren<$IKatalysator> sind wirksamer, lassen sich aber schwerer von den Reaktionsprodukten trennen als heterogene Katalysatoren -- , versuchten diese Autoren, ihre katalytisch aktive Gruppe an verschiedenartige Polymere zu knüpfen. Und im Fall der dendritischen Träger fanden sie, daß diese die Vorteile der homogenen mit denen der heterogenen Katalyse vereinigen. Die Dendrimere<$IDendrimer> sind gelöste Stoffe, sind also als homogene Katalysatoren zu betrachten, und teilen deren Vorzüge. Andererseits sind sie aber aufgrund ihres hohen Molekulargewichts und der beständigen Kugelform leicht durch Ultrafiltrationsmethoden von den Reaktionsprodukten abzutrennen. Im Gegensatz zu linearen Polymeren, die durch Kriechbewegungen Filtermembranen durchdringen können, die sie nach dem Molekulargewicht eigentlich zurückhalten müßten, haben Dendrimere einen durch die chemischen Bindungen definierten und unveränderlichen Partikeldurchmesser, mithin ein genau festgelegtes Trennverhalten.

Die katalytisch aktive Gruppe, welche die Niederländer an der Außenschale des Dendrimers anbrachten, war ein aktiviertes Nickel-Atom, ein sogenannter Diaminoarylnickel-II-Komplex<$INickel>. Diese organometallische Gruppe katalysiert die Addition von Polyhalogenalkanen an eine C--C Doppelbindung. Dies bedeutet daß die Doppelbindung in eine Einfachbindung umgewandelt wird. Eines der C-Atome erhält dabei ein Halogen-Atom als zusätzlichen Bindungspartner, das andere den Kohlenwasserstoffrest. Obwohl die Forscher bis zu zwölf dieser metallorganischen Gruppen an ein Dendrimer banden, blieben die katalytischen Eigenschaften doch vergleichbar der entsprechenden niedermolekularen Nickelverbindung. Bindung an das Dendrimer scheint den Zugang der Reaktanden zu der katalytisch aktiven Stelle nicht zu beeinträchtigen.

Ein allgemeiner Trend zum Einbau metallorganischer Zentren in Dendrimere läßt sich auch aus dem jüngsten (Dezember 1994) umfassenden Fortschrittsbericht der Arbeitsgruppe des Bonner Dendrimer-Experten Fritz Vögtle ablesen. Die metallhaltigen Gruppen können dabei sowohl -- wie die diskutierten Nickel-Komplexe an der Peripherie, als auch als Kernbausteine im Mittelpunkt der Struktur angeordnet sein. Im letzteren Fall könnte die Abschirmung des Kernelements, etwa eines Zink-Porphyrin-Komplexes<$IZink><$IPorphyrin>, dieses vor Redoxreaktionen schützten, und es so als Elektronen-Sammelstelle qualifizieren. Prinzipiell gibt es nichts, was man nicht in fraktale Polymere einbauen könnte. Auch Fullerene<$IFulleren> und Kronenether<$IKronenether> sind bereits als "Stamm" bei der Konstruktion molekularer Bäume verwendet worden. Und biologisch inspirierte Dendrimere sind mit Nukleinsäure- und mit Peptidbausteinen<$IPeptid> synthetisiert worden. Anwendungsmöglichkeiten für solche pseudobiologische Makromoleküle könnten etwa im Bereich der Gentechnik<$IGentechnik> gefunden werden. Vorläufigen Ergebnissen zufolge erleichtern bestimmte Dendrimere den Gentransfer<$IGentransfer> über Plasmide, und bieten auch weitere Vorzüge wie geringe Toxizität und gute pH-Pufferwirkung.

Natürlich ist bei solchen Anwendungsperspektiven immer noch viel Spekulation im Spiel. Doch die Erfolge im Bereich Katalyse und Einschlußverbindungen haben gezeigt, daß die gezielte Synthese von nützlichen Dendrimeren möglich ist. Wir stehen erst am Anfang einer interessanten Entwicklung.

Ein Tunnel durch die Zellmembran: Zu Nanoröhren aufgestapelte Peptid-Ringe bilden synthetische Ionenkanäle

Löcher machen nicht nur das Wesen des Schweizer Käses aus -- in kleinerem Maßstab sind sie auch verantwortlich für vielerlei interessante und nützliche Eigenschaften natürlicher oder synthetischer Werkstoffe. Wo Löcher mit molekularen Abmessungen (d.h. in der Größenordnung weniger Nanometer) sind, lassen sich verschiedenartige Moleküle trennen -- das kleinere geht hinein, wird dadurch auf seinem Weg einige Zeit aufgehalten, das größere schwimmt vorbei. Oder die eine Art bindet an die Innenfläche, die andere nicht. Wo Löcher sind, ist auch eine vergrößerte Grenzfläche, die der Katalyse (Reaktionsbeschleunigung) dienen kann.

Gleichzeitig mit der epidemieartigen Ausbreitung der (ebenfalls hohlen, aber geschlossenen) fußballförmigen Fullerene<$IFulleren> ist eine weitere Hohlstruktur in den Mittelpunkt des Interesses gerückt: "nanotubes", winzige Röhren deren Innendurchmesser nur wenige Nanometer beträgt, die einzeln oder ineinandergeschachtelt ausgedehnte Kristalle aus vielen parallel angeordneten Röhren bilden können. Nachdem es 1991 -- als Nebenprodukt des Fulleren-Fiebers -- Wissenschaftlern geglückt war, die bienenwabenförmigen Kohlenstoff-Schichten des Graphit zu solchen Nanoröhren aufzurollen, hat eine Arbeitsgruppe am Scripps-Forschungsinstitut in La Jolla, Kalifornien zwei Jahre später einen völlig anderen Weg zum Aufbau vielseitig variierbarer Röhren gewählt: die Stapelung von Ringen.

Peptide<$IPeptid> -- Kettenmoleküle, die ebenso wie Proteine aus Aminosäuren bestehen, -- lassen sich leicht herstellen und können je nach Art der verwendeten (natürlichen oder neu erfundenen) Aminosäuren die verschiedensten Eigenschaften haben. Die Erfinder der sich aus Ringen selbst zusammenlagernden Kleinströhren kreierten ein zyklisches Peptid aus acht Aminosäuren das an zwei gegenüberliegenden Positionen den Baustein Glutaminsäure enthält. Diese bezeichnet man als "saure" Aminosäure, weil sie zusätzlich zu der bei allen Aminosäuren vorhandenen (aber in der Peptidbindung neutralisierten) Säuregruppe eine saure Seitenkette besitzt. Letztere ist im alkalischen Milieu negativ geladen -- die Abstoßung gleichnamiger Ladungen verhindert unter diesen Bedingungen die Zusammenlagerung der Ringe. Verschiebt man jedoch den pH-Wert einer Lösung dieses Peptids in den sauren Bereich, so wird diese Ladung neutralisiert und der Abstoßungseffekt entfällt. Nun treten die Wasserstoffbrückenbindungen<$IWasserstoffbrückenbindung> in Aktion, die auch in Biomolekülen eine entscheidende Rolle bei der Strukturbildung spielen. Stapeln die Ringe sich aufeinander, so können sie mit jedem Nachbarn acht dieser schwachen aber im Verein hinreichend stabilen Bindungen ausbilden. Weitere Wasserstoffbrücken können zwischen den Seitenketten der Aminosäure Glutamin ausgebildet werden, die somit die Orientierung der Ringe im Stapel festlegt und die Röhre zusätzlich stabilisiert.

Die Stapelung führt dazu, daß nach Ansäuern der Lösung innerhalb weniger Stunden nadelförmige Kristalle von einigen Mikrometern (tausendstel Millimeter) Länge auftreten. Daß diese Nadeln tatsächlich, wie bei der Planung des Experiments beabsichtigt, aus Nanoröhren bestehen, konnten die Forscher durch Elektronenmikroskopie, Elektronenbeugungsmuster und Infrarotspektroskopie nachweisen. Computermodellierung zeigte, daß von den verschiedenen denkbaren Strukturen des ringförmigen Peptids<$IPeptid> lediglich diejenige, welche die postulierten acht Wasserstoffbrücken bildet, in die Einheitszelle des Kristalls hineinpaßt. Die Röhren haben einen Innendurchmesser von 0.7 bis 0.8 Nanometern und sind einige hundert Nanometer lang.

Nachdem die Forscher eine ganze Reihe spektroskopischer Indizien dafür gesammelt hatten, daß diese Nadeln tatsächlich aus vielen parallel ausgerichteten Nanoröhren bestehen, und außerdem ein Modellbild für die vorgeschlagene Struktur errechnet hatten (Abb. 19), gelang ihnen schließlich der schlagendste Beweis, indem sie zeigten, daß die Peptid-Ringe sich in Membranen einlagern, einen Tunnel bilden und durch diesen Tunnel tatsächlich Ionen fließen. Wenn man zum Beispiel synthetische, membranumschlossene Kügelchen (Vesikeln) einer Umgebung aussetzt, die einen anderen pH-Wert hat als die Lösung im Inneren der Vesikeln, kann sich der pH-Unterschied nur durch einen Ionenkanal ausgleichen. Solange die Membranen intakt und geschlossen sind, bleibt der Unterschied erhalten. Setzt man jedoch der umgebenden Lösung die zyklischen Peptide zu, so lagern diese sich in die Membran ein und bilden einen Tunnel, durch den Wasserstoff-Ionen (H+) fließen und den pH nivellieren können. Das läßt sich relativ leicht durch Indikatorfarbstoffe (wie etwa Lackmus) nachweisen.

Der entscheidende Funktionstest für Ionenkanäle<$IIonenkanal> oder -transporter durch Membranen ist jedoch die Patch-Clamp-Technik<$IPatch-Clamp> ("Membranfleck-Klemme"), für deren Entwicklung Erwin Neher und Bert Sakmann 1991 mit dem Nobelpreis für Physiologie oder Medizin ausgezeichnet wurden. Setzt man eine extrem feine Glaspipette auf eine Membran auf und erzeugt einen leichten Unterdruck, so isoliert der Glasrand diesen Membranfleck von der übrigen Membran und man kann den Strom messen, der fließt, wenn Ionen durch einen einzelnen oder einige wenige in dem Fleck befindliche Ionenkanäle fließen. Erwartungsgemäß floß durch die untersuchten Membranen kein Strom, solange sie tunnel-frei waren; sobald die Forscher jedoch der umgebenden Lösung das richtige, röhrenbildende, Peptid zusetzten, konnten sie einen ausgeprägten Ionenfluß, etwa von Kalium-Ionen feststellen. Diese flossen etwa dreimal so schnell durch die synthetische Nanoröhre wie durch einen natürlichen Ionenkanal, der von dem aus 15 Aminosäuren bestehenden Peptid<$IPeptid> Gramicidin A gebildet wird. Als Kontrollsubstanzen eingesetzte zyklische Peptide, denen je eines der wesentlichen Konstruktionsmerkmale der Röhrenbildner fehlte, konnten überhaupt keinen Stromfluß hervorrufen.

An Versuchen, synthetische Ionenkanäle zu konstruieren, hat es auch vordem nicht gemangelt. Doch bevor Ghadiri und Mitarbeiter den genialen Trick der Selbstassemblierung von Ringen fanden, mußte man sehr lange Moleküle konstruieren, welche die ganze Membran durchspannen und dennoch genug Volumen haben, um einen Hohlraum freizuhalten. Ringe waren dabei allerdings von Anfang an im Spiel. Der Urtyp aller synthetischen Ionentransporter wird von der Substanzklasse der Kronenether<$IKronenether> verkörpert, welche Charles Pedersen<$IPedersen, C.> 1967 entdeckte, als er bei Dupont ein unerwünschtes Nebenprodukt einer mißlungenen Synthese genauer analysierte. Kronenether können mit den nach innen weisenden Sauerstoff- Atomen der Ethergruppen Metall-Ionen binden, und sind auf der Außenseite wasserabweisend genug, um diese im Pendelbus-Prinzip durch eine Membran hindurchschleusen zu können.

Einen Schritt weiter ging in den 80er Jahren eine Arbeitsgruppe an der Universität Kyoto, die ein anderes Ringmolekül, diesmal ein aus sechs Zuckereinheiten aufgebautes, gut wasserlösliches Cyclodextrin<$ICyclodextrin>, mit vier langen, wassermeidenden Schwänzen versahen. Je zwei dieser "Halbkanäle" werden benötigt, um einen funktionierenden Tunnel zu bilden, mit den Cyclodextrin- Ringen als Ein- und Ausfahrt (Abb. 19). Durch diese Kanäle flossen Cobalt- und Kupfer-Ionen mit Geschwindigkeiten, die immerhin deutlich über denen der Kontrollexperimente lagen.

Anstatt die wasserliebenden Ringe außen auf die Membran zu setzen, und zu hoffen, daß sich die wassermeidenden Kohlenwasserstoff-Schwänze innen begegnen und sich zu einer Röhre zusammenlagern, ging Jean-Marie Lehn<$ILehn, J.-M.>, der als Mitbegründer der supramolekularen Chemie 1987 (gemeinsam mit dem oben erwähnten Charles Pedersen) den Nobelpreis für Chemie erhielt, den umgekehrten Weg und setzte den Ring in die Mitte der Membran. Seine Arbeitsgruppe am Collège de France in Paris entwickelte sogenannte Bukettmoleküle<$IBukettmoleküle>, bestehend aus einem Kronenether auf den (statt Blumen) langkettige lineare Moleküle, etwa Polyether, aufgepfropft sind. In diesem Fall weisen die wasserabweisenden Kettenmoleküle parallel zur Symmetrieachse des zentralen Rings in beide Richtungen, und strecken ihre Köpfe, z. B. wasserliebende Carbonsäuregruppen, aus der Membran heraus. Die von Lehn und Mitarbeitern getesteten Bukett-Moleküle lassen Natrium-<$INatrium> und Lithium-Ionen durch die Membran passieren, und verschiedene Indizien sprechen dafür, daß es sich hier um einen echten Kanal, und nicht um einen Shuttle-Mechanismus handelt.

Doch keiner der Kanäle nach dem "Ring-mit-Fransen-Prinzip" war so wirkungsvoll wie die Peptid-Nanoröhren. Im Hinblick auf Anwendungsmöglichkeiten haben diese zudem den Vorteil, daß ihre Strukturen mit geringstem Syntheseaufwand vielfältig variiert werden können. Es sollte kein Problem sein, statt acht Einheiten pro Ring sechs, zehn oder zwölf zu verwenden, oder statt der "eigenschaftslosen" Aminosäure D-Alanin eine andere einzusetzen, welche die Membranlöslichkeit erhöht oder verringert. So ließe sich für Substanzen, deren Einsatz als Pharmaka bisher am Import in die Zelle scheitert, ein spezieller Kanal konstruieren, der mit der Arznei verabreicht werden könnte. Oder man könnte andere, an physiologischen Kriterien orientierte "Schalter" einführen, die ähnlich wie der pH-Sprung in den Experimenten von Ghadiri et al., die Selbstorganisation<$ISelbstorganisation> und/oder die Kanalfunktion der Röhren steuern. Auf diese Weise könnte man nicht nur einfache Löcher in die Zellmembran einbauen, sondern genau regulierbare Ventile.

 

 

Nicht nur Salz und Soda: Auch eine Doppelhelix kann das vermeintlich harmlose Natrium-Ion aufbauen helfen

In Allerweltschemikalien wie Kochsalz, Ätznatron, Glaubersalz, Chilesalpeter und Soda findet sich das einfach positiv geladene Ion des Alkalimetalls Natrium<$INatrium>. Und damit, daß es mit negativ geladenen Ionen Salze bildet, so glaubte man, hat sich die Chemie dieses biederen Elements auch schon erschöpft. Für ihre neuesten exotischen Molekülkreationen greifen Organometallchemiker lieber auf Übergangsmetalle wie Eisen, Kupfer oder Molybdän<$IMolybdän> zurück, die mit ihren vielen verschiedenen Oxidationsstufen eine im wahrsten Sinne des Wortes sehr viel farbigere Chemie ermöglichen.

Doch, einen kleinen Überraschungserfolg gibt es jetzt auch für das Mauerblümchen: Thomas Bell und Hélène Jousselin von der State University of New York brachten Natriumionen mit einem organischen Molekül (einem Oligopyridin) zusammen, das wie ein Sperr-Ring ein Loch und eine schraubenartige Verdrillung aufweist, und siehe da, zwei dieser Ringe ordneten sich um das Natrium-Atom herum zu einer Doppelhelix<$IDoppelhelix> an (Abb. 20). Sechs Stickstoffatome an der Innenseite des Liganden sorgen für schwache aber offenbar ausreichende Bindungen. Ein bißchen "Mogeln" ist insofern im Spiel, als die Verdrillung in diesem Fall in dem organischen Liganden schon vorgegeben ist, während Übergangsmetalle auch frei bewegliche Moleküle zur Helix formen können. Andererseits konnten die Autoren aber mit Hilfe der kernmagnetischen Resonanzspektroskopie (NMR<$INMR>) zeigen, daß doch eine gewisse strukturierende Wirkung des Natrium-Ions vorliegen muß. Die Spirale ohne Natrium ist nämlich so flexibel, daß sie mehr als tausendmal pro Sekunde zwischen den den beiden spiegelbildlichen Formen eines Links- und Rechtsgewindes umklappen kann. In dem Natriumkomplex hingegen bleibt das Molekül auf Dauer auf eine Händigkeit festgelegt.

Ein weiteres Argument dafür, daß sich das Natrium nicht einfach in ein passendes Loch gesetzt hat (wie etwa bei den seit langem bekannten, im vorigen Kapitel erwähnten Kronenethern<$IKronenether>), erklärt gleichzeitig, warum ausgerechnet eine Doppelhelix gebildet wird. Nimmt man eine zylindrische Sprungfeder an beiden Enden und zieht sie in die Länge, dann wird dadurch der Durchmesser des eingeschlossenen Hohlraums kleiner. Tatsächlich wäre eine einfache Wendel des Oligopyridins zu weit, um ein Natrium-Ion binden zu können. In der Doppelhelix, sind dadurch, daß zwei Federn ineinander geschachtelt sind, Anfang und Ende weiter auseinander, und somit wird das Loch in der Mitte genau auf den für das Natrium-Ion passenden Durchmesser verkleinert. Natürlich verdoppelt sich auch die Zahl der Bindungen, wenn der Komplex nur ein Ion aufnimmt. (Er kann aber bei bestimmten Synthesebedingungen auch zwei Ionen enthalten.)

Der Umstand, daß bereits die schwachen Kräfte des Natrium-Ions<$INatrium> diese komplizierte Struktur hervorrufen können, veranlaßt die Autoren zu der Spekulation, daß ein geringer Anteil der Doppelhelix-Struktur bereits ohne das Metall in Lösung vorliegt. Könnte man längerkettige Varianten des Moleküls dazu bringen, ähnliche Komplexe zu bilden, so würden diese der vermuteten Struktur der Poren-bildenden Antibiotika<$IAntibiotikum> wie Gramicidin nahekommen. Solche Substanzen könnten dann als Modelle für Ionenkanäle<$IIonenkanal> in der Zellmembran oder auch als elektronische Bauelemente der Nanotechnologie<$INanotechnologie> dienen.

 

 

Molekulare Knoten: Topologische Chemie ist keine Hexerei

Topologie<$ITopologie> ist die Wissenschaft, die uns sagt, wie man die Unterhose ausziehen kann ohne die Hose herunterzulassen -- vorausgesetzt die Unterhose ist elastisch genug. Bei topologischen Betrachtungen darf man Objekte beliebig dehnen und verformen, solange ihre Verknüpfungseigenschaften gewahrt bleiben. Man darf also etwa bei dem Unterhosenproblem keine Schere zu Hilfe nehmen. Zwei Glieder einer Kette, d.h. ineinander verschlungene Ringe, sind zum Beispiel ein topologisches Objekt, das in verschiedensten Abwandlungen zu finden ist, aber durch die topologische Eigenschaft immer definiert ist. Die Topologie, die man auch als die "Wissenschaft von den räumlichen Beziehungen" definieren kann, ist eine Abteilung der Mathematik, ist aber auch Grundlage mancher Zaubertricks und Puzzles.

Verschlungene Ringe, Ringe die wie Perlen auf einer Schnur aufgezogen sind oder verwickelte Knoten, das sind topologische Objekte, für die sich supramolekulare Chemiker<$Isupramolekulare Chemie> in jüngster Zeit immer stärker interessieren. Zum einen ist die topologische Verknüpfung eine elegante Methode, Moleküle<$IMolekül> nichtkovalent miteinander zu koppeln und ihre Wechselwirkungsweise offen zu halten. Enthalten die miteinander verschlungenen Moleküle verschiedene potentielle Bindungsstellen, die unter verschiedenen chemischen Bedingungen aktiviert werden, so kann das Ring-System etwa als molekularer Schalter benutzt werden. Entsprechende Supramoleküle, die etwa durch Elektronen-Zufuhr auf eine andere Verknüpfungsweise umgeschaltet werden können, sind schon von mehreren Arbeitsgruppen entwickelt worden und könnten später im Bereich der Nanotechnologie<$INanotechnologie> Anwendungen finden. Und J. Fraser Stoddart von der Universität Birmingham hat bereits einen kleinen Ring auf einem größeren als molekulare Eisenbahn mit Start- und Stop-Signalen im Kreis fahren lassen. Eine neuere, noch verwickeltere Kreation aus Stoddarts Arbeitskreis ist ein in Anlehnung an die olympischen Ringe gestaltetes Molekül aus fünf ineinander gefädelten Ringen, das Olympiadan, systematisch als [5]Catenan klassifiziert (Abb. 21a). Allgemein bezeichnet man Moleküle aus ineinander verschlungenen Ringen als Catenane<$ICatenan>.

Man braucht aber nicht einmal mehrere Ringe, um topologisch verwickelte Strukturen herzustellen. Wie Jean-Pierre Sauvage an der Université Louis Pasteur in Strasbourg bereits 1990 zeigen konnte, kann man Ringmoleküle konstruieren, die mit sich selbst zu einem unauflösbaren Knoten, zum Beispiel dem in Abb. 21b gezeigten Kleeblatt-Knoten verschlungen sind. Zur Synthese dieses molekularen Knotens benutzte Sauvage zwei Kupfer-Ionen als Baugerüst, um das die Ausgangsverbindung eine ganze Windung einer Doppelhelix bildete. Durch kreuzweise Verknüpfung der freien Enden erzeugten die Forscher dann die Knoten-Topologie. Der Knoten besitzt sogar, ebenso wie die als Zwischenstufe benötigte Helix, eine Händigkeit (Chiralität<$IChiralität>), d.h. die gezeigte Struktur ist nicht mit ihrem Spiegelbild zur Deckung zu bringen, auch nicht durch topologische Zaubertricks. Bei der Synthese fällt eine Mischung der beiden spiegelbildlichen Formen an. Kristallisiert man die Verbindung jedoch, so enthält jeder Kristall nur eine Molekülform.

Bereits in den sechziger Jahren gab es vereinzelte Versuche, verschlungene Ringe herzustellen, die oft nach dem Zufallsprinzip durchgeführt wurden. Geht man von einer Lösung aus, in der die offenkettigen Molekülvariante in hoher Konzentration vorliegt, und löst dann die Ringschlußreaktion aus, so kann man damit rechnen, daß ein kleiner Teil der Ringe Catenane bilden. Aufgrund des höheren Molekulargewichts läßt sich dieser Anteil leicht abtrennen, und die unverknüpften Ringe können wieder geöffnet und einem neuen Versuch zugeführt werden.

Die heutige Renaissance der topologischen Chemie ist unter anderem darauf zurückzuführen, daß die modernen Synthesemethoden der metallorganischen Chemie einen sehr viel eleganteren und zielgerichteteren Ansatz ermöglichen. Die entscheidenden Windungen des Zielmoleküls können durch Koordination geeigneter organischer Moleküle um Metall-Zentren aufgebaut und anschließend zu Ringen verknüpft werden. Die eigentliche Herausforderung besteht also darin, eine metallorganische Zwischenstufe zu entwerfen, welche die Molekülstränge in einer Anordnung fixiert, die dem Synthetiker die abschließende Umsetzung ermöglicht. Ist der Knoten einmal geknüpft, können die nichtkovalent gebundenen Metallzentren entfernt werden.

Bei den molekularen Schaltern hingegen kommt den Metallatomen eine wichtige Funktion zu. Sie können als Steuerelemente benutzt werden, da sich ihre Bindungseigenschaften gegenüber der organischen Wirtsverbindung in der Regel durch Zugabe oder Entzug von Elektronen ändern lassen. Solche Schaltmöglichkeiten machen die topologischen Moleküle, die sonst nur eine hübsche Spielerei wären, zu wichtigen Grundelementen für zukünftige molekulare Technologieen.

 

 

Molekulare Gerüste und Elektronen-Autobahnen: DNA als Werkstoff

Proteine<$IProtein>, so haben wir in Teil II gesehen, sind diejenigen Moleküle der Zelle, die komplizierte Strukturen bilden und chemisch diffizile Funktionen ausführen. DNA<$IDNA> ist im Vergleich dazu ein eher eintöniges Molekül, das nur vier verschiedene Bausteine besitzt und dessen höhere Strukturen einzig und allein dem Zweck der platzsparenden Unterbringung des genetischen Materials dienen.

Doch daraus, daß DNA in der Natur "nur" als Informationsspeicher dient, folgt noch nicht, daß man mit diesem Baukasten<$IBaukastenprinzip> nicht noch andere Dinge bauen könnte. Ein wesentlicher Vorteil dieses Baumaterials ist der, daß man mit der Polymerase-Kettenreaktion eine Methode zur raschen Vervielfältigung von Unterstrukturen, und mit den Restriktions-Enzymen höchst spezifisches Schneidwerkzeug zu seiner Bearbeitung bereit hat.

Das seien doch ideale Voraussetzungen, fand Nadrian Seeman von der New York University, um aus DNA interessante dreidimensionale Strukturen aufzubauen. Und er machte sich im Jahre 1990 daran, zusammen mit J. Shen einen Würfel aus DNA zu entwerfen und zu synthetisieren. Jede der sechs Flächen des fertigen Würfels wurde von einem ringförmigen DNA-Molekül aus 80 Nucleotiden umschlossen. Jede der zwölf Kanten bestand aus einer Doppelhelix<$IDoppelhelix> aus 20 Basenpaaren, was genau zwei Windungen der Doppelhelix entspricht. An jeder der acht Ecken trafen sich drei Doppelhelices zum Partnertausch (Abb. 22).

Ausgehend von zehn offenkettigen DNA-Einzelsträngen benötigten die Forscher insgesamt fünf Schritte der Zyklisierung, Doppelstrangbildung, Verknüpfung und Zwischenreinigung, um das Endprodukt zu erhalten, dessen Würfel-Topologie<$ITopologie> sie mittels spezifischer Erkennung der Doppelstränge durch Restriktionsenzyme nachwiesen. Topologie bedeutet, daß die sechs Ringe genau in der Weise miteinander verschlungen sind, die nötig ist, um einen Würfel zu bilden. Ob das "Objekt" tatsächlich würfelförmig ist, was man aufgrund von Modellrechnungen vermutet, oder ob die Doppelhelices vielleicht so gekrümmt sind, daß es sich eher um eine Kugel handelt, konnten die Forscher mangels Masse nicht feststellen.

Das hinderte sie jedoch nicht daran, nach Höherem zu streben und noch kompliziertere Strukuren mit ihrem DNA-Baukasten herzustellen. Im Jahre 1994 konnten sie dann die Synthese eines Supramoleküls mit der Geometrie eines Oktaederstumpfs berichten, das, ebenso wie der Würfel, Kanten aus 20 Nucleotid-Paaren enthält. Insgesamt besteht diese neueste Kreation aus 1440 Nucleotiden, bei einem Molekulargewicht von knapp 800000. Das entspricht den großen natürlichen Proteinkomplexen wie etwa der "molekularen Anstandsdame" GroEL<$IGroEL> und dem 20S-Proteasom<$IProteasom> (siehe II.2.). Dieses Supermolekül enthält sogar freie Anschlußstellen, die sich möglicherweise zum Aufbau eines porösen endlosen Gitters nach Art der Zeolithe<$IZeolith> (Aluminium-Mineralien) aufbauen ließen.

Sollte es sich herausstellen, daß Seemans Konstrukte die von der Topologie vorgegebene Struktur auch mit hinreichender Stabilität realisieren, so eröffnen die für molekulare Maßstäbe riesigen inneren Hohlräume und die Möglichkeit der chemischen Modifikation der Bausteine eine ganze Reihe von Anwendungsperspektiven, zum Beispiel als Transporter für Pharmaca oder als Baugerüst für andere molekulare "Bauarbeiten", oder, in Kombination mit angekoppelten Katalysatoren, als Nano-Fabrik.

Doch nicht nur als "mechanisches" Gerüstmaterial ist DNA für Chemiker wieder interessant geworden. Es sieht auch so aus, als ob das Innere der Doppelhelix ein bemerkenswert guter elektrischer Leiter ist. Bereits 1993 fand Jackie Barton am California Institute of Technology (Caltech), daß die Geschwindigkeit der Elektronenübertragung<$IElektron> durch die übereinandergestapelten aromatischen Elektronensysteme der Stickstoffbasen im Inneren der Dopelhelix für ein biologisches System extrem schnell ist. Der Nachteil war -- die von ihr angegebenen Geschwindigkeiten waren so hoch, daß man ihr Ergebnis nicht glaubte. Anfang 1995 präsentierten Thomas Meade und Jon Kayyem, die ebenfalls am Caltech arbeiten, neue Beweise für die schnelle Elektronenleitung in DNA, mit etwas kleineren Zahlen, die dann auch Anerkennung und Beachtung fanden.

Metallorganische Komplexe des Schwermetalls Ruthenium<$IRuthenium> dienen in dem Experiment von Meade und Kayyem sowohl als Sender als auch als Empfänger des schnellen Stromstoßes. Der Sender wird durch einen Laser-Lichtblitz aktiviert, und die Ankunft des Elektrons in dem zweiten Ruthenium-Komplex macht sich durch eine Änderung der spektroskopischen Eigenschaften des Moleküls bemerkbar. Möglicherweise ist die komplizierte Architektur des ersten Komplexes, die das Elektron erst durchdringen muß, bevor es zu der "Schnellstraße"durch die gestapelten aromatischen Ringe gelangt, der Grund dafür, daß die Weitergabe etwas langsamer verläuft als in Bartons Experiment. Zumindest Jackie Barton glaubt jedoch daran, daß ihre Untersuchungen, bei denen die Elektronen direkt in dem Inneren der Doppelhelix freigesetzt werden, wirklich die Geschwindigkeit des Elektronentransports in DNA demonstrieren.

Wie dem auch sei, die Tatsache, daß das DNA-"Kabel" nur funktioniert, wenn ein Doppelstrang vorliegt, auch wenn Sender und Empfänger an denselben Strang der Doppelhelix gebunden sind, eröffnet die Möglichkeit, einen spezifischen Biosensor für DNA-Sequenzen zu entwickeln. Man könnte den zu der nachzuweisenden Sequenz komplementären Gegenstrang synthetisieren, mit den beiden Rutheniumkomplexen koppeln, und dann auf die Suche nach DNA-Fragmenten gehen, die per Doppelstrang-Bildung den schnellen Elektronentransport-Effekt hervorrufen. Zwar müssen die Forscher noch nachprüfen, inwieweit die charakteristische Leitfähigkeit des Doppelstrangs durch falsche Basenpaarungen gestört wird. Stellt es sich heraus, daß der Effekt bereits durch eine einzelne Fehlpaarung merklich gestört wird, so könnte die neue DNA-Sonde tatsächlich besser und spezifischer werden als alle bisher verfügbaren Methoden. Praktische Anwendungen in der medizinischen Diagnostik, der Forensik oder der Suche nach Krankheitserregern im Trinkwasser würden dann wahrscheinlich rasch realisiert werden.

Nicht genug damit, daß DNA Elektronen leiten kann, sie kann möglicherweise auch unser liebstes elektronisches Gerät, den Computer, ganz schön alt aussehen lassen. Im November 1994 berichtete Leonard Adleman von der Universität von Südkalifornien, daß er aus DNA eine Art "Chemischen Computer" konstruieren konnte, der immerhin eine einfache Version des klassischen "Handelsreisenden-Problems" lösen konnte, das darin besteht, die kürzeste Route durch eine Anzahl von Städten zu finden. Wie ein elektronischer Computer kann DNA Information in einem Code speichern, man kann die Information mittels molekulargenetischer Methoden lesen, kopieren, vervielfältigen, nach verschiedenen Kriterien sortieren. Jeder einzelne dieser Schritte dauert natürlich in dem chemischen System (insbesondere außerhalb der Zelle) erheblich länger als im Mikrochip<$IMikrochip> Der Vorteil der DNA gegenüber dem elektronischen Computer ist jedoch der, daß man in einem Reagensglas leicht 1019 verschiedene DNA-Stränge, mithin 1019 verschiedene Datensätze gleichzeitig handhaben kann. Richard Lipton von der Universität Princeton schlug im April 1995 aufgrund theoretischer Überlegungen vor, daß diese enorme Kapazität zur Ausführung paralleler Rechnungen es dem DNA-Computer ermöglichen könnte, Probleme zu lösen, an denen herkömmliche elektronische Rechner scheitern.

Diese Prognose hat die Computerwissenschaftler, die von Adlemans molekularbiologischem Primitivrechner nur mäßig beeindruckt waren, aufhorchen lassen. Möglicherweise entsteht hier, an der Grenze zwischen Informatik und Molekularbiologie ein völlig neues Forschungsgebiet, das noch mit einigen Überraschungen aufwarten könnte.

 

 

Wege zu künstlichen Enzymen:

Synthetische Supramoleküle machen den katalytischen Antikörpern Konkurrenz

Im vorletzten Absatz einer Publikation über den "Einfluss der Configuration auf die Wirkung der Enzyme" erlaubte sich der Berliner Professor ein wenig Spekulation: Die Wechselwirkung zwischen Enzym<$IEnzym> und Substrat, so seine gewagte Hypothese, finde nur dann statt, wenn beide komplementäre Strukturen enthielten: "Um ein Bild zu gebrauchen, will ich sagen, dass Enzym und Glucosid wie Schloss und Schlüssel zueinander passen müssen, um eine chemische Wirkung aufeinander ausüben zu können." Doch da er mehr von Experimenten als von Hypothesen hielt, und an Strukturuntersuchungen an Enzymen 1894 nicht zu denken war, verfolgte er diesen Gedanken nicht weiter -- nur ein einziges mal griff er die Analogie in einer späteren Publikation wieder auf, um sie ein wenig zu verfeinern. Seinen Ruhm als überragender Chemiker seiner Zeit und den Nobelpreis für Chemie des Jahres 1902 verdankte Emil Fischer<$IFischer, E.> nicht dieser Hypothese sondern seinen Beiträgen zur Zuckerchemie.

Doch die Vertreter der gerade aufkeimenden "physiologischen Chemie" griffen die Schlüssel-Schloß-Hypothese<$ISchlüssel-Schloß-Prinzip> rasch auf, und heute, ein Jahrhundert nach ihrer ersten Veröffentlichung, ist molekulare Erkennung nach diesem Prinzip aktueller denn je. Und das, obwohl Daniel Koshland<$IKoshland, D.> bereits 1958 herausfand, daß viele Enzyme nicht so starr sind wie ein Schloß, sondern sich eher in ihrer Struktur dem Schlüssel, d.h. dem Substrat anpassen. Der "induced fit"<$Iinduced fit> (durch die Wechselwirkung mit dem Substrat ausgelöste Paßform) löste scheinbar das Schlüssel-Schloß-Prinzip ab. Doch siehe da, die bildgebenden Schlösser evolvierten parallel mit dem Kenntnisstand der Biochemiker -- auch in einem Sicherheitsschloß sorgen bewegliche Zapfen für einen "induced fit". Ein weiterer Grund für die anhaltende Popularität der hundertjährigen Metapher liegt darin, daß die molekulare Erkennung<$Imolekulare Erkennung> heute längst nicht mehr die alleinige Domäne der Enzymologie ist. Die sogenannte supramolekulare Chemie<$Isupramolekulare Chemie> befaßt sich ausschließlich mit Molekülpaaren oder -gruppen, die sich wie Schlüssel und Schloß, oder als Wirt und Gast zusammentun, ohne eine dauerhafte Bindung einzugehen. Und solche synthetischen Wirte und Gäste sind oft starrer als natürliche Enzyme und Substrate, deshalb paßt ihre Erkennung eher in das Schlüssel-Schloß-Bild. Aber auch Polymerchemie, Oberflächen- und Kolloidchemie befassen sich mit ähnlichen Problemen, unter anderem auch im Hinblick auf die angestrebte Entwicklung "intelligenter" Werkstoffe.

Dennoch spielen die Enzyme und ihre Substrate -- die Schloß- und Schlüsselverbindungen der Natur -- in den meisten Arbeiten zu diesem Thema eine wichtige Rolle -- sei es als Ausgangspunkt für Variationen (hitzeresistentere Proteine, wirksamere Hemmstoffe, etc.) oder als Zielvorgabe für Synthetiker,als das große Vorbild, an dem die Effizienz eines künstlichen Katalysators<$IKatalysator> gemessen wird. Künstliche oder neuartige Enzyme kann man auf beiden Wegen herstellen. Will man von der Natur ausgehen, so kann man etwa durch "Protein Engineering" bestehenden Enzymen eine veränderte "unnatürliche" Substratspezifität anerzieht. Sucht man jedoch nach katalytischen Riesenmolekülen, die mit natürlichen Enzymen nichts gemein haben, so bieten sich im wesentlichen zwei unterschiedliche Prinzipien an:

1) Selektion der aktiven Komponenten aus einem großen Pool von geeigneten Ausgangsmaterialien, z. B. Antikörpern oder Nucleinsäuremolekülen, und

2) Design, d.h. Synthese eines Katalysators nach Maß.

Ein bißchen Design ist natürlich auch bei der Gewinnung katalytischer Antikörper<$IAntikörper> im Spiel. Um einen Antikörper selektieren zu können, der eine gegebene Reaktion katalysiert, muß man zunächst eine Verbindung entwerfen, die dem Übergangszustand der betreffenden Reaktion ähnelt. Gegen diese Verbindung wird dann ein Immunserum erzeugt, aus dem dann der Antikörper isoliert wird, der mit etwas Glück auch den Übergangszustand der zu katalysierenden Reaktion erkennt. In der Vergangenheit sind auf diese Weise bereits Antikörper-Enzyme für zahlreiche Reaktionen entwickelt worden, einschließlich solcher Reaktionen, für welche die Natur kein Enzym kennt, etwa die der Bildung von Sechsringen dienende 2,4-dipolare Cycloaddition (Diels-Alder-Reaktion). Ein weiterer spektakulärer Erfolg gelang den Anhängern dieser Forschungsrichtung 1994 mit der Erzeugung von Antikörpern, welche die Knüpfung der Peptidbindung katalysieren, durch die die Aminosäurebausteine in Proteinen miteinander verbunden sind. Nur sechs Wochen später erschien eine Arbeit in der die Kristallstruktur eines Proteine abbauenden Antikörpers dargestellt wurde. Die strukturellen Details der Substrat-Bindung zeigten verblüffende Ähnlichkeit mit den Bindungsstellen der sogenannten Serinproteasen, der am besten charakterisierten Familie proteolytischer Enzyme.

Noch nicht ganz so erfolgreich, aber dennoch aussichtsreich ist der Ansatz des Designs von "künstlichen Enzymen" mit den Mitteln der supramolekularen Chemie (de novo Design von Proteinen -- beruhend auf der "Erfindung" neuer Aminosäuresequenzen ist das Thema des folgenden Unterkapitels). Die jüngsten Fortschritte in der Wirt-Gast-Chemie haben hier gänzlich neue Perspektiven eröffnet. Beruhten frühe Arbeiten aus den 80er Jahren hauptsächlich auf der Gastfreundlichkeit der Cyclodextrine<$ICyclodextrin> (ringförmige Verbindungen aus sechs Molekülen des Zuckers Dextrose, in deren Mitte sich eine Art Bindungstasche für hydrophobe (wassermeidende) Verbindungen befindet), so hat die Verwendung von Porphyrinen<$IPorphyrin> als Bausteinen in synthetischen Riesenrädern völlig neue Bindungs- und Katalysewege ermöglicht. Porphyrine sind relativ große, stickstoffhaltige organische Ringverbindungen, die sich in der Natur zum Beispiel (mit einem Magnesium-Ion in der Mitte) im Blattfarbstoff Chlorophyll oder (mit einem Eisen-Ion in der Mitte) im Blutfarbstoff Hämoglobin finden. Der Arbeitsgruppe von Jeremy Sanders in Cambridge gelang die Synthese eines Super-Rings in dem drei Porphyrin-Ringe mit je einem Zink-Ion<$IZink> in der Mitte über synthetische Verbindungsstücke miteinander verknüpft sind (Abb. 23). Die Zink-Ionen können elektronenreiche Molekülteile wie etwa das Stickstoffatom in einem Pyridin binden. Sanders Gruppe fand, daß diese Erkennung zu der Beschleunigung einer Diels-Alder-Reaktion führen kann. Mehr noch, die unter normalen Reaktionsbedingungen vorherrschende "kinetische Kontrolle" (nicht das stabilere sondern das schneller erreichbare Produkt wird gebildet), die zu der gebogenen "endo"-Variante des Produkts führt, konnte durch die Reaktionsbeschleunigung ausgeschaltet werden. In Anwesenheit des Triporphyrins entstand ausschließlich das aus Stabilitätsgründen bevorzugte, flachere "exo"-Produkt. Und da zu jedem guten Enzym<$IEnzym> auch ein Hemmstoff (Inhibitor<$IInhibitor>) gehört, bauten Sanders Mitarbeiter eine Verbindung, die alle drei Zink-Atome gleichzeitig mit je einem Pyridin-Ring blockieren kann, und auch tatsächlich das klassische Verhalten eines Inhibitors zeigt, der mit einem Substrat um die Bindungsstelle konkurriert. Ein kleiner Schönheitsfehler macht den Entdeckern aber noch zu schaffen -- das künstliche "Enzym" will sein Reaktionsprodukt nach getaner Arbeit nicht wieder hergeben. Deshalb muß der Reaktionsbeschleuniger in diesem Fall nicht nur in katalytischen (d.h. sehr kleinen) sondern in stöchiometrischen (der Substratkonzentration äquivalenten) Mengen zugesetzt werden. Doch hier greift der prinzipielle Vorzug solcher synthetischer Systeme -- was nach Plan gebaut ist, kann auch gezielt umgebaut werden, um die Bindungseigenschaften dem angestrebten Zweck anzupassen.

Anwendungsperspektiven für un-natürliche Katalysatoren mit der für Enzyme typischen Substratspezifität lassen sich überall dort vermuten, wo Enzyme entweder von der Natur nicht vorgesehen sind, oder die Anwendungsbedingungen ein stabileres Molekül erfordern. So könnten zum Beispiel die Schwierigkeit, ein therapeutisches Enzym unbeschadet an den Zielort im Körper zu bringen, oder einen biotechnischen Prozeß bei hohen Temperaturen jenseits der Stabilitätsgrenzen normaler Enzyme zu führen, auf diese Weise umgangen werden. In der organischen Synthese könnten neuartige Katalysatoren die gezielte Erzeugung nur einer der beiden zueinander spiegelbildlichen Strukturen von chiralen Verbindungen ermöglichen, was heute eine der Hauptschwierigkeiten bei der Naturstoffsynthese ist. Genau diese bemerkenswerte Entdeckung, daß nämlich Enzyme Bild und Spiegelbild mit hundertprozentiger Genauigkeit unterscheiden können, wo Synthetiker um jeden einzelnen Prozentpunkt ringen, hatte Fischer<$IFischer, E.> vor 100 Jahren zu der Formulierung der Schlüssel-Schloß-Hypothese geführt.

 

 

Proteine nach Maß: de novo Design bringt erste Erfolge

Künstliche Proteine<$IProtein> herzustellen sollte eigentlich kein Problem sein -- weitestgehend automatisierte Peptid-Sythesizer können bis zu 50 Aminosäuren lange Peptide<$IPeptid> in guten Ausbeuten herstellen. Der Haken an der Sache liegt in dem folgenden Schritt, der Proteinfaltung<$IProteinfaltung>. Wenn wir eine völlig neue Aminosäurensequenz vor uns sehen, können wir nicht vorhersagen, wie sich diese falten wird -- oder ob sie überhaupt zu einer geordneten Struktur finden wird. Dieses "Faltungsproblem" hat bisher die Herstellung von synthetischen Proteinanalogen mit neuen Aminosäure-Sequenzen oder neuen Strukturen weitestgehend verhindert.

Es besteht andererseits ein erhebliches Interesse daran, dieses Hemmnis aufzuheben, etwa weil die natürlichen Proteine oft aus "historischen" Gründen komplizierter sind, als sie sein müßten, und ein kleines, für eine gegebene Aufgabe maßgeschneidertes Peptid durchaus (theoretisch) die optimale Lösung bieten könnte. Zudem erhofft man sich von kleinen, auf eine Funktion beschränkten Modellproteinen Hilfe zum Verständnis der entsprechenden Funktion in den hochkomplizierten natürlichen Systemen.

Deshalb haben sich seit den achtziger Jahren unerschrockene "Designer" darangemacht, Sequenzen zu entwerfen, mit dem Ziel, bestimmte einfache Strukturen auszubilden. Anfang der neunziger Jahre sind diese Designer-Peptide schon fast zu richtigen kleinen Proteinen herangewachsen, sodaß diese nun auch von Proteinbiochemikern ernst genommen werden.

Zu den Tricks, auf welche die Designer mangels eines aufgeklärten "Faltungscodes" zurückgreifen müssen zählen die Verwendung kleiner Sequenzeinheiten ("Module") die dafür bekannt sind, relativ unabhängig von den Umgebungsbedingungen immer dieselbe Struktur auszubilden, der Einsatz von Baugerüsten (Templaten), sowie die Zuhilfenahme von Metallionen, deren Koordinationschemie bekannt ist und etwas Ordnung in die Aminosäurekette bringt.

Den letzteren Weg wählte die Arbeitsgruppe von Bill DeGrado, der als Pionier des de novo Designs gilt und den ganzen mühsamen Weg von einfachsten Strukturen bis zu den ersten interessanten künstlichen Proteinen gegangen ist. Vorläufiger Höhepunkt war die Anfang 1994 veröffentlichte Beschreibung eines 4-Helix-Proteins, das aus zwei Untereinheiten mit jeweils 62 Aminosäurebausteinen besteht und zusätzlich zwei Moleküle der sogenannten Häm-Gruppe bindet, wie sie z.B. auch in dem Blutfarbstoff Hämoglobin und in dem Blattpigment Chlorophyll gefunden wird. Vorbild für dieses Designerprotein war das Cytochrom bc1, das ebenfalls zwei Haemgruppen enthält, deren sehr verschiedene elektrochemische Potentiale es dem Cytochrom ermöglichen, Ladungen über die für solche Vorgänge erhebliche Entfernung von 2 nm zu transportieren. Wie es zu dieser Eigenschaft kommt, ist noch nicht ganz verstanden, und das einfachere künstliche Modellprotein könnte sich bei der Aufklärung dieses Rätsels als nützlich erweisen.

Die Templatsynthese ist das Steckenpferd des aus Basel an die FU Berlin übergesiedelten Chemikers Manfred Mutter. Bleiben wir beim Beispiel eines 4-Helix-Bündels, so würde dieses nach Mutters Methode als TASP (templatassoziiertes synthetisches Protein) in der Weise hergestellt, daß jede der vier Helices mit einem Ende an einer festen Matrix verankert wäre.

In letzter Zeit (1994/95) sind eine ganze Reihe echter de novo Design Proteine vorgestellt worden, die interessante Eigenschaften wie etwa spezifische Metall-Bindungsstellen oder Elektronentransfermöglichkeiten aufwiesen. Waren noch Ende der achtziger Jahre die über de novo Design zugänglichen Peptide von geradezu mitleiderregender Simplizität, so ist die Zunft der Designer jetzt in die Dimension der "richtigen" Proteine vorgestoßen, wo ihr sicherlich eine große Zukunft bevorsteht.

2. Dünne Schichten und kleine Teilchen

 

 

Der gesunde Menschenverstand ermöglicht uns mancherlei Prognosen über das Verhalten unserer physikalischen (makroskopischen) Umgebung. Viele Eigenschaften der Materie sind von der Menge unabhängig (ein Liter Wasser siedet bei derselben Temperatur wie zehn Liter). Meßgrößen, die von der Menge abhängen, folgen einfachen Proportionalitätsgesetzen (zwei Liter Wasser sind doppelt so schwer wie ein Liter). Ob ein Eisendraht dick oder dünn, kurz oder lang ist ändert nichts an seiner Farbe, seinem Schmelzpunkt oder seiner Zerreißfestigkeit bezogen auf die Querschnittsfläche.

Solche auf Alltagserfahrungen beruhende Erwartungen erfüllen sich nicht mehr, wenn wir Materialien in Nanometerdimensionen betrachten. Dünne Schichten haben ihre eigene Physik, die von der Oberflächenspannung geprägt wird und sich zum Beispiel in Phänomenen wie Seifenblasen und Schaumbildung äußert. Und kleinste Halbleiterteilchen ändern mit der Größe sogar die Farbe.

Bei der Betrachtung makroskopische Substanzmengen gehen Wissenschaftler oft idealisierend davon aus, daß diese -- verglichen mit dem atomaren Maßstab -- unendlich groß sind. Die wenigen Atome die sich in der Nähe einer Oberfläche befinden werden durch vereinfachende Annahmen wegidealisiert. Wenn jedoch die Schichten so dünn oder die Staubkörnchen so klein werden, daß praktisch alle oder die meisten Moleküle oder Atome in Oberflächennähe sind, führt dies zu interessanten und oft der Intuition widersprechenden Eigenschaften.

In den folgenden beiden Kapiteln soll zunächst ein Überblick über nano- und biotechnologische Anwendungen dünner Schichten gegeben werden, gefolgt von einer exotisch anmutenden Exkursion in die Welt der nanometergroßen Halbleiterteilchen.

 

 

Hauchdünne Flickenteppiche: Ein Stempeltrick führt die Nanotechnik in die Biowissenschaften ein

Gold<$IGold> läßt sich zu Folien auswalzen, die weniger als einen Mikrometer (tausendstel Millimeter) dick sind. Ernest Rutherford<$IRutherford, E.> beschoß im Jahre 1911 eine solche Goldfolie mit alpha-Teilchen und stellte fest, daß die meisten ungehindert hindurchgingen. Dieses klassische Experiment, einer der Grundpfeiler auf denen das Weltbild der modernen Physik aufbaut, demonstrierte, daß im Atom gähnende Leere herrscht: fast alle Masse ist in den Atomkernen konzentriert, die nur einen verschwindenden Bruchteil des Raums einnehmen.

Ebenso dünne Goldfolien stehen in neuerer Zeit wiederum im Mittelpunkt des Interesses, diesmal als Unterlage für noch dünnere Schichten. Gold ist relativ reaktionsträge und, bei einer Schichtdicke von 200 Nanometern nicht besonders teuer und praktisch durchsichtig (d.h. auch für optisch-elektronische Bausteine verwendbar). Deshalb ist es, wie George Whitesides von der Harvard University fand, der ideale Untergrund, um darauf neuartige Oberflächen aus Kettenmolekülen aufzubauen, die wie die Wollfäden in einem Berberteppich parallel angeordnet und dicht gepackt sind. Man nennt diese "Teppiche" monomolekulare Schichten<$Imonomolekulare Schicht>, weil sie gerade so dick sind wie eines der Moleküle lang ist, d.h. etwa ein bis zwei Nanometer.

Goldrichtig lag Whitesides auch bei der Entscheidung, die organischen Moleküle über schwefelhaltige Thiol-Gruppen an das Edelmetall zu kuppeln. Diese stellten nicht nur die gewünschte Bindung her, sondern lösten auch Verunreinigungen von der Goldoberfläche ab, deren Ausschluß sonst die Anwendung extremer Reinheitsbedingungen erfordert hätten. Am anderen Ende der Fäden kann man beliebige chemische Strukturen anknüpfen und somit nanometerdicke Teppiche mit verschiedensten Oberflächeneigenschaften knüpfen.

Mehr noch, dank einer neu entwickelten Technik konnten die Forscher sozusagen gemusterte Nanoteppiche herstellen, indem sie die eine Sorte "Fäden" (einen für Proteine<$IProtein> "klebrigen" Kohlenwasserstoff) mit einem im Mikromaßstab gefertigten gummiartigen Stempel auftrugen (Abb. 24). Die hervorstehenden, quadratischen oder rechteckigen Bereiche des Stempels übertrugen eine monomolekulare Schicht auf die entsprechenden Teile der Metalloberfläche, während die dazwischenliegenden Bereiche zunächst leerblieben. Letztere wurden dann in einem zweiten Arbeitsgang mit einer ebenfalls monomolekularen Schicht einer abweisenden Substanz aufgefüllt.

Um die Wirksamkeit der proteinbindenden Inseln zu testen, strichen die Wissenschaftler lebende Zellen auf dem Flickenteppich aus, in der Erwartung, daß die in der Zellmembran enthaltenen Proteine sich an den richtigen Stellen festsetzen. Diese hielten sich so exakt an die für sie vorgesehenen Bereiche, daß die Zellen sogar die den klebrigen Flecken entsprechende quadratische oder rechteckige Form annahmen. Auf diese Weise können lebende Zellen an definierten Orten eines Rasters und in einer definierten Form in hoher Dichte, aber ohne einander zu berühren, gezüchtet und untersucht werden. Das bedeutet auch, daß die einzelnen Zellen wie die Häuser auf einem Stadtplan eine Adresse haben, sodaß sie jederzeit lokalisiert und identifiziert werden können, z.B. auch von automatischen Meßsystemen. Damit kann diese Methode gleich mehrere Bereiche der biomedizinischen Forschung revolutionieren, in denen die Reaktion von Zellen auf Veränderungen untersucht wird, etwa Screening-Verfahren für die Suche nach neuen Pharmaca, toxikologische Tests und gentechnische Methoden.

Dabei ist die Immobilisierung lebender Zellen, von Whitesides ursprünglich mit der Absicht betrieben, Zusammenhänge zwischen Form und Funktion von Zellen zu erforschen, nur eine von zahlreichen Anwendungen seiner "Stempeltechnik". Wie Stephen H. Edgington in einem Beitrag für die Zeitschrift Bio/Technology unter der Überschrift "Die neuen Nanowerkzeuge der Biotechnologie" verheißt, macht die einfache Handhabung dieser Methode die Nanotechnologie mit Biomolekülen allen biochemischen Labors zugänglich. Für jede Sorte von biologisch interessanten Molekülen läßt sich eine spezifische Bindungsstelle entwerfen. In den USA gibt es sogar ein Institut, die "National Nanofabrication Facility", das Wissenschaftlern aller Disziplinen, die in Nanotechnologie unbeschlagen sind, bei der Entwicklung von Nanowerkzeugen für ihre jeweiligen Bedürfnisse hilft. Die Einrichtung, die bisher über 500 Projekten auf die Sprünge geholfen hat, befindet sich auf dem Campus der Cornell-Universität im Staat New York.

Als Irving Langmuir und Katharine Blodgett in den dreißiger Jahren dieses Jahrhunderts erstmals die in flüssigen Systemen allgegenwärtigen dünnen Oberflächenfilme (die z.B. die Schaumbildung in Bier und Badewasser bewirken) auf feste Substrate übertrugen, wußte man damit noch nichts rechtes anzufangen. Das hat sich in den vergangenen Jahren radikal geändert -- die dünnen Schichten, im Englischen als "Langmuir-Blodgett films" bezeichnet, wenn sie von Flüssigkeitsoberflächen auf feste Substrate übertragen werden, sind im Kommen. Das kommt nicht nur daher, daß die physikalisch orientierte Nanotechnik Anwendungsmöglichkeiten aufgezeigt hat, denen die chemisch varierbare "weiche" Nanotechnik der dünnen Schichten oft besser gerecht. wird. Ein weiterer Grund für den Boom liegt darin, daß die Methoden zur Charakterisierung solcher Materialien, z.B. Rasterkraftmikroskopie<$IRasterkraftmikroskopie> inzwischen so fortgeschritten sind, daß auch kleinste Fehler in der Struktur entdeckt werden können.

Inzwischen beschäftigen sich etliche Arbeitsgruppen damit, monomolekulare Schichten von biologisch aktiven oder chemisch interessanten Substanzen auf einen festen Untergrund aufzubringen. Ebenso wie Whitesides nutzt James K. Whitesell von der University of Texas in Austin die Bindung von Thiolgruppen an Goldoberflächen zu diesem Zweck. Seine Arbeitsgruppe bringt auf diese Weise Peptide<$IPeptid> in eine dichtgepackte Schicht parallel ausgerichteter schraubenartig gewundener Moleküle (Helices). Sind die Peptid-Helices verschieden lang, so kann man sie mit geeigneten Enzymen auf eine einheitliche Länge stutzen, und erhält eine dichte und glatte Oberfläche aus organischen Makromolekülen -- sozusagen mit dem molekularen Rasenmäher. Auch hier verspricht die Variabilität der Peptidchemie eine Vielfalt von neuartigen "pseudobiologischen" Oberflächen.

Doch es werden nicht nur "weiche" Materialien auf "harte" aufgebracht, auch der umgekehrte Fall findet Interesse. Keramikbeschichtete Kunststoffe, wenn man sie denn herstellen könnte, fänden ein weites Anwendungsspektrum von leichten, abnutzungsresistenten Maschinenteilen über Sensoren und magnetische Speichermedien bis zu völlig neuen "intelligenten" Werkstoffe. Da die gängigen Verfahren zur Herstellung keramischer Beschichtungen hohe Temperaturen (>800 °C) erfordern, welche die meisten Kunststoffe nicht aushalten, scheint diese Aufgabe unmöglich zu sein. Doch eine Arbeitsgruppe der Firma Battelle in Richland im Staate Washington, hat der Natur über die Schulter geguckt, um herauszufinden, wie Organismen es -- bei der Bildung von Knochen und Zähnen, sowie Muschel-<$IMuschel> und Eierschalen -- fertigbringen, harte, mineralische Beschichtungen auf empfindliches organisches Material aufzubringen, ohne hohe Temperaturen oder irgendwelche aggressiven Bedingungen. Wie die Arbeitsgruppe 1994 in Science berichtete, enthalten die biologischen Membranen, die der Biomineralisation<$IBiomineralisation> als Untergrund dienen, spezielle funktionelle Gruppen, die bewirken, daß die Kristallisation der anorganischen Komponente aus der übersättigten Lösung auch tatsächlich auf der Oberfläche stattfindet, und nicht etwa an beliebigen Stellen in der Lösung. Bringt man diese Molekülteile, etwa eine Sulfonsäuregruppe an Kunststoffoberflächen (z.B. Polystyrol oder Polycarbonat) an, so kann man den Mechanismus der Biomineralisation nachahmen und auf diesem biomimetischen Wege keramische Beschichtungen bei Temperaturen unter 100°C auf Kunststoffe aufbringen. Die biomimetische Erzeugung dünner Keramikschichten hat auch in anderen Bereichen Vorteile gegenüber herkömmlichen Verfahren. Eine ihrer möglichen Anwendungen ist wahrhaft biomimetisch: Knochenimplantate aus porösem Titan können auf diese Weise mit einer dünnen Schicht eines Calciumphosphats bezogen werden, das als Vorläufer für zur Bildung des Knochenminerals Apatit dient, ohne daß die Poren, welche für das "Zusammenwachsen" mit dem echten Knochen wichtig sind, verstopft werden.

Peptide auf Gold, Keramik auf Kunststoff -- die enge Verbindung dünner Schichten von organischen mit anorganischen, biologischen mit metallischen Materialien ist schon beinahe ein Sinnbild dafür, wie in der Nanowelt die Disziplinen zusammenwachsen. Biologen verwenden Nanotechnik, Elektronik-Bausteine enthalten Biomoleküle, moderne Werkstoffe verbinden die Beständigkeit des (anorganischen) Granit mit der chemischen Variabilität organischer Synthese und den zweckoptimierten Struktureigenschaften der Biomoleküle. Und zwischen all diesen dünnen Schichten dürfte sich für die technische Anwendung auch noch die eine oder andere Goldader finden.

 

 

Teilst du mich, dann verfärb ich mich:

Q-Teilchen sind anders als normale Materialien

Zerteilt man ein rotes Staubkorn, so erhält man zwei rote Partikelchen -- sollte man meinen. Bei Q-Teilchen<$IQ-Teilchen> ist das anders. Diese wenige Nanometer (millionstel Millimeter) großen Partikeln aus Halbleitermaterial<$IHalbleiter> können je nach ihrer Größe schwarz, braun, rot oder gelb sein. Das "Q" weist darauf hin, daß quantenmechanische Effekte im Spiel sind.

Um diesen verblüffenden Farbeffekt und weitere merkwürdige Eigenschaften der Q-Teilchen zu verstehen muß man zunächst wissen, was ein Halbleitermaterial von anderen -- leitenden oder nichtleitenden -- Werkstoffen unterscheidet.

Halbleiter zeichnen sich dadurch aus, daß von den beiden Energiezuständen, in denen Elektronen sich aufhalten können, derjenige mit der geringeren Energie, das sogenannte Valenzband, vollbesetzt ist, während der höherenergetische ("angeregte") Zustand, das Leitungsband, leer bleibt (Abb. 25). Sie werden erst dann leitend, wenn durch eine Anregungsenergie (z.B. Licht, Wärme oder elektromagnetische Felder) Elektronen über die Bandlücke hinweg in das Leitungsband befördert werden. Geschieht die Anregung durch Licht, so wird dieses dabei absorbiert (ausgelöscht), und zwar ausschließlich bei einer Wellenlänge, die der Energiedifferenz, d.h. der "Breite" der <$IBandlücke> zugeordnet ist. Diese selektive Absorption bestimmter Lichtwellenlängen ist verantwortlich für die Farbigkeit solcher Materialien -- wir sehen die Farbe des übrigbleibenden, nicht absorbierten Lichtes.

Q-Teilchen stellen nun ein Mittelding zwischen dem für atomare Maßstäbe unendlich ausgedehnten Halbleitermaterial und einem aus wenigen Atomen bestehenden Molekül dar. Diese Übergangsstellung äußert sich darin, daß die Größe der Bandlücke -- normalerweise eine Materialeigenschaft -- mit abnehmender Partikelgröße zunimmt. Darauf sind sowohl der Farbeffekt als auch die interessanten elektronischen Eigenschaften von Q-Teilchen aus Halbleitermaterial zurückzuführen.

Wie stellt man nun solche Teilchen her? Cadmiumsulfid, bekannt aus den Belichtungsmessern von anno dazumal, kann in Form von wenige Nanometer großen Partikeln aus einer schwach alkalischen Lösung von Cadmiumionen mit Schwefelwasserstoff gefällt werden. Die Präparation ist weder schwierig noch zeitaufwendig, allerdings kann die Partikelgröße auf veränderte Versuchsbedingungen empfindlich reagieren.

Physiker gehen auf völlig andere Weise an die Untersuchung der Quanteneffekte kleinster Teilchen heran. Sie nutzen die neuentwickelte Methoden der Nanotechnik, um aus Halbleiterchips nanometergroße Bereiche durch Wegätzen des umgebenden Materials oder durch elektrische Felder einzugrenzen. Diese sogenannten Quantenpunkte<$IQuantenpunkt> (engl. "quantum dots") lassen sich dann zu elektronischen Schaltelementen ausbauen. Durch geschicktes Anlegen sehr kleiner Spannungen kann man aus ihnen auch "künstliche Atome" erzeugen. Wenn man nämlich ein negativ geladenes Elektron vom Valenz- in das Leitungsband befördert, verbleibt im Valenzband ein positiv geladenes Loch, und man erhält ein Ladungspaar, das gewisse Ähnlichkeiten mit einem Atom (positiv geladener Atomkern, negativ geladene Elektronenhülle) hat. Die künstlichen Atome haben den Vorteil, daß man die Zahl der sich gegenüberstehenden Ladungen frei wählen kann, man kann also, an einem einzigen Modellsystem Untersuchungen quer durch das Periodensystem der Elemente durchführen. An den künstlichen Atomen lassen sich theoretische Vorhersagen der Quantenmechanik überprüfen. So kann ein einzelnes Elektron in einem eng umgrenzten Raum beobachtet werden, ein experimentelles Beispiel für ein grundlegendes quantenmechanisches Modell, das "Teilchen im Kasten".

Ein drittes Gebiet, das neben der Kolloidchemie und der Halbleiterphysik sich mit solchen Mini-Teilchen befaßt, ist die Clusterchemie. Metalle zeigen Größenquantisierungseffekte erst bei noch kleineren Dimensionen als Halbleiter. Deshalb sind Komplexe aus einigen Dutzend Metallatomen, die sogenannten Cluster, in direktem Zusammenhang mit den Q-Teilchen zu sehen. Anfang 1993 wurde zum Beispiel ein Gold-Cluster<$IGold><$ICluster> aus 55 Atomen vorgestellt, der die Eigenschaften eines Q-Teilchens besitzt. Es zeichnet sich ab, daß die drei Gebiete, die sich seit ca. 10 Jahren unabhängig voneinander mit ähnlichen Problemen beschäftigt haben, jetzt endlich zusammenwachsen.

Vereinte Kräfte aus allen drei Forschungsgebieten werden nötig sein, wenn die schillernde Materie einer sinnvollen Anwendung zugeführt werden soll. Obwohl die Q-Teilchen bisher noch weitgehend eine Domäne der Grundlagenforschung sind, kann man sich bereits vielfältige Verwendungsmöglichkeiten vorstellen. Zum Beispiel könnte man bessere Solarzellen (die heute verfügbaren nutzen nur einen minimalen Anteil der einfallenden Sonnenenergie) herstellen, indem man eine poröse Oberfläche mit einer dünnen Schicht dieser Materialien versieht. Über die Partikelgröße könnte man die Lichtabsorptionseigenschaften dieser Sonnenkollektoren genau auf die Eigenschaften des Sonnenlichts einstellen, und dieses besser ausnutzen. Auf denselben Zweck zielen Versuche, die Spaltung des Wassers mit Hilfe der durch Lichtabsorption aktivierten Q-Teilchen zu bewerkstelligen. Könnte man die durch Licht bewirkte Ladungstrennung im Halbleiter so kanalisieren, daß die positive Ladung den Sauerstoff des Wassermoleküls zu molekularem Sauerstoff (O2) oxidiert, während die negative Ladung den Wasserstoff reduziert, so ließe sich Sonnenenergie in Form der getrennten Gase Sauerstoff und Wasserstoff beliebig speichern und transportieren.

Im Bereich der Chemie könnte der ungewöhnlich hohe Anteil von oberflächennahem Material in Q-Teilchen für die Katalyse (Reaktionsbeschleunigung) genutzt werden. So erprobt man zum Beispiel schon die katalytische Abwasserreinigung mit Titandioxid-Teilchen, die auch in dieser Größe liegen.

Das größte Potential dieser Materialien liegt jedoch in der Elektronik und in der Photoelektronik." Mit Halbleiter-Q-Teilchen kann man nicht nur selektiv Licht einer bestimmten Wellenlänge in Strom umwandeln, sondern auch umgekehrt, durch Anlegen einer Spannung die Partikel zum Leuchten bringen. Man wird also bei der physikalischen Anwendung sicherlich den Umstand nutzen, daß man mit Q-Teilchen einzelne Elektronen und Photonen "handhaben" kann -- so spricht man schon von dem Ein-Elektron-Transistor, und von optischen Schaltern, doch diese Schaltelemente, die vielleicht in den Supercomputern von morgen Verwendung finden, sind heute noch Zukunftsmusik.

 

 

 

3. Biotechnologie

 

 

Die älteste, bis ins vorchristliche Jahrtausend zurückreichende Technologie im Nanometermaßstab ist die Biotechnologie. Seit den Anfängen der Back- und Braukunst in vorgeschichtlicher Zeit haben Menschen sowohl lebende Zellen (Hefen in Teig und alkoholischer Gärung, Bakterien in Joghurtkulturen) als auch einzelne Enzyme ("Lab" bei der Quarkbereitung) für ihre Zwecke eingesetzt -- auch wenn sie vor Pasteur<$IPasteur, L.> nicht ahnten, was bei diesen Prozessen wirklich vorging. In unserem Jahrhundert hat sich das Spektrum der Anwendung biotechnologischer Verfahren ausgeweitet und schließt nun neben lebensmitteltechnologischen Anwendungen auch die Herstellung von Arzneimitteln und Pestiziden, sowie die gentechnische Veränderung von Organismen ein.

Bei all der Mühsal, welche das Vordringen in die Nanowelt den Ingenieuren dieser Zukunftstechnologie bereitet, liegt natürlich der Gedanke nahe, sich die Umstände zu sparen, und gleich auf die Nanotechnik der Natur zurückzugreifen, und sie für die angestrebten Zwecke einzuspannen. Dieser biotechnische Ansatz ist heute noch sehr viel stärker vertreten als rein nanotechnologische Unternehmungen, und wird mittelfristig für diese der stärkste Konkurrent bleiben. Oft jedoch, wie oben am Beispiel der von G. Whitesides entwickelten "Stempeltechnik" demonstriert, verschmelzen Bio- und Nanotechnik zu einer Einheit, deren Produkt leistungsfähiger ist als jede der Technologien für sich.

Gentechnik<$IGentechnik> macht, wie wir sehen werden, das Unmögliche möglich -zum Beispiel blaue Rosen -- , hat aber auch ihre Grenzen. Ihre Methoden, etwa die im dritten Unterkapitel vorgestellte, die Herstellung eines Genprodukts mit Hilfe eines grün fluoreszierenden Proteins zu verfolgen, überlappen sich oft mit nicht-biologischer Nanotechnik. Ein Protein, welches ohne Zusatz anderer Hilfsmittel (sichtbares) Licht einer bestimmten Wellenlänge in Licht einer anderen Wellenlänge umwandelt, ist ein Geschenk nicht nur für Gentechniker, sondern auch für die Nanotechnologen. Ebenfalls auf einer interdisziplinären Grenzlinie, nämlich zwischen physikalischer Chemie und Biotechnik, bewegen sich die letzten beiden Unterkapitel dieses Teils, in denen die Verwendung hoher Drücke beziehungsweise des Glasübergangs bei tiefen Temperaturen diskutiert wird. Natürlich sind diese fünf Expeditionen nur Stichproben aus dem weitgefächerten Spektrum der Verfahren und Anwendungsmöglichkeiten der Biotechnologie. Eine umfassende oder auch nur repräsentative Darstellung würde ein eigenes Buch erfordern.

 

 

Das falsche Produkt: Lesefehler bei der gentechnischen Herstellung von Proteinen sind schwer zu vermeiden

Daß man mit Methoden der Gentechnik<$IGentechnik> heute Bakterien dazu bringen kann, "authentische" menschliche Proteine<$IProtein>, etwa das für Diabetiker lebenswichtige Insulin<$IInsulin> (siehe Kap. II.2.), herzustellen, beruht zuallererst darauf, daß der genetische Code universell gültig ist: in Darmbakterien ebenso wie in menschlichen Zellen, in Schimmelpilzen ebenso wie in Rosenblüten<$IRose> bedeutet die Abfolge der Nucleotidbasen Guanin-Guanin-Adenin (GGA), daß in das Proteinprodukt die Aminosäure Glycin eingebaut werden soll (Abb. 26). Doch -- keine Regel ohne Ausnahme -, in den letzten Jahren häuften sich experimentelle Belege dafür, daß der Code doch nicht so allgemein gültig ist wie man jahrzehntelang angenommen hatte. Wie Manuel Santos und Mick Tuite von der University of Kent in Canterbury 1993 in einem Übersichtsartikel in der Fachzeitschrift "Trends in Biotechnology" warnten, ist mit einer erhöhten Häufigkeit von Lesefehlern vor allem dann zu rechnen, wenn genetische Information aus einem Eukaryonten<$IEukaryont> (Tiere, Pflanzen etc.) in ein Bakterium eingeschleust wird -- eine Hiobsbotschaft für Gentechniker.

Eine der Fehlermöglichkeiten rührt daher, daß in dem universellen Code verschiedene Dreibuchstabenwörter (Codons) für ein und dieselbe Aminosäure stehen können, daß aber verschiedene Arten von Lebewesen unterschiedliche Vorlieben bei der Verwendung austauschbarer Codons entwickelt haben. Besonders drastisch sind diese Unterschiede zwischen den Urreichen, d.h. zum Beispiel auch zwischen Tieren und Pflanzen einerseits und Bakterien andererseits.

Was passiert nun, wenn ein menschliches Gen<$IGen> in einem Bakterium abgelesen werden soll? Beide verwenden zwar denselben "universellen" genetischen Code, aber die Häufigkeit der Codons ist verschieden. Ein Codon, das in dem eingeschleusten Gen häufig vorkommt, kann für die Wirtszelle exotisch sein -- sie ist nicht darauf eingerichtet, jene Moleküle, die genau dieses Codon spezifisch erkennen und die ihm entsprechende Aminosäure zum Einbau bereithalten (Aminoacyl-tRNA) in der nötigen Anzahl zur Verfügung zu stellen. Das Ribosom<$IRibosom>, die Proteinsynthesemaschine der Zelle, kann den Engpaß auf zweierlei Art umgehen. Entweder es baut eine falsche Aminosäure ein und fährt dann richtig in der Sequenz fort -- oder es kann auf der Boten-RNA eine Base vor- oder zurückrutschen und dadurch ein anderes Triplett lesen, welches sich mit dem richtigen Codon um zwei Nucleotidbausteine überlappt -- diesen Vorgang nennt man Leserahmenverschiebung<$ILeserahmen>. Der letztere Fehler ist gravierender, weil das Ribosom in der Folge die Leserahmenverschiebung beibehält und lauter falsche Codons abliest, während der erstere die Eigenschaften des Produkts weniger beeinflußt, aber auch schwieriger zu entdecken ist.

Neben diesen unbeabsichtigten Fehlern, die sich bei gentechnischer Herstellung von Proteinen in Fremdorganismen an solchen "hungrigen Codons" häufen können, gibt es auch planmäßige Abweichungen vom vermeintlich universellen genetischen Code, die nur in bestimmten Zellen oder Organismen auftreten und dort für die Synthese des korrekten Proteinprodukts nötig sind. Das prominenteste Beispiel ist die Codierung der seltenen Aminosäure Selenocystein durch ein Codon, das normalerweise als Stop-Signal dient. Ebenso wie die zufälligen Fehler können diese programmierten Abweichungen von den allgemeinen Regeln zu fehlerhaften Produkten führen, wenn gentechnisch veränderte Zellen ein Fremdprotein herstellen sollen.

Abhilfe ist bei einigen dieser Probleme leicht, wenn man den Fehler identifizieren kann. Entdeckt man einen häufig vorkommenden Lesefehler an einem hungrigen Codon, so kann man dieses "sättigen", indem man die entsprechende Aminosäure dem Wachstumsmedium zusetzt. Schwieriger ist es, Fehler auszuschließen, die mit einer Häufigkeit von unter einem Prozent vorkommen. Die gängigen Reinigungs- und Analyse-Techniken können solche Verunreinigungen oft nicht entdecken, obwohl diese -- in therapeutisch verwendeten Proteinen -- durchaus Nebenwirkungen, z. B. eine Immunantwort, auslösen können. Nur wenige Methoden sind bislang geeignet, kleine Anteile einer falsch eingebauten Aminosäure aufzuspüren, darunter die modernsten Varianten der Massenspektrometrie<$IMassenspektrometrie>, der Flüssigchromatographie und der Sequenzanalyse im Mikromaßstab. Diese Methoden werden zwar in vielen Forschungslabors verwendet, kommen aber noch nicht routinemäßig in der Produktkontrolle für Pharmazeutika zum Einsatz. Manuel Santos und Mick Tuite fordern deshalb, Routinetests mit den modernsten Techniken für alle gentechnisch hergestellten Pharmaproteine einzuführen.

Eine Alternative, die diese Probleme umgehen hilft, bietet sich möglicherweise in einer Erfindung des russischen Biochemikers Alexander Spirin: Seine Arbeitsgruppe am Institut für Proteinforschung in Puschtschino bei Moskau entwickelte einen zellfreien Proteinbioreaktor, mit dessen Hilfe die genetische Information in Abwesenheit lebender Zellen zu Proteinen umgesetzt werden kann. Lediglich die dazu nötigen Zellkomponenten wie Ribosomen, tRNAs etc. werden in den Reaktor gegeben und mit der Boten-RNA und den Aminosäurebausteinen gefüttert. Wie Spirin bereits 1988 in Science ausführte, kann mit dieser Technik eine zellfreie Proteinsynthese über 20 Stunden aufrecht erhalten werden, und es können pro eingesetztem Molekül Boten-RNA einige hundert Moleküle hochreinen Produkts erzeugt werden. Ein Vorteil dieser zellfreien Methode gegenüber der gentechnischen ist der, daß der Proteinbioreaktor nur eine Protein-Art herstellt, während die in der Gentechnik verwendeten Bakterien neben der erwünschten Substanz noch einige tausend andere Proteine und andere Makromoleküle herstellen, von denen das erstere in aufwendigen Reinigungsprozeduren getrennt werden muß. Des weiteren können die Komponenten in einem solchen Bioreaktor natürlich dem herzustellenden Protein angepaßt werden -- ein menschliches Protein könnte etwa von Säugetier-Ribosomen<$IRibosom> hergestellt werden, die den unseren hinreichend ähnlich sind um Probleme mit der Codonverwendung und die daraus resultierende Heterogenität des Produkts ausschließen zu können. Schließlich kann man mit dieser Methode auch Proteinprodukte herstellen, die in der lebenden Zelle nicht stabil oder für diese giftig wären.

In einer 1993 vorgelegten Studie der Deutschen Gesellschaft für Chemisches Apparatewesen (Dechema), auf deren Empfehlungen ein Förderprogramm "Biotechnologie 2000" des Bundesforschungsministeriums aufgebaut werden soll, wird die russische Erfindung als eine vielversprechende Innovation gewürdigt, deren Ausbau zum industriellen Maßstab im Rahmen des Projekts geprüft werden soll. Sollte die zellfreie Methode sich durchsetzen, dann würde im Reagensglas und in den Proteinreaktioren der biotechnischen Industrie der universelle genetische Code noch ein bißchen weitergelten.

 

 

Die Jagd nach der blauen Rose: Zwei Gentech-Firmen wollen "blue genes" zur neuesten Mode machen

Rote Rosen<$IRose> gelten als Sinnbild für Liebe und Hochzeit, weiße Rosen für Entsagung und Tod -- beide Sorten und die dazwischenliegenden Rosatöne sind so alt wie die Kulturgeschichte des Abendlands. Neue Farben auf der Palette der Natur erreichten Europa erst Anfang des 19. Jahrhunderts, als gelbe Rosen aus dem Fernen Osten eingeführt wurden. Seitdem hat der Kreuzungs- und Züchtungseifer der Rosen-Fans an die 50000 Sorten in nahezu allen Farben des Regenbogens, einschließlich Grün und Violett, hervorgebracht, mit einer Ausnahme: es gibt bis heute keine blauen Rosen. Auch Rosensorten, welche die Bezeichnung Blau im Namen tragen, etwa "Veilchenblau", sind allenfalls veilchenlila, aber bei weitem nicht kornblumenblau.

Nachdem tausende von Pigmentstoffen aus den Blütenblättern verschiedenster Rosensorten isoliert und charakterisiert worden sind, und man auch die zu ihrer Synthese notwendigen Enzyme<$IEnzym> und die an der Farbwirkung mitbeteiligten physiologischen Bedingungen kennt, dämmert den Farbenforschern die Erkenntnis, daß man blaue Rosen nicht züchten kann. Allen bekannten Rosenarten fehlt ein bestimmtes Enzym, um den Biosynthese-Weg von dem Pigmentgrundstoff Dihydrokaempferol zu dem roten Cyanidin-3-glucosid zu einem blauen Farbstoff, dem Delphinidin-3-glucosid umzuleiten (Abb. 27), wie Timothy A. Holton und Yoshikazu Tanaka 1994 in der Fachzeitschrift Trends in Biotechnology berichteten. Einen Ausweg bieten lediglich "blaue Gene"<$IGen>. Die Abschnitte des Erbmaterials DNA<$IDNA>, die in Petunien für dieses den Rosen fehlenden Enzym verantwortlich sind, konnten isoliert werden und in Petunien, denen das Blau durch Mutation abhanden gekommen war transferiert werden. Nach allem was bisher bekannt ist, sollte eine Übertragung der "blauen Gene" auf Rosen möglich sein, und hier ebenfalls zu blauen Blütenblättern führen. Eventuell müßten allerdings zur Feinabstimmung der Farbe weitere Manipulationen ausgeführt werden um den pH-Wert des Pflanzensafts so zu justieren, daß die gewünschte Farbe auftritt.

Mit Blick auf den Milliarden Dollar schweren Weltmarkt für Schnittblumen, wo Neuigkeitswert ein wichtiges Verkaufsargument ist, haben die Firmen Calgene Pacific in Australien und Suntory in Japan, denen die Autoren des obengenannten Artikels angehören, die gentechnische Erzeugung blauer Rosen gemeinsam in Angriff genommen. Akzeptanzfragen kommen den Biotechnikern gar nicht in den Sinn -- sie rechnen mit einem "erheblichen kommerziellen Interesse, insbesondere in Japan". Auch hierzulande mag der Vorbehalt gegen genmanipulierte Pflanzen geringer sein, wenn sie nicht zum Verzehr bestimmt sind. Obwohl der Präzedenzfall der Genpetunien, deren falsche Farbe seinerzeit im Freilandversuch ausblich, die Schnittblumenkundschaft mißtrauisch machen sollte.

 

 

Das Grüne Leuchten: Ein grünfluoreszierendes Protein erleichtert die Untersuchung der Genexpression

Biolumineszenz<$IBiolumineszenz> -- das Phänomen, daß Lebewesen aus Stoffwechselenergie Licht erzeugen können -- ist nicht nur in Glühwürmchen anzutreffen. Auch manche Quallen-<$IQualle> und Fisch-Arten haben unabhängig voneinander ihr eigenes Beleuchtungssystem entwickelt. Und das charakteristische grüne Leuchten der Qualle Aequorea victoria erstrahlt in letzter Zeit immer häufiger in molekularbiologisch ausgerichteten Labors.

Daß gerade das Lumineszenz-System dieser glibberigen Tiere so nützlich ist, hängt damit zusammen, daß hier die Aufnahme des chemischen Signals und die Abgabe des grünen Lichts von verschiedenen Bestandteilen des Systems ausgeführt werden. Für den ersten Schritt ist ein Protein<$IProtein> namens Aequorin zuständig, das auf ein durch Calcium-Ionen<$ICalcium> übertragenes Signal hin Licht aussendet. Dieses Licht ist allerdings im Reagensglas-Versuch blau. In der Qualle wird das blaue Licht von einem weiteren Protein absorbiert, welches dann grünes Licht emittiert -- das Grünfluoreszierende Protein, GFP. Letzteres benötigt für seine Lichtemission nichts weiter als die Einstrahlung von blauem oder ultraviolettem Licht. Es funktioniert deshalb auch außerhalb der Quallenzellen, ja sogar dann, wenn es auf gentechnischem Wege in anderen Zellen hergestellt wurde und nie eine Aequorea victoria von innen gesehen hat.

Aus dieser bemerkenswerten Eigenschaft ergibt sich eine Anwendungsmöglichkeit, Anfang 1994 vorgeschlagen und schon bald darauf in zahlreichen Labors praktiziert wurde. Will man ein Gen<$IGen> in einen anderen Organismus einschleusen, sodaß dieser das darauf codierte Protein herstellt, so kann man einfach das Gen für GFP als Sonde mit dem interessierenden Gen koppeln. Nach der Transferreaktion hält man die Agarplatten mit den kultivierten Zellen unter eine UV-Lampe, die in jedem molekularbiologischen Labor vorhanden ist. Wenn die Zellen grün leuchten, war der Gentransfer<$IGentransfer> erfolgreich. Manche der früheren Verfahren benutzten zwar auch Lichtreaktionen, etwa das Leuchtprotein der Glühwürmchen, Luciferase. Diese waren aber stets auf die Zufuhr von zusätzlichen Substanzen durch die Zellmembran angewiesen, und daher nicht universell anwendbar.

Es ist jedoch nicht ganz klar, warum GFP grün leuchtet. Der für die Fluoreszenz<$IFluoreszenz> verantwortliche Molekülteil (das Chromophor) wird in einer Abfolge von nur drei Aminosäuren vermutet, zwischen denen sich durch eine ungewöhnliche chemische Reaktion das normalerweise geradlinige Rückgrat der Aminosäurekette zu einem fünfgliedrigen Ring schließt (Abb. 28). Da die Fluoreszenz auch auftritt, wenn das Protein in Fremdorganismen exprimiert wurde, müssen die zur Ausbildung des Chromophors benötigten chemischen Reaktionen von dem Protein selbst katalysiert werden. Allenfalls können Substanzen, die in allen Zellen vorhanden sind (etwa energieliefernde Nucleotide, Aminosäuren, etc.) mit dazu beitragen. Da jedoch zumindest ein Teil des Geheimnisses in der Aminosäuresequenz des Proteins verborgen sein muß, können Mutationsstudien hier sicherlich zur Aufklärung dieses Phänomens beitragen.

Mutationen werden allerdings auch mit dem Ziel durchgeführt, GFP noch vielseitiger und nützlicher zu machen. Verschiedene Arbeitsgruppen haben versucht, durch Mutation vor allem der Aminosäuren in der Umgebung des Chromophors die spektroskopischen Eigenschaften des Proteins zu verändern. Zum Beispiel das natürliche Protein im Licht nicht beliebig lange stabil. Insbesondere die energiereiche Nah-UV-Strahlung die es in großem Maße absorbiert und die vergleichsweise wirksamer in der Auslösung des Fluoreszenzlichts ist, wird ihm auf die Dauer zum Verhängnis. Ein verändertes Anregungsspektrum könnte deshalb die Lebensdauer und Anwendbarkeit des Proteins verbessern.

Zwei kalifornische Teams konnten Ende 1994 erste Erfolge vermelden. Die Gruppe von Douglas C. Youvan am Palo Alto Institut für molekulare Medizin präsentiert in der Fachzeitschrift Bio/technology Varianten des Proteins, deren Anregungswellenlänge nach Rot verschoben ist. Roger Tsien und seine Mitarbeiter an der Universität von Kalifornien in San Diego fanden ebenfalls Mutanten, die bevorzugt von langwelligerem Licht angeregt werden. In einer weiteren Arbeit konnten sie zeigen, daß auch die Farbe des emittierten Lichts variiert werden kann, etwa von grün nach blau. Diese Varianten des GFP ermöglichen die gleichzeitige Messung der Genexpression verschiedener transferierter Gene mit einem einfachen Fluoreszenz-Spektrometer, das verschiedene Anregungs- und Aussendungs-Wellenlängen nacheinander abfragen kann. Sind die Leuchtmarker einmal mit den eigentlich interessierenden Genen gekoppelt, kann man natürlich auch die Wirkung von Pharmaka, Hormonen oder Giftstoffen auf die Expression der betreffenden Gene untersuchen. Da die GFP-Fluoreszenz auch die Behandlung mit Formaldehyd überlebt, die man zur "Fixierung" von Zellen oder Geweben üblicherweise verwendet, sind diese Methoden auch auf fixiertes Zellmaterial anwendbar. Und schließlich könnte man auch die Energieaufnahme bei der Absorption des blauen Lichts durch GFP dazu benutzen, diejenigen Zellen, in denen das mit GFP gekoppelte Gen aktiv ist, mit einem Laserstrahl der entsprechenden Wellenlänge selektiv abzutöten.

Besonders bemerkenswert ist, daß sich diese noch kaum überschaubare Fülle von Anwendungsmöglichkeiten -- die sich sehr wohl auch über den Bereich der Forschung hinaus auch auf Alltags produkte erstrecken könnten -- aus Untersuchungen ergab, die ursprünglich als reine Grundlagenforschung der Frage nachgingen, wie eine Qualle es fertigbringt, grün zu leuchten.

 

 

Das hartgedrückte Frühstücksei: Hochdruckbehandlung von Lebensmitteln ist in vielen Bereichen den thermischen Verfahren überlegen

Das Frühstücksei<$IEi> des dritten Jahrtausends wird vielleicht nicht mehr ein gekochtes sondern ein gedrücktes Ei sein. Die Pioniere der Hochdruckbehandlung<$IHochdruck> von Lebensmitteln jedenfalls schwören auf die Vorzüge einer solchen Speise. Wie der japanische Biochemiker Rikimaru Hayashi im September 1992 anläßlich einer Tagung zum Thema "Hochdruck und Biotechnologie" in La Grande Motte (Südfrankreich) ausführte, enthält ein durch Behandlung mit einigen tausend Atmosphären Druck festgewordenes Ei im Gegensatz zu dem gekochten Pendant keine unnatürlichen Aminosäuren, hat keinen schwefligen Beigeschmack und enthält alle im rohen Ei vorkommenden Vitamine in der ursprünglichen Menge.

Neben der Koagulation der Proteine, auf der dieser Effekt beruht, hat der Druck auch weitere nützliche Auswirkungen, etwa die Abtötung von Mikroorganismen<$IMikroorganismen> (d.h. Haltbarmachung der Lebensmittel), die Gelatinierung (Ausbildung eines geleeartigen Zustands) von Stärke, oder die Inaktivierung von Enzymen<$IEnzym>, die während der Lagerungs oder Verarbeitungszeit der Lebensmittel<$ILebensmittel> unerwünschte Reaktionen fördern könnten. Physikalisch-chemisch erklären sich alle diese Effekte dadurch, daß der Druck die schwachen Wechselwirkungen, die die löslichen und biologisch aktiven Strukturen der Biomoleküle stabilisieren, stört und diese so in einen unlöslichen und/oder inaktiven Zustand versetzt.

Die gelatinierende und gleichzeitig sterilisierende Wirkung hoher Drücke läßt sich bei der Marmeladenfabrikation nutzen. In Japan sind seit April 1990 drei verschiedene Sorten Hochdruck-Marmelade (Erdbeer-, Kiwi- und Apfel-) auf dem Markt, die ohne jegliche Hitzebehandlung hergestellt werden. Farbe und Geschmack dieser Marmeladen entsprechen hundertprozentig dem unbehandelten Obst. Es folgte die Einführung eines dank der Druckbehandlung weniger bitteren Grapefruitsafts und eines durch Druck länger haltbaren Mandarinensafts. Weitere Lebensmittel, deren Verarbeitung oder Haltbarmachung durch Druck in Japan derzeit erprobt oder bereits angewendet wird, sind etwa: Zitrussäfte, Fleisch- und Fischprodukte, Milch und Milchprodukte, frisches Gemüse, Teegetränke, Kaffee ...

In Europa hingegen gibt es auf diesem Gebiet noch Nachholbedarf. Zu den wenigen Forschern, die in Deutschland die Möglichkeiten der Druckanwendung in der Lebensmitteltechnik untersuchen, gehört Dietrich Knorr, Professor für Lebensmitteltechnologie an der Technischen Universität Berlin. Seine Arbeitsgruppe betrachtet den Einfluß hoher hydrostatischer Drücke auf Lebensmitteleigenschaften wie etwa Schaumbildung, Gelatinierung, Textureigenschaften und Enzymaktivitäten, insbesondere auch im Hinblick auf die mögliche industrielle Anwendung. Er hat auch schon frühzeitig die Impulse aus Japan aufgenommen und -- nach eigenem Bekunden -- "eigens einen Doktoranden mit Japanischkenntnissen eingestellt", der die Originalarbeiten aus dem Fernen Osten übersetzen mußte.

Dabei steht auch hierzulande der technischen Realisierung der Hochdruck-Lebensmittelverarbeitung eigentlich nicht viel im Wege. Hohe Drücke werden bereits in verschiedensten Industriezweigen seit Jahrzehnten gehandhabt, etwa in der Glas- Keramik- und Kunststoffindustrie. Das vorhandene Know-how müßte lediglich an die spezifischen Anforderungen der Lebensmitteltechnologie übertragen werden.

Deshalb gibt es auch kaum Bedenken bezüglich der Betriebssicherheit der Hochdruck-Lebensmitteltechnik. Wie Bart Mertens von der belgischen Firma FMC Corporation, die solche Verfahren für den europäischen Markt entwickelt, ausführt, sind "die Analysen der Materialbelastung in langjähriger Erfahrung ständig verbessert worden", sodaß die Hochdruck-Apparaturen heute als "vollkommen sicher" gelten. Zumal, da es sich um hydrostatische Drücke, also ausschließlich um komprimierte Flüssigkeiten handelt, und diese sich im Gegensatz zu Gasen bei Entlastung nur sehr wenig ausdehnen, die Energiemengen, die bei plötzlicher Entlastung freiwerden, sehr gering sind.

Ungewißheit besteht auch in dem Punkt, ob die VerbraucherInnen die neuen Produkte auch annehmen würden. Man setzt dabei auf das Argument, daß der Druck schonender mit den Vitaminen umgeht als eine Hitzebehandlung. "Nebenwirkungen" sind nicht zu befürchten, da der Druck im Gegensatz zur Temperaturbehandlung keine chemischen Veränderungen auslöst. Deshalb ist das Hochdruck-Apfelgelee (fast) ebenso gesund wie der unbehandelte Apfel.

 

 

Dornröschenschlaf im Glaszustand: Neue Wege zur Langzeithaltbarkeit von Biopräparaten

Erbsen, Bohnen und Broccoli kann man im tiefgefrorenen Zustand monatelang aufbewahren. Die Vitamine, so hört man, bleiben auf diese Weise besser erhalten, als wenn man das Gemüse in Konservendosen preßt. Doch wer das Gefrierverfahren mit Salatgurken oder Erdbeeren versucht, wird mit aller Deutlichkeit daran erinnert, daß Einfrieren doch nicht immer glimpflich für biologisches Material abläuft. Bei der Bildung der Eiskristalle werden die Zellwände beschädigt, und das Pflanzengewebe kann das Wasser nicht mehr halten, es wird demzufolge schlaff.

Haltbarkeits-Probleme stellen sich auch im Pharmabereich, auch wenn man den feinsäuberlich einzeln eingeschweißten Pillen oder versiegelten Ampullen nicht ansieht, daß auch sie empfindliche Biopräparate (z.B. Proteine, wie Insulin<$IInsulin>, Interleukine, etc.) enthalten können. Um eine Gefährdung durch verdorbene Ware auszuschließen, sollten zumindest diejenigen Medikamente, die der Patient mit nach Hause nimmt und ohne ärztliche Aufsicht anwendet, bei Raumtemperatur lagerbar und nahezu unbegrenzt haltbar sein. Biologische Präparate in wäßriger Lösung erfüllen diese Anforderung nicht -- man muß der Mixtur Wasser entziehen, um sie haltbar zu machen. Auch hier hat man sich bisher oft einer Frost-Behandlung bedient, nämlich der Gefriertrocknung Bei diesem Verfahren wird der Wassergehalt einer Lösung tiefgefroren und dann mit einer Hochvakuumpumpe direkt aus dem Eiszustand verdampft (sublimiert). Zurück bleibt eine staubtrockene, poröse Masse -- das bekannteste Beispiel ist Instant-Kaffee. Die Annahme, diese Methode sei für biologische Materialen die schonendste, beruht auf der Binsenweisheit, daß chemische Reaktionen bei niedrigerer Temperatur langsamer ablaufen.

Doch diese Hoffnung könnte sich im Falle der Gefriertrocknung als trügerisch erweisen. Nach Erkenntnissen von Felix Franks, dem Direktor der "biopreservation division" der Firma Pafra in Cambridge, England, kann die durch den radikalen Wasserentzug erhöhte Konzentration gelöster Stoffe unerwünschte chemische Reaktionen trotz der tiefen Temperaturen wieder in Schwung bringen. Hinzu kommt, daß der pH-Wert einer Lösung sich in ungünstigen Fällen um bis zu vier Einheiten verschieben könnte -- genug um das Protein außer Gefecht zu setzen. Auch die Bildung kleiner und unregelmäßiger Kristalle kann bei diesem Verfahren ein Problem werden -- die gestörten Kristallstrukturen sind besonders anfällig für "Materialermüdung".

Den Ausweg sieht Franks in Flüssigkeiten, die unter ihren Erstarrungspunkt abgekühlt sind, ohne dabei die geordnete Struktur der festen Phase anzunehmen. Das prominenteste Beispiel ist Glas, doch man bezeichnet solche unterkühlte Schmelzen auch allgemein als Gläser, wenn sie aus völlig anderen Materialien sind. Die extrem hohe Viskosität ("Zähigkeit") von Werkstoffen im Glaszustand<$IGlaszustand> hat auch zur Folge, daß chemische Reaktionen, die das Material angreifen könnten, extrem langsam ablaufen. Auch die Bildung des "richtigen" Feststoffs in Gestalt kleiner Kristalle, an deren Grenzen das Material dann brüchig ist, dauert nahezu ewig, -- Trübung durch Kristallisation kann man etwa an Trinkgläsern aus der Römerzeit beobachten. Um die wäßrige Lösung eines biologischen Wirkstoffs in den Glaszustand zu überführen, dampft man diese so lange schonend ein, bis sie sich in einen Sirup verwandelt der dann zu einem Glas aushärtet. Zusatz von Kohlenhydraten kann dabei sowohl die Proteine stabilisieren als auch das Erreichen des Glaszustands vereinfachen (man denke etwa an sirupöse Zuckerprodukte wie Honig). Als erste haben denn auch Lebensmittelhersteller<$ILebensmittel> den neuen Weg beschritten: backfertige Teigmischungen können so präpariert werden, daß sie erst 20 Grad oberhalb der normalen Lagertemperatur aus dem Dornröschenschlaf im Glaszustand erwachen. Und auch bei der Herstellung von Speiseeis muß man die Kristallisation unterbinden, um ein cremiges und kein knirschendes Produkt zu erhalten.

Über die Nutzungsmöglichkeit im Bereich der Pharma-Proteine liegen allerdings noch keine umfassenden Untersuchungen vor. Doch Hinweise darauf, daß auch die Natur sich des Glaszustands bedient um Pflanzensamen und Insektenlarven haltbar und frostresistent zu machen, stimmen Franks optimistisch. Die Pharmaka der nächsten Generation, darunter viele gentechnisch gewonnene Proteine, werden, so seine Prognose, auch in neuen Darreichungsformen kommen -- als Bio-Gläser.

 

Order Travels to the Nanoworld from:

amazon.com

amazon.de

amazon.co.uk

amazon.fr

 

 

contact

prose and passion

last update:

12.01.2005