Interessanter Artikel unseres Querdenkers H.-J. Müllenmeister.


Elementarteilchen: Rechenkünstler der Zukunft

Hans-Jörg Müllenmeister

Cui bono? Wem nützt es… der maroden hochtechnisierten Gesellschaft, wenn sie verbissen der Computer-Zukunft nachjagt? In der Tat, denn jene Zukuftscomputer wären der heutigen Technik vieltausendfach überlegen – hinsichtlich Speicherkapazität, Verschlüsselung und Geschwindigkeit der Datenverarbeitung.
Verbrämt als hehres Forschungsziel versprechen sich damit vor allem Geheimdienstler gewaltige Vorteile im Lauschangriff und in der staatlich sanktionierten Industriespionage. Gleichzeitig steht der iPad- oder iPhone-süchtige (aber völlig gläserne) Bürger an der Schwelle einer werteauflösenden Zeit. Einer Zeit, in der man den Glauben an das Scheingeld pflegt und das Überwachen von oben hündisch erträgt. Das einstige „Yes, we can”, fand sein kryptisches Traumziel im „Yes, we scan“! So viel zum gesellschaftlich-politischen Aspekt der schaurig-schönen Computerwelt.

Ein Griff in die Vorgeschichte
Oft vergeht ein beschwerlich langer Weg, ehe ein epochales Produkt die Welt verändert. Den Binärcode (1 und 0 − das sprunghafte Verhalten der Leitfähigkeit – Strom ein für 1, Strom aus für 0) hatte bereits Leibniz vor mehr als 300 Jahren mathematisch als den Schlüssel für die automatisierte digitale Rechentechnik erkannt. 1824 fand der Schwede Berzelius das geeignete Halbleitermaterial Silicium und schließlich erkannte Schottky in den 50er Jahren, daß die elektrische Leitfähigkeit bestimmter Halbleiter von außen steuerbar ist. Erst wenn bestimmte Entdeckungen wie Zahnräder ineinander greifen, dreht sich das Rad der Technik-Geschichte weiter. Grundelemente einer neuen Technologie reifen: die Entwicklung von Transistoren und in der Folge der IC-Bausteine bis hin zum komplexen Computer. Bis Mitte des Jahrhunderts könnten zwei mögliche Innovationen auf uns zukommen: Quantencomputer und Bio-Computer.

Grenzen der Miniaturisierung
Das eigentliche Silicium-Zeitalter begann vor etwa 40 Jahren. Seitdem hat sich die Dichte von Transistoren auf einem Chip nach dem empirischen Moore‘schen Gesetz mit fast naturgesetzlicher Genauigkeit entwickelt. Im Mittel verdoppelte sich alle 18 bis 24 Monate die Speicherinformationabilität: Ein Fortschreiten der Miniaturisierung ad infinitum ist indes unmöglich. Leitungen und Transistoren der heutigen Rechner sind bereits nur ein Hundertstel so breit wie ein menschliches Haar. Sind aber einzelne Schaltkreise allein durch wenige Atome voneinander getrennt, beginnen Quanteneffekte zu wirken. Das sind physikalische Gesetzmäßigkeiten, die Elektronen dazu befähigen, dünne isolierende Schranken zu „durchtunneln“ und damit Lecks in den Schaltkreisen solcher Chips zu erzeugen. Etwa für das Jahr 2020 sagen Experten das Erreichen physikalischer Grenzen voraus. Dann nämlich dürften Transistoren auf den Chips nur noch Abmessungen von rund 100 Atomen haben. Ein weiteres Verkleinern würde ein sicheres Funktionieren der Chips infragestellen. Nur mit ganz neuen Methoden und Technologien lassen sich diese Barrieren überwinden.

Schlüssel zur Miniaturisierung
Die Foto-Lithografie ist einer der kritischsten Prozesse in der Halbleiterproduktion. Damit bringt man Fotolack auf die Oberfläche der Wafer, der Substrat-Grundplatten, auf. Durch Belichten einer Maske auf die Oberfläche des Wafers werden die Schaltkreisstrukturen übertragen. Eine Optik reduziert die Größe der Strukturen auf Submikron-Ebene. Nach dem Belichten wird die Wafer-Oberfläche entwickelt, um die lichtundurchlässige Schicht von der belichteten Struktur zu entfernen.
Der Schlüssel zu immer kleineren Strukturgrößen war also die optische Lithographie mit immer kleineren Belichtungswellenlängen. Anfang 2000 kam es zum letzten Wellenlängen-„Umstieg“ − hin zum ArF-Excimerlaser, Stichwort 193-nm-Lithografie. Diese Technologie ermöglicht heute das Herstellen der kleinsten Strukturen für den 45-nm-Technologieknoten bzw. 28-nm-Planartechnik. Direktschreibverfahren mit Elektronenstrahlen erzeugen dagegen Strukturen von weniger als 50 Nanometer Breite, mit Ionenstrahlen sogar bis hinunter zu drei Nanometern. Allerdings arbeiten diese Verfahren heute noch seriell, Schaltung für Schaltung ab, also sehr langsam. Parallel arbeitende Direktschreibverfahren befinden sich in der Entwicklung. Sie könnten eines Tages die Lithographie-Verfahren ersetzen und Chips mit wenigen Nanometer großen Strukturen in großen Serien erzeugen.

Warum die Sucht zur Verkleinerung?
Durch stetes Verkleinern der Transistoren in Schaltkreisen konnte man mehr Funktionen auf derselben Chipfläche unterbringen. Das führt zu höherer Packungsdichte und geringeren Kosten. Kleinere Strukturen lassen kürzere Schaltzeiten der Transistoren zu. Dadurch steigt die Rechenleistung von Mikroprozessoren merklich, die Speicherkapazität erhöht sich. So entstanden Computer von wenigen zehntausend Byte der 1970er, über die 16 bis 64 Kilobyte des ersten IBM-PC, bis hin zu vielen Gigabyte großen Speichern in heutigen Computern. Eine natürliche Grenze ist das Annähern an die Dimension von atomaren oder molekularen Vorgängen.

Die Grenzen heutiger Computertechnologie sind erreicht − durch die Wellenlänge des Lichtes. Da ein Schaltbild auf den Chip durch ein lithografisches Verfahren übertragen wird, sind kleine Strukturdetails nur bei kleineren Wellenlängen des „Litho-Lichtes“ erkennbar. Mit den heutigen Techniken lassen sich Strukturen mit der Breite eines Viertelmillionstel Meters erzeugen. Auf Röntgen- und Elektronenstrahlen beruhende Methoden können das Auflösungsvermögen zwar noch etwas steigern. Das ist aber nur mit aufwendigen und kostspieligen Produktionsverfahren möglich.

Grenzprobleme der Materialien bei der Miniaturisierung
Die Lithografie basiert auf lichtempfindlichen Lacken, die aus langkettigen organischen Molekülen bestehen. Die Moleküle in der aufgetragenen Lackschicht sind zufällig verteilt. Das ist unbedeutend, solange die Strukturen deutlich größer sind als die Moleküle selbst. Reichen die Strukturen − etwa die Leiterbahnen auf einem Chip − in die Größenordnung von Molekülen, beginnt die Breite der Leiterbahnen zu schwanken: Die Moleküle können quer zu einer vorgesehenen Leiterbahn liegen und damit nach der lithografischen Übertragung der Struktur zu einer „Ausbuchtung“ führen. Durch das Verkleinern wird außerdem die isolierende Schicht immer dünner gestaltet. Das birgt das Risiko von Stromlecks. Derzeit beträgt die Schichtdicke nur noch 1,1 Nanometer; das entspricht etwa fünf Atomlagen. Damit ist die Grenze erreicht, in der Siliciumdioxid noch als Isolator wirken kann.
Ein noch weiteres Miniaturisieren der Transistoren setzt zwingend neue Materialien voraus. Diese müßten eine höhere Dielektrizitätskonstante D als herkömmliches Siliciumdioxid haben. Die Konstante D gibt die Durchläßigkeit eines Materials für elektrische Felder an und ist damit ein Maß für dessen isolierende Wirkung. Intel und IBM gaben bekannt, daß Hafniumdioxid das Material der Wahl beim Schritt zur 45-Nanometer-Technologie sei.

Auf dem Weg zum Quantencomputer
Das zitierte Moore‘sche Gesetz wird womöglich um das Jahr 2020 seine Gültigkeit verlieren, wenn nämlich die Schaltkreisstrukturen in die Größenordnung von Atomen und Molekülen eindringen. Im Reich der Atome und subatomaren Teilchen herrschen nämlich die „eigenwilligen“ Gesetze der Quantenmechanik. Noch seltsamer: Nicht nur die Natur eines Teilchens in der Quantenwelt ist nicht eindeutig, es weigert sich auch, sich auf einen Ort festlegen zu lassen. Erstmals postulierte das 1920 der Physiker Werner Heisenberg mit seiner Unschärfetheorie. Was bedeutet das? Nichts anderes, als daß der konkrete Aufenthaltsort eines Objekts (Elektrons) unbestimmbar ist und sich nur als Aufenthaltswahrscheinlichkeit schätzen läßt. So kann es sein, daß sich ein Photon an zwei Orten gleichzeitig “aufhält”.

Normal-Computer vs. Quantencomputer
Unsere heutigen siliziumbasierten Digitalrechner sind im Grunde ziemlich grobschlächtige „Rechengesellen“, denn ein Bit − die fundamentale Informationseinheit aller heutigen Computer − repräsentiert immer eine von zwei „klassischen“ Zustände: Nein oder Ja, 0 oder 1, Strom oder kein Strom. Das „Urmeer“ des Universums, so glauben viele Physiker, ist die Quanten-Information. Ein Quantencomputer wäre darin zu Haus. In der „unscharfen“ Quantenwelt kann aus dem „entweder oder“ ein „sowohl als auch“ werden. Die Schalter-Hauptakteure sind hier keine elektronischen Bauteile, sondern Atome oder Photonen. Die gehorchen ganz eigenen Gesetzen der Quantenwelt; sie haben nicht nur die Wahl zwischen „Null“ und „Eins“. Gleichzeitig können sie nämlich auch alle Zustände dazwischen einnehmen.

Ein herkömmlicher Computer erledigt ja eine Rechenoperation nach der anderen. Im Gegensatz dazu kann ein Quantencomputer schon mit einem einzigen Quanten-Bit oder Qubit alle möglichen Ergebnisse einer Rechenoperation gleichzeitig kalkulieren. Das erlaubt ihm, eine Million Kalkulationen in der Zeit durchzuführen, in der ein bisheriger Computer gerade einmal eine einzige schafft. Ein Quantencomputer aus nur 40 Qubits würde in nur 100 Schritten dasselbe leisten wie ein Supercomputer mit Milliarden von Bits in vielen Jahren.

Neuere Erkenntnisse der Quantenphysik könnten helfen, eines Tages Schaltelemente für einen Quantencomputer zu entwickeln. Ein Beispiel ist der Ein-Elektron-Transistor, an dessen Verwirklichung man bereits arbeitet. Zum Vergleich: Heute benötigt ein Schaltvorgang auf einem Speicherchip noch einige 10 000 Elektronen. Volumenbezogen wäre es ein Würfel von einem Mikrometer Kantenlänge.

Kleinste mikrotechnisch erzeugte Strukturen?
Mit ultraspitzen Sonden wie sie z.B. in Rastertunnelmikroskopen verwendet werden, lassen sich sogar einzelne Atome verschieben und zu Mustern gruppieren. Inzwischen existieren sogar Konzepte, um komplexere Informationen innerhalb nur eines einzigen Atoms abzulegen, genauer gesagt, in den bis zu 80 Elektronen, welche die Hülle eines Atoms bilden.
Ein Quantenbit, das Qubit, dargestellt etwa durch ein Photon, kann einen Überlagerungszustand einnehmen – also die Werte 0 oder 1 gewissermaßen repräsentieren. Und mit jedem Qubit, das dazukommt, vervielfacht sich die Zahl der darstellbaren Werte. Die Rechenkapazität wächst atemberaubend schnell: Mit drei Qubits könnte man bereits acht Werte simultan darstellen, mit zehn bereits1024 – und mit 250 Qubits schon mehr Zahlen, als es Atome im Universum gibt!

Die seltsamen Regeln der Quantenphysik erlauben es theoretisch, mit all diesen Werten gleichzeitig zu rechnen. Um in einem Telefonbuch den Namen zu einer bestimmten Rufnummer zu finden, muß ein normaler Computer z.B. im Schnitt etwa 500.000 Einträge prüfen. Geheimdienstler aufgepaßt: Ein Quantencomputer kommt dagegen mit 1.000 Suchschritten aus, weil er so viele Einträge gleichzeitig erfaßt.
Zu den gängigen Ansätzen für die „Hardware“ eines Quantenrechners gehören sogenannte Ionenfallen. Im Kern bestehen sie aus einem sogenannten Käfig, in dem elektrische Felder geladene Atome festhalten und von der Umwelt isolieren. In diesem Schwebezustand können die Atome als Träger für Qubits fungieren. Mit Laserpulsen lassen sie sich beschreiben und auslesen. Das Problem ist allerdings die enorme Empfindlichkeit – die kleinste Störung zerstört das Arrangement der filigranen Quantenbits. Ein hypothetischer Quantenrechner könnte auch Probleme lösen, bei denen der notwendige Rechenaufwand ins uferlose wächst, also exponentiell. Dazu gehört unter anderem das Zerlegen von großen Zahlen in ihre Primfaktoren. Das Fakturieren von Zahlen mit mehreren hundert Stellen überfordert alle heutigen Computer. Auf der Schwierigkeit dieses Problems beruhen wichtige Verschlüsselungs-Algorithmen, von denen etwa die Sicherheit unserer Daten im Internet abhängt.

Computer aus Biomolekülen
Noch liegt der fertige Computer mit DNA-Molekülen als Speichermedium in weiter Ferne. Nach den Plänen der Wissenschaftler übernehmen in Computern der Zukunft informationsspeichernde Moleküle die Funktion herkömmlicher Siliciumspeicher. Die Crux: Die Moleküle haben die Eigenschaft, auf unvorhersehbare Weise zu mutieren.

Wie wäre es mit einem DNA-Computer, der mit der Erbsubstanz als Speicher- und Verarbeitungsmedium arbeiten könnte? Die DNA (desoxyribonucleic acid) verbirgt sich in jeder unserer Zellen. Insgesamt wabern im menschlichen Körper etwa fünf Gramm DNA. Diese DNA − zusammensetzt aus 1021 DNA-Basen – repräsentieren ungefähr den Speicherwert von 10 Millionen Terabyte. Das ist eine ungeheure Menge an Informationen, die unsere DNA speichern kann.

Noch eleganter wäre es, könnte man mit „Werkzeugen“ arbeiten, die selbst molekularer Natur sind: Biocomputer also, die durch Steuerung einzelner Atome Nanomaschinen in der Größenordnung eines millionstel Millimeters schafft. Diese könnten dann die molekularen Ausgangsstoffe Stück für Stück zu größeren Strukturen mit neuen funktionalen Eigenschaften zusammenlagern. Und jetzt wird es spannend, denn für diese Idee gibt es in der Natur ein großes Vorbild: Der Bauplan für einen kompletten Menschen steckt ja in einem einzigen großen Molekül, der DNA. Das Inswerksetzen dieses Bauplans geschieht vollständig durch hoch spezialisierte Moleküle; sie lesen die Erbinformation, übersetzen sie und bewirken, daß sich ganze Ketten von Molekülbausteinen bilden. Diese verarbeiten wiederum andere spezialisierte Moleküle weiter, bis sie die verschiedensten Funktionen übernehmen können. Auf diese Weise sorgen Enzyme für den Aufbau von Eiweißen und Hormon-Moleküle beeinflussen in winzigen Mengen den Ablauf komplexer Körperfunktionen.

Die Science Fiction-Vision
Könnten wir nicht nach diesem Natur-Vorbild molekulare Werkzeuge herstellen, die für uns neue Mikroprodukte zusammenbauen? Ließen sich planmäßig Moleküle aus einzelnen Atomen zusammensetzen, die spezielle, ihnen zugewiesene Fertigungsaufgaben erfüllen? Die sich vielleicht sogar selber reproduzieren, andere Moleküle gezielt auffinden oder sich zu größeren Molekülverbänden zusammenlagern können? Können diese Verbände dadurch neue Funktionen erhalten und andere, komplexere Aufgaben wahrnehmen? Und wie weit ist molekulares Verhalten vorausplanbar?
Das von der Natur seit Milliarden Jahre als Informationsträger eingesetze Speichermolekül der DNA besteht aus den vier Basen Adenin, Cytosin, Guanin und Thyimin. Sie sind auf den beiden Strängen des DNA-Moleküls wie auf einer Perlenschnur aufgereiht. Computerspeicher aus DNA könnten somit vier Schaltzustände nutzen, zwei mehr als die elektronischen Speicher.

Die größten Anwendungschancen dieser DNA-Rechenkünstler sehen Computerwissenschaftler in Suchproblemen. Ein solches wäre etwa: Suche eine bestimmte Zahlen- oder Buchstabenkombination. Nehmen die Kombinationsmöglichkeiten von Suchproblemen zu, so wachsen sie herkömmlichen Rechnern schnell über den Kopf, weil diese eine Rechenoperation nach der anderen ausführen. Ein Prozessor eines herkömmlichen PCs rechnete sich dabei einen „Wolf“, dagegen würden parallelrechnende DNA-Moleküle in DNA-Prozessoren diese Aufgabe elegant und schnell erledigen.

Einst werden Quanten- und Biocomputer die heutigen Computer weit übertreffen − durch eine hohe Vernetzung, Parallelität und Geschwindigkeit der Informationsverarbeitung auf engstem Raum. Vor allem bei bestimmten Problemen, die sich in viele parallele Rechenschritte zerlegen lassen. Dazu gehören Datenbanksuchen. Für die Geheimdienste wären das Fluch und Segen zugleich: Verschlüsselungs-Algorithmen wären „unknackbar“: Der Lauschangriff auf Transatlantikkabel fände z.B. ein Ende. Dagegen wäre ein weltweiter Zugriff auf unverschlüsselte gigantische Datenmengen der gläsernen Bürger ein Leichtes: Schaurig-schöne Computerwelt – „Sure, we scan!“.