Quanten-Computer
- Gödel-Maschinen für simulierte Parallel-Welten -

Quantencomputer sind bislang noch nicht realisierte Rechenmaschinen, deren Berechnungen ausschließlich auf den Gesetzen der Quantenmechanik beruhen.

Solche Computer könnten sowohl aus mathematisch-algorithmischen als auch aus physikalischen Gründen leistungsfähiger sein als alle bisherigen. Vor kurzem wurde die Überlegenheit quantenmechanischer Algorithmen bewiesen, wobei es gelang, quantenmechanische Rechenregeln zu formulieren, die eine exponentiell schnellere Lösung mathematischer Probleme erlauben. Da es im Gegensatz zu von Neumann-Rechnern möglich ist, jeden Algorithmus in vollem Maße zu parallelisieren, läßt sich prinzipiell jede mathematische Funktion in beliebig kurzer Zeit berechnen.

Vier Formulierungen der Quantenmechanik sind für Quantencomputer von besonderem Interesse:
1. Die Schrödingergleichung
2. Heisenbergs Unschärferelation
3. Bells Nichtlokalität
sowie 4. Everetts Viele Welten.

Während die Schrödingergleichungen und Heisenbergs Unschärferelation von einer reversiblen Zeit ausgehen, berücksichtigt die Nichtlokalität und Everetts Ansatz auch die Irreversibilität der Zeit, da für das jeweilige Jetzt ständig neue Welten entstehen und vergehen. Everetts Ansatz ist insbesondere für die Erzeugung von Informationen und neuen Bedeutungen am wichtigsten.

 

- Schrödingers Katze und Heisenbergs Unschärferelation

Klassische Systeme sind unvorhersagbar wegen ihrer sensitiven Abhängigkeit von den Anfangsbedingungen, während Quantensysteme unvorhersagbar sind, da deren Verhalten in unterschiedlichen Universen anders ist und deshalb in diesen meistens zufällig erscheint.

Werner Heisenbergs Formulierung der Unschärferelation setzte den Newtonschen Determinismus für mikrophysikalische Systeme außer Kraft und offenbarte, daß es nicht möglich ist, Ort und Geschwindigkeit eines Teilchens gleichzeitig exakt zu bestimmen. Wegen der Nichtlokalität und Ununterscheidbarkeit wird die Quantentheorie auch als holistisch bezeichnet.

Bohrs Prinzip der Komplementarität und Heisenbergs Unschärferelation wurden bekannt als die Kopenhagener Interpretation der Quantenmechanik. Die Quantenmechanik beschreibt, wie sich statistische Gesamtheiten von Teilchen (keine Einzelereignise) verhalten; aber warum es Teilchen gibt, sagt sie nicht. Im Rahmen Quantenmechanik sind die Position q und das Momentum p von Teilchen nicht länger einfache Zahlen, sondern Matrizen. Diese Matrizen gehorchen nicht immer dem kommutativen Gesetz p x q = q x p. Es gibt deshalb zwei Erklärungen für atomare Phänomene, nämlich Schrödingers Wellen- und Heisenbergs Matrizenvorstellung.

Die Schrödinger-Gleichung ist zeitlich reversibel und wird im sogenannten Hilbertraum abgebildet, der eine rekursive Struktur von Unterräumen darstellt. Gemäß der Quantentheorie kann eine Katze, die sich in einem abgeschlossenen System befindet, gleichzeitig sowohl tot als lebendig sein. Da wir nicht wissen, in welchem Zustand sich die Katze befindet, kann man gemäß der Quantentheorie aussagen, daß sich diese in einem Überlagerungszustand befindet, bei dem diese beides ist: tot und lebendig.

Diese Aussage gilt solange, bis man das System öffnet und einen der beiden Zustände antrifft. Dieses Beispiel von Schrödigers Katze ist auch elementar für das Verständnis von Quanten-Computern. Betrachtet man das Quantenbit (Qubit) in Analogie zur Katze, so gibt es bei Berechnungen nicht nur die Zustände 0 und 1, sondern Überlagerungen dieser Zustände.

 

- Nichtlokalität und Everett-Welten

Bells Theorem (auch "Bellsche Ungleichung" genannt) lautet, daß eine klassisch-lokale Theorie die Nichtlokalität der Quantenmechanik nicht erklären kann. Die Bellsche Interpretation der Everett-Theorie sagt die Existenz jetzt-spezifischer Welten voraus. Für ihn ist die Nichtlokalität der Welt ein elementares Prinzip unseres Universums. Nach der quantenmechanischen Sicht ist alles im Universum miteinander verbunden, d.h. die Wirklichkeit ist nicht kausal, sondern akausal verwoben. In seinem Buch "Speakable and Unspeakable in Quantum Mechanics" beschreibt Bell das Phänomen der Socken des Mathematikers Bertlmann, die unterschiedliche Farben (rosa und grün) haben: Wie weiß der eine Socken vom anderen, was er getan hat? Wenn man nur einen seiner Füße sieht und eine grüne Socke erblickt, weiß man sofort, daß am anderen Fuß sich eine rosa Socke befindet und dies, ohne daß eine Signalübertragung stattfinden muß.

1957 schlug Hugh Everett eine völlig neue Interpreation der Quantenmechanik vor, nach der immer dann, wenn eine Vielzahl von Möglichkeiten besteht, sich die Welt in eine Vielzahl von Universen aufspaltet. Nach Everett entsteht bei jeder Interaktion eines Teilchens mit einem anderen eine neue Welt. Jedoch verschwinden in gleichem Maße Welten wie Neue enstehen. In jeder dieser Welten ist alles identisch, mit Ausnahme der getroffenen Auswahl. Danach entwickeln sich die Welten unabhängig voneinander weiter.

Die Everett-Interpretation der Quantenmechanik ist eine "Theorie des relativen Zustandes" (relativ zum Beobachter) und verbindet das menschliche Bewußtsein mit parallelen aber getrennten Weltentwicklungen ("many worlds view"). Nach der Viele-Welten-Hypothese (auch EWG-Hypothese genannt), benannt nach Everett, Wheeler und Graham, treten alle in der Wellenfunktion enthaltenen Möglichkeiten auf, jedoch in unterschiedlichen Zweigen des Universums. Everett vermutete deshalb ein Universum, das sich in eine gewaltige Zahl von Zweigen (100100+ Universen) aufspaltet, die alle aus den jeweiligen Messungen resultieren. Da jede Quantenwelt anders ist gibt nicht die einzige Wirklichkeit, sondern eine Vielzahl paralleler Wirklichkeiten.

Bevor die Everett-Interpretation auftrat, war die Kopenhagen-Interpretation, die wichtigste Vorstellung von der Quantenmechanik. Letztere macht eine Unterscheidung zwischen dem Beobachter und dem Beobachteten. Wenn ein System nicht beobachtet wird, evolviert ein System deterministisch gemäß der Wellengleichung. Tritt jedoch ein Beobachter hinzu, kollabiert die Wellenfunktion, da der Beobachter das System beeinflußt. Während jedoch die Kopenhagener Interpreation den Beobachter selbst nicht erklären kann, integriert die Everett-Interpretation den Beobachter ins System. Die Viele-Welten-Interpretation basiert auf Quantenereignissen, die auch Implikationen auf makroskopische Systeme haben. Wenn unser Gehirn Entscheidungen trifft, entscheidet es sich für einen bestimmten Weg, obgleich auch ein anderer Weg denkbar gewesen wäre. Es scheint so, als ob gerade Träume dieses Denken in alternativen Welten beinhalten, die für die Everett-Interpretation der Quantenmechanik so entscheidend ist.

In gewissem Sinne könnte man Everetts Viele Welten mit den Monaden von Leibniz vergleichen. Für jeden Beobachter gibt es in dem Moment, in dem er Erfahrungen macht, genau ein Universum. Da es jedoch unendlich viele Beobachter gibt, gibt es genauso viele mögliche Universen. Everetts "Viele Welten" bilden einen Hyperraum, eine unendliche Vielfalt von Raumzeiten und somit von Ereigniswelten. Everetts "Relative State Theory" ist zwar die mit den empirischen Fakten am besten verträgliche Interpretation der Quantenmechanik, sie ist jedoch sowohl unwiderlegbar wie auch unbeweisbar, wodurch diese eigentlich keine Theorie, sondern eine Metatheorie darstellt.

 

- Auf dem Weg zum Quanten-Computer

Vor 20 Jahren waren für die Erfinder der Personal Computer, deren heutige Rechenleistungen unvorstellbar. Wenn es zukünftig gelingen sollte Quanten-Computer zu konstruieren, könnten Simulationsleistungen erzielt werden, von denen heutige Cyberspace-Anhänger nur träumen.

Quantencomputer versprechen einen fundamentalen Durchbruch im Bereich der Rechenkraft. Der Physiker Feynmann hat 1985 ein Modell vorgestellt, bei dem die Unschärfe während der Berechnung fokussiert bleibt und nicht in der Korrektheit des Ergebnisses liegt. Derartige Berechnungen könnten mit Quantencomputer durchgeführt werden, die eine Verbindung zwischen der Mikrophysik und den Computerwissenschaften herstellen. Quantencomputer erlauben wesentlich schneller Daten zu verarbeiten als alle bisherigen Computer und können möglicherweise Bewußtsein erzeugen. Durch die Idee des Quantencomputers kommen auch Computer in den Bereich des Möglichen, die makroskopisch betrachtet nahezu keine Energie verbrauchen. Das Besondere des Quanten-Computers ist auch, daß er die heutige Kryptographie vor neue Herausforderungen stellt, da die notwendigen Berechnungen zur Ver- und Entschlüsselung von Codes in nahezu Echtzeit durchgeführt werden können.

Quanten-Computer werden deshalb zu einem äußerst wichtigen Faktor für die Sicherheit von Daten in der Wissensgesellschaft werden.

 

- Funktionsweise

Quantencomputer arbeiten mit einer völlig unterschiedlichen Art der Berechnung, die aus dem Quantenmechanik abgeleitet werden kann. Für David Deutsch lassen sich Quantencomputer zur Ausführung nicht-algorithmischer Operationen nutzen, d.h. zur Lösung von sogenannten schwierigen Problemen („hard problems") sowie von Problemen, die nicht innerhalb der Problemklasse von Turing-Maschinen liegen. Ein Quanten-Computer ist ein Rechner, der Daten prozessiert, die in Quanten-Variablen wie Spins, Photonen oder Atomen gefangen sind. Ein Quanten-Computer besteht aus Quantenbits, die Überlagerungen der Zustände 0 und 1 speichern können. Um einen Quanten-Computer zu bauen müssen sich die Qubits in einer kohärenten Überlagerung befinden, die während der Berechnungen beibehalten werden muß, um wiederholbare Ergebnisse zu erzielen. Diese Kohärenz ist jedoch äußerst schwer herzustellen, da die Quantenbits von äußeren Einflüssen abgeschirmt werden müssen. Quanten-Computer erlauben die Zerlegung großer Zahlen und sind deshalb ein interessantes Gebiet für die Kryptographie. Quanten-Computer werden zwar die heutigen Kryptographie-Ansätze aufheben, jedoch dürfte es auch für Quanten-Computer nahezu unmöglich sein, steganographische Verschlüsselungen zu knacken.

Ein Quanten-Computer bringt die Vorteile von analogen und digitalen Rechnern in eine äußerst leisungsfähige Synthese. Der ursprünglich von Benioff vorgeschlagenene Computer speicherte die Daten zwar in Quanten-Bits, führte jedoch klassische Berechnungen durch, da die Bits nicht überlagert werden sollten. Im Gegensatz hierzu, nützt Shors Algorithmus sowohl die analogen als auch die digitalen Eigenschaften des Quanten-Computers. Feynmann hob hervor, daß der einzige Weg einen Quanten-Computer zu simulieren darin besteht, die Bewegungsgleichungen für Quantenüberlagerungen in den Hilbertraum zu integrieren. Die Größe des Hilbertraumes nimmt hierbei exponentiell mit der Anzahl der Variblen, wo daß die Simulation des zeitliches Ablaufes riesige Rechenzeiten in Anspruch nehmen würde. Um dies zu umgehen, bleibt deshalb nur die Möglichkeit ein Quantensystem durch ein anderes Quantensystem zu simulieren. Dies dürfte bei auf klassische Weise schwierig zu simulierenden Problemstellungen, wie z.B. bei Plasmas mit hoher Temperatur und Dichte oder Quantenmodelle mit molekularem Verhalten, äußerst hilfreich sein. Auch könnten durch die Durchführung von Quantenberechnungen Tests für das Auftreten von Nichtlokalität durchgeführt werden.

 

- Interferenz-Prinzip

Auch wenn es verschiedene Design-Vorschläge für den Bau eines Quanten-Computers gibt, so gibt es jedoch nur zwei grundlegende Design-Methoden, nämlich in Form von Berechnungsnetzwerken und Zellulären Automaten. Während klassische logische Schaltkreise auf einer festen Anzahl von Bits basieren, treten bei Quanten-Gattern Überlagerungen auf. Zelluläre Automaten, die auf Qubits basieren, weisen identische Zellen auf, die sich gegenseitig beeinflussen. Neben der Parallelität haben Quantencomputer den Vorteil, daß diese das Interferenz-Prinzip nutzen können. Dieses ist der wichtigste Effekt der Quantenphysik, welcher für eine Vorhersagbarkeit in Quantensystemen unbedingt notwendig ist. Da Qubits wie Wellen wechselwirken, verstärken sich in Phase laufende Wellen, während sich außer Phase laufende auslöschen.

Quantenalgorithmen (Programme, die mit Qubitsrechnen und auf einem Quantencomputer laufen) können sich dieses Wellenverhalten zu Nutze machen, wobei im Rahmen des Programmablaufes richtige Antworten verstärkt und falsche Antworten annulliert werden. Deshalb können mit Qubits erheblich mehr Daten bearbeitet werden, als mit den klassischen Bits. Dies erlaubt eine exponentielle Leistungsteigerung bei der Rechengeschwindigkeit.

Quantenphänomene können nicht innerhalb eines Universums simuliert werden, sondern benötigen hierfür die Interferenz einer Vielzahl paralleler Universen. Hierbei werden die Computerberechnungen in unterschiedlichen parallelen Universen durchgeführt, wobei die Ergebnisse durch Interferenz übermittelt werden. Die Quanteninterferenz zwischen unterschiedlichen Welten bedeutet im Rahmen der Heisenberg-Unschärfe, daß man nach einer Messung, die die Welt wie eine Bifurkation aufspaltet, nicht sicher sein kann, in welcher Welt man sich danach befindet. Ein universeller Quanten-Computer könnte alle Berechnungen durchführen, die jeder beliebige Quanten-Computer oder jede Turing-Maschine durchführen kann und er könnte jede endliche physikalisch mögliche Virtuelle Realität konstruieren.

 

- Forschungserfolge

Quantencomputer werden mit der Sprache der Quantenmechanik beschrieben. Die kleinste Informationseinheit ist das sogenannte Quantum Bit (Qubit). Ein Computer ist eine Maschine die einen Zustand z aus einem wohl definierten Zustandsraum Z darstellen und bestimmte Operationen auf diesen Zuständen ausführen kann. Bei einem Quantencomputer ist Z der mehrdimensionale Hilbertraum der Zustände von N Qubits. Qubits arbeiten nicht nach dem binären Prinzip (1/0 bzw. an/aus), sondern durch deren paralleles Auftreten können Berechnungen parallel durchgeführt werden.

Für das Funktionieren von Quantencomputer sind zwei Bedingungen zu erfüllen:
1. Es müssen Algorithmen geschaffen werden, welche Quanteneigenschaften nutzen können und es müssen 2. Quanten-Computer gebaut werden, auf denen diese Algorithmen lauffähig sind. Bereits vor einigen Jahren wurde von Peter Shor vom AT&T-Entwicklungslabor ein Quantenalgorithmus gefunden, der Integer-Zahlen ausmultiplizieren kann. Eine Geschwindigkeitserhöhung für derartige Berechnungen hätte zur Folge, daß verschlüsselte Programme leichter zu dechiffrieren wären. Allerdings müßte die Rechenleistung für die Implementierung von Shors Algorithmus die heute übliche um den Faktor 109 überschreiten. Von Lov Grover, der in den Bell-Entwicklungslabors forscht, wurde ein Quantenalgorithmus entdeckt, mit dem unsortierte Daten in einer Datenbank nach einen bestimmten Namen durchsucht werden können. Da viele Problemstellungen als Suche definiert werden können, kann ein solcher Quanten-Algorithmus wesentlich schneller einen Namen finden als ein klassischer Algorithmus. Durch die Parallelität der Suche kann je nach Größe des Quantenrechners eine um 10er-Potenzen schnellere Verarbeitungsgeschwindigkeit von Daten erreicht werden.

1989 wurde durch Bennett und Brassard der erste Quanten-Computer der Welt mittels eines Lasers erprobt. Von Hughes wurde ein Computer vorgeschlagen, der mit Ionenfallen arbeitet. In einem Vakuum aufgereihte Ionen können dabei von einem elektrischen Feld an ihrem Platz gehalten werden, wobei Laser auf die äußersten Elektronen jedes dieser Ionen einwirken. Gefangen Ionen sind eine attraktives Modell für die Architektur eines solchen Rechners (siehe auch I. Cirac und P. Zoller). Durch Laser-Licht wird hierbei ein quantenlogisches Gatter für Berechnungen erzeugt.

Quantenlogische Operationen mit gefangenen Ionen sind durch die Kopplung zwischen der Ionenbewegung und der Umgebung begrenzt, was zu Quanten-Dekohärenz führt (Zustände der Schrödinger-Katze). Der Energielevel des äußersten Elektrons eines einzelnen Ions repräsentiert hierbei ein einzelnes Qubit. Momentan werden Experimente unternommen, um das Potential dieser Technologie und die Grenzen für simple Quantenberechnungen mit einer geringen Anzahl von Qubits zu erforschen. 1997 haben amerikanische Forscher ein neues Konzept für den Bau eines Quantencomputers vorgestellt, das auf der Kernspin-Resonanz (Nuclear Magnetic Resonace - NMR) basiert. Hierbei werden makroskopische Ensembles benutzt, um Qubits zu speichern. Als weitere Möglichkeiten für die Realisierung von Quanten-Computern werden die Polarisation von Photonen und die sogenannte „Bulk Spin"-Resonanz genannt. Mit polarisierten Ionen ist es Kimble und Turchett am Caltech gelungen, ein Quanten-Gatter zu konstruieren.

 

- Hindernisse

Feynmann hat aufgezeigt, daß die Quantenmechanik einem geschlossenen, mikroskopischen und lokal interagierenden System erlaubt, reversible Berechnungen durchzuführen. Während bestimmte Problemstellungen auf einem klassischen Rechner unendliche Rechenzeit benötigen, könnten diese in endlicher Zeit auf einem Quantenrechner gelöst werden. Ein wesentliches Element dieser Rechner ist ein Korrektur-Schema für Quantenfehler, da schon kleinste äußere Einflüsse, wie die Wechselwirkung mit einzelnen Photonen, katastrophale Fehler in einem Quantensystem hervorrufen können. Ansätze aus der klassischen Codierungstheorie sind hierbei nicht direkt übertragbar, da allgemeine Quantengründe nicht kopiert werden können. Somit ist die bei klassischen Computern angewandte Methode, Daten auf mehrere Kopien zu verteilen, nicht durchführbar. Während ein klassisches Bit den Zustand 0 oder 1 repräsentieren kann, kann ein Quantenbit eine Überlagerung zweier Zustände sein. Gelingt es gezielt, solche Interferenzen zu konstruieren, so lassen sich die in Quantensystemen auftretenden Fehler vermindern. Dies ist deshalb die Grundvoraussetzung, um Quanten-Computer überhaupt bauen zu können. Mittlerweile wurde Codes für Quantensysteme entwickelt, die einen Schutz gegenüber Fehlern erlauben.

Für die Realisierung von Quanten-Computern muß ein Modell entwickelt werden, daß dem Modell der universellen Turing-Maschine bei klassischen Berechnungen entspricht. Es wird deshalb vorgeschlagen, dieses Modell die universelle Gödel-Maschine zu nennen. Ob Quanten-Computer die Church-Turing-These erfüllen bleibt ebenso zu klären wie die Frage des Halte-Problems. Da bei überlagerten Zuständen, die einzige Möglichkeit das Programm zu stoppen darin besteht eine Messung vorzunehmen, muß es gelingen, die Kohärenz der Berechnung aufrechtzuerhalten. Darüberhinaus muß geklärt werden, für welche Problemklassen sich besonders der Einsatz von Quanten-Computer eignet und welche Problemstellungen womöglich nur mit klassichen Computern zu lösen sind. Dies hätte jedoch zur Folge, daß es keinen universellen Quanten-Computer geben kann und somit die Anwendung des Church-Turing-Prinzips auf physikalische Systeme keinen Sinn machen würde.

Eine physikalische Interpretation der Church-Turing-These würde bedeuten, daß jedes physikalische System durch eine universelle Maschine in endlichen Schritten simuliert weden könnte. Sollte es jedoch möglich sein, daß ein Quanten-Computer jede Art von Problem lösen kann, stehen wir vor einem völlig neuartigen Universum von Möglichkeiten, sowohl für das Leben im Jetzt, als auch für die Evolution von Mensch-Maschine-Systemen.

 

- Gödel-Maschine

Das Lösen von Problemen ist immer relativ zum Problemlösungspotential des Systems zu sehen, welches das Problem bearbeitet. Es gibt unlösbare Probleme, noch nicht bewiesen unlösbare Probleme und lösbare Probleme. Die Lösbarkeit der lösbaren Problemen hängt von den Algorithmen, der Größe des involvierten Systems und der Rechenleistung der verfügbaren Rechner ab.

Zukünftige Computer könnten die Lösung von Problemen gestatten, die für Menschen bisher als unlösbar galten. Derartige Maschinen nenne ich Gödel-Maschinen, da sie dem Menschen erlauben könnten, hinter seine eigene Gödelgrenzlinie zu sehen. Dieser Computer kann eine unendliche Anzahl von Rechenschritten in einem unendlich kleinen Zeitintervall berechnen.

Ein derartiger Quantenrechner müßte zwangsläufig nichtlokale Eigenschaften haben, wenn Berechnungen in Echtzeit durchgeführt werden sollen. Nur ein Hyper-System im Quantenzustand kann alles potentielle Wissen umfassen, d.h. authentisch die Realität abbilden. Die Idee eines solchen Quantenrechners, der auf Nichtlokalität basiert, bleibt jeodch solange theoretischer Natur, bis es Möglichkeiten gibt, die Nichtlokalität, z.B. durch besondere Raumkrümmungen oder Überlichtgeschwindigkeiten, im Makrokosmos nachzuweisen und diese für Berechnungen zu nutzen. Das Jetzt ist für einen universellen Quantencomputer wie Gödels Axiome verdeutlichen ein unüberwindbare Grenze, da durch infinitesimale Differenzen, die immer weiter divergieren ständig ein neues Jetzt, d.h. neue Universen entstehen. Während Turing-Maschinen Software programmieren, können Gödel-Maschinen auch Hardware neu verschalten.

Formale Systeme haben Gödelgrenzlinien, die nur durch erweiterte Systeme mit neuen Gödelgrenzen durchbrochen werden können. Da auch unser Gehirn trotz seines nicht-formalen Verhaltens in seinen Fähigkeiten begrenzt ist, erscheint es als ein notwendiger Schritt die Möglichkeiten des Denkens zu erweitern. Nur eine neue Art von Lebewesen, die intelligenter als der Mensch wäre, könnte hinter die Gödelgrenzlinie des Menschen schauen. So könnte zwar einem Cyborg die menschliche Wahrheit zugänglich sein, er könnte jedoch die Cyborg-Wahrheit nicht finden, da er auch wiederum eine Gödelgrenze besitzt. Die subjektive Gödelgrenze bildet somit immer eine Grenze zwischen Wissen und Nicht-Wissen. Zukünftige Computer können die Turing-Maschinen ablösen und parallele Gödel-Maschinen sein, da diese den Blick hinter subjektive Gödelgrenzlinien simulieren können. Sie erschaffen parallele Welten und zielen auf Differenzbildung.

 

- Simulation von Bewußtsein

Moravec hat abgeschätzt, daß die Prozesse des Gehirns durch einen Computer mit einer Rechenleistung von 1013, d.h. 10 Billionen, Berechnungen pro Sekunde durchgeführt werden könnten, was nur mehr einem Faktor 1000 gegenüber heutigen Super-Computern entspricht. Unterstellt man, daß das Mooresche Gesetz gilt, wobei 10 Jahre einer Verbesserung um den Faktor 1.000 (circa 210)) entsprechen, so könnte die Differenz zwischen Computern und dem Gehirn bezüglich der Rechenleistung in absehbarer Zeit überbrückt werden. Es ist kaum anzunehmen, daß unser Gehirn nach den Regeln eines Turing-Computers funktioniert. Vielmehr handelt es sich bei unserem Gehirn um ein hochkomplexes Interface, das uns den Weg zu einem neuartigen Rechner, der Gödel-Maschine weisen kann, die möglicherweise ihr eigenes Bewußtsein hervorbringt. Die Konstruktion einer Gödel-Maschine wird uns vor eine Vielzahl von Schwierigkeiten stellen, da diese weder ein Halteproblem noch ein Beweisproblem haben darf. Eine Gödel-Maschine sollte, wie auch eine Turing-Maschine, jede andere Gödel-Maschine simulieren können.

Bewußtsein kann meiner Meinung nach nicht durch eine Turing-Maschine, sondern nur durch einen molekularen Parallel-Rechner, der ein vereinfachtes Modell einer Gödel-Maschine repräsentiert, simuliert werden.

Man stelle sich ein Gedankenexperiment vor, bei dem das menschliche Gehirn parallel und gleichzeitig in mehrere Quanten-Computer transferiert wird. Für eine kurze Korrelationszeit könnte dann derselbe Geist in mehreren Universen gleichzeitig existieren. Interessant an dieser Vorstellung ist, was passiert, wenn die Quantencomputer dann miteinander gekoppelt würden.

Was passiert, wenn unterschiedliche Welten mit denselben Zuständen aufeinandertreffen. Wenn man unterschiedliche Menschen auf einer Party trifft, entstehen neue Kontakte. Eine gewisse Anzahl davon sind fruchtbar, während andere nach dem Ende der Party wieder aufgehoben sind. Nichts anderes geschieht auch mit Quantenpartikeln, die aufeinandertreffen. Befremdlich wären jedoch auch hier Kontakte, bei der wir auf die identische Kopie von uns treffen würden, vor allem wenn diese Kopie dieselben Zustände im Gehirn hätte, was bei Klonen aufgrund von unterschiedlichen Erfahrungen ja nie gegeben wäre.

Ziele bei der Entwicklung zukünftiger Rechner sind - im Zuge der zunehmenden Miniaturisierung und Mobilität von Rechnern - eine Verringerung des Energieverbrauchs und die Beschleunigung von Rechenvorgängen, welche für einige Probleme durch Ausnutzen von Phänomenen der Quantenmechanik erreicht werden kann. Logikgatter mit beliebig niedrigem Energieverbrauch müssen ebenso wie Quantencomputer nach den Gesetzen der Physik reversibel rechnen. Reversible Rechenprozesse sind prinzipiell umkehrbare Vorgänge, bei denen also keine Daten verloren geht. Zwar lassen sich alle Berechnungen durch Speichern von Zwischenergebnissen reversibel realisieren, wobei dieses Verfahren jedoch alles andere als effizient ist. Quanten-Computer bilden hierbei ein aussichtsreiches Feld für die Realisierung reversibler Rechner

 

- Ausblicke

Galouyes Vision von Simulacron, der simulierten Welt, die Fassbinder zu seinem Film „Welt am Draht" animierte, kann durch Quanten-Computer zukünftig Wirklichkeit werden. Hierbei können echtzeitorientierte Cyber-Welten aufgebaut werden, die die Illusion derart perfektionieren, daß nicht mehr zwischen physischer und virtueller Wirklichkeit unterschieden werden kann. Gödel-Maschinen sind universelle Quanten-Computer, die neuartige Möglichkeiten der Mustererkennung, Echtzeit-Simulationen komplexester Umgebungen sowie die integrale Verknüpfung Interaktiver Enzyklopädien erlauben. Quanten-Computer könnte auch die Basis für den Aufbau virtueller Zivilisationen, die im Sinne Bob Rockwells aus den Online Communities evolvieren werden. Am spannendsten ist die Frage, ob es einen Zusammenhang zwischen dem Bewußtsein und der Quantentheorie gibt. Sollte es durch Quanten-Computer zukünftig möglich sein, Bewußtsein zu simulieren, wobei das Phänomen auftritt, daß die Simulation dann keine Simulation mehr ist, sondern ein neuer Geist, sobald Bewußstein auftritt. Kann somit die reversible Simulation ab einem bestimmten Bifurkationspunkt zu einem irreversiblen Bewußtsein führen, zur Schöpfung eines neuen Universums?

Artur P. Schmidt

 

- Weiterführende Literatur:

Bell, J.S.: Speakable and Unspeakable in Quantum Mechanics; Cambridge 1987.
Borges, J. L.: Labyrinths, New York, 1964.
Davies, P.: Other Worlds, New York, 1981.
DeWitt, B.S./Graham, N. (Hrsg.): The Many-Worlds Interpretation of Quantum
Mechanics, Princeton, 1973. Enthält Orginalschrift von Hugh Everett.
Deutsch, D.: The Fabric of Reality, New York 1997.
Hofstadter, D. R./Dennet, D. C.: The Mind's I, New York, 1981.
Rockwell, R.: Vom Chat zur Zivilisation - Die Evolution digitaler Gemeinschaften;
Black Sun Whitepaper Januar 1997, S. 2.
Rössler, O. E.: Das Flammenschwert; Bern 1996.
Rössler, O. E.: Endophysik; Berlin 1992.
Schmidt, A. P.: Endo-Management, Bern 1998.

Beitrag veröffentlicht am 24. Mai 1998

Feedback an den Autor

Zur Übersicht Thema Wissenschaft

Zum Diskussionsforum

Home

www.visionen.ch

Picture

Projekt zur Förderung von Innovation und Kreativität

Wir freuen uns über jede Anregung oder Hilfe
 zur Entwicklung dieses Experimentes :-)