Quantum Computing mit philosophischen Seitenblick

Folgendes ist eine Zusammenfassung der Interviews von Lex Fridman mit Scott Aaronson im AI Podcast #72, Quantum Computing1Scott Aaronson: Quantum Computing | AI Prodcast #72 with Lex Fridman, https://www.youtube.com/watch?v=uX5t8EivCaM.

Im ersten Teil geht es darum, welche Bedeutung philosophischen Fragen für Naturwissenschaftler, Mathematiker, Informatiker haben. Ist es nicht Zeitverschwendung, sich damit auseinander zu setzen? Warum meiden Wissenschaftler diese Fragen?

Erstens sind es gewichtige Fragen; die Beschäftigung damit ermöglicht die Teilnahme am intellektuellen Leben und befriedigt das ureigene Interesse an eben diesen Fragen. Mathematik und Naturwissenschaft dagegen ermöglichen direkten Fortschritt und liefern konkrete Antworten, die manchmal zu einem besseren Verständnis der philosophischen Fragen beitragen oder diesen einen neuen Rahmen verleihen und helfen sie besser zu verstehen, manchmal sogar mehr, als die Philosophie selbst es vermag.
Zweitens scheint es nur so, als ob Wissenschaftler sie meiden. In Wirklichkeit sind sie zu beschäftigt mit Problemen in ihren eigenen Disziplinen und mit vielen konkreten Fragen, die danach aussehen, als könnten sie beantwortet werden. Die Entwicklungen seit der wissenschaftlichen Revolution, etwa der Zeit Gelileos, bestärken diese Annahme. Warum sich also mit unbeantwortbaren metaphysischen Fragen befassen?

Für den Diskurs zwischen Wissenschaftlern und Philosophen wird beispielhaft die Begegnung Alan Turings mit Ludwig Wittgenstein 1939 in Cambridge erwähnt.

Eine der bedeutendsten Arbeiten Turings erschien in der Philosophiezeitschrift Mind. Von Interesse sind die Differenzen dieser beiden Denker2Kurzübersichten: Wittgenstein and Turing in Logic and Mathematics, Turing and Wittgenstein.. Während bspw. Wittgenstein der Ansicht war, dass formale Systeme in der Realität irrelevant sind, wies Turing auf die praktischen Auswirkungen eines inkonsistenten formalen Systems hin. Mit dem Wechsel nach Bletchley Park (Anm.: Hier befasste er sich mit der Entzifferung von Funksprüchen der Nazi-Kriegsmarine, die mit der Enigma verschlüsselt waren) schlug Turing aber keine professionell-philosophische sondern eine Ingenieurslaufbahn ein, was als bedeutender Schritt angesehen wird.

Denken Informatiker, Mathematiker anders über philosophische Fragen als Philosophen?

Vieles hängt vom Individuum ab. Im Allgemeinen scheinen Wissenschaftler weniger umsichtig in der Wahl ihrer Begriffe zu sein, als die Philosophen. Werden Sie nach einem philosophischen Problem wie Bewusstsein oder Freier Wille befragt, versuchen sie neueste Forschungsergebnisse, z.B. aus der Neurobiologie einzubringen, bestenfalls natürlich solche, an denen sie selbst beteiligt sind, und darüber zu reden. Das alles mag interessant sein, aber in Wirklichkeit gar nicht die philosophische Frage berühren. Dennoch kann uns Naturwissenschaft helfen, anders über das philosophische Problem zu denken, ähnlich wie dies Kunst und Literatur auch tun. Es sind einfach verschiedene Wege, um an eine bestimmte Frage heran zu treten, von der wir nicht einmal wissen wie die Antwort aussehen mag und es dennoch nicht unterlassen können, sie immer wieder zu stellen.

Scott Aaronson ist u.a. dafür bekannt folgende Herangehensweise vorgeschlagen zu haben: Man zerlege ein großes philosophisches Problem q in kleinere Teilprobleme, idealerweise solche, die man mit Mathematik und/oder empirischen Methoden bearbeiten kann und löse ein Teilproblem q‘.

Beispiele für solche Teilprobleme nennt er in seinem Essay „Why philosophers should care about computational complexity„. Im Interview besprochen werden Turing (Turing Test) und Gödel (Unvollständigkeitssatz). In seinem Aufsatz „The ghost in the quantum Turing machine“ schlägt Scott Aaronson eine ähnliche Herangehensweise an das philosophische Problem des Freien Willens vor. Konkret lautet seine Fragestellung: Wie gut können wir im Rahmen der Gesetze der Physik das Verhalten einer Person vorhersehen? Hierzu soll ein Computer ein Gehirnscan der Person erzeugen, ohne dass das Gehirn bei diesem Prozess zerstört würde. Wenn man sich mit dieser empirischen Frage beschäftigt, kommt man auf allerlei Schwierigkeiten. Wie gut müssen wir das Gehirn verstehen? Reicht für die Modellbildung die Ebene der Neuronen oder müssen wir auf die Molekularebene hinabsteigen oder schließlich auf die Quantenebene, was letztlich auf Unvorhersagbarkeit hinausläuft. Es geht also darum, ein möglichst genaues Modell des Gehirns dieser Person zu erstellen, sodass eine exakte Vorhersage all ihrer künftigen Entscheidungen und Handlungen möglich ist, letztlich mit dem Ziel einer ernsthaften, nicht bloß metaphysischen, Bedrohung ihrer Wahrnehmung und Erfahrung des eigenen freien Willens.
In der Diskussion blieb fraglich, ob das Wissen darum, dass eine Maschine exakte Vorhersagen über eine Person machen kann, wirklich die subjektive Wahrnehmung und Erfahrung des freien Willens der Person bedroht. Andererseits – wenn es wirklich realisiert wird – stellen sich allerlei Fragen, z.B. welchen Grund es geben soll, eine solche Maschine nicht als eine zweite Instanz der Person anzusehen und die Person gegenüber der Maschine, als ihr vollkommenes Duplikat, zu privilegieren?

In philosophischen Diskussionen um den freien Willen ist diese empirische Frage irrelevant, keineswegs jedoch aus Sicht eines Naturwissenschaftlers/Ingenieurs/Informatikers. Ein Laplace’scher Dämon ist verglichen mit einer derartigen praktisch realisierbaren Maschine eine bloßes Gedankenexperiment, eine theoretische Abstraktion, die die Wahrnehmung/Erfahrung des freien Willens nicht tangiert.

Jetzt stellt sich die Frage, wo wir an die Grenzen der Vorhersagbarkeit in diesem Sinne (Gehirnscan und darauf basierend die exakte Vorhersage) stoßen könnten, und deshalb von der Existenz des freien Willen ausgehen müssen.

Die offensichtliche Möglichkeit dafür wurde bereits von S.A. Eddington und vielen anderen bereits beim Bekanntwerden der Quantenmechanik erkannt. Um bei dem Beispiel zu bleiben: Die Differentialgleichungen der Neurowissenschaften (Hodgkin-Huxley Gleichungen) haben eine stochastische Komponente. Wo kommt der Zufall in diesem Prozess ins Spiel? Dahinter stecken letztlich quantenmechanische Ereignisse auf molekularer Ebene, die von einem Butterfly-Effekt chaotisch amplifiziert sind.
Wenn man also den vollständigen Quantenzustand des Gehirns kennt, könnte man Wahrscheinlichkeiten vorhersagen. Dies ist relativ unkontrovers. Umstritten ist, ob das alles irgendeine Bedeutung für die philosophischen Fragen hat. Abgesehen davon könnte eine derartige Maschine nicht mehr als verschiedene Wahrscheinlichkeiten vorauszuberechnen. Wenn das Verhalten einer Person tatsächlich von solchen Quantenprozessen gesteuert wird – d.h. es ist nicht komplett deterministisch, sondern handelt sich letztlich um einen probabilistischen Prozess im Gehirn – schwindet auch der Eindruck des freien Willens. Es scheint dann genauso schlecht um den freien Willen bestellt zu sein, wie wenn die Maschine die Entscheidungen der Person deterministisch vorhergesagt hat.

Es gibt prinzipielle Fragen für das technische Problem: Erstens, könnten wir jemals genug wissen, um ein adäquates Modell des Gehirns zu erstellen? Zweitens ist das Messen eines Quantenzustands eine destruktive Operation. Wenn ich ein Teilchen messe, um es zu lokalisieren, wird der Zustand automatisch zerstört und daher fundamental geändert. Die Messung eines Gehirns auf Quantenebene würde unvermeidlich den Quantenzustand und somit des Gehirns ändern. Es ist nicht klar, was dabei passieren würde. Vielleicht würde eine Messung auf einer höheren Ebene als die der Quantenmechanik schon ausreichen, das weiß man nicht. Aber im Gegensatz zu der philosophischen Frage, scheint dies eine Frage zu sein, in der man in absehbarer Zeit Fortschritte erzielen kann. In der rein philosophischen Frage gibt es schließlich seit Demokrit (* um 400 v. Chr.) keinen Fortschritt.
Es folgen Vergleiche einer solchen bislang noch hypothetischen Maschine mit Gott. Theologische Diskussionen zum Thema Willensfreiheit werden erwähnt.

Im zweiten Teil des Interviews geht um das Thema Quantum Computing.

Im Unterschied zu klassischen Computern machen sich Quantencomputer bei ihren Berechnungen die Prinzipien der Quantenmechanik zunutze; die Quanten-Informationstheorie abstrahiert von der dahinter liegenden Physik. Ein System besitzt Zustände, genannt Amplituden, die ähnlich wie Wahrscheinlichkeiten funktionieren, aber keine Wahrscheinlichkeiten im üblichen Sinne sind; sie können in positiven, negativen oder komplexen Zahlen ausgedrückt werden. Die Kenntnis dieser Zustände ist die Information, die man über das System erhalten kann.


Anmerkung (nicht Teil des Interviews): Der Begriff der Wahrscheinlichkeit in der Quantentheorie ist in vielerlei Hinsicht grundsätzlich verschieden von Wahrscheinlichkeitssätzen in anderen physikalischen Theorien, die statistischen Charakter haben, bspw. der kinetischen Deutung der Thermodynamik. Der zweite Hauptsatz der Wärmetheorie ist ein Wahrscheinlichkeitssatz, dessen Aussagen nur mit dem Grad von Genauigkeit gelten, die unserer Unkenntnis des Zustands des Systems entspricht. In der Quantenmechanik ist hingegen die Unkenntnis des Ausgangs eines Experiments mit von einer vollständigen Kenntnis des Systemzustands vereinbar. Eine Ergänzung der statistischen Aussagen der Quantenmechanik ist unmöglich, während in der Wärmelehre die Unsicherheit des Messergebnisses stets mit der Unkenntnis über den wahren Zustand des Systems einhergeht.


Ein Merkmal der Quantenphysik ist die Existenz von Superpositionszuständen, die am Beispiel des Doppelspaltexperiments3Doppelspaltexperiment: https://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.251/Didactics/quantenchemie/html/DpSpalt.html; https://www.mpg.de/10362242/doppelspalt-experiment-atome erläutert werden, wo solche Zustände erzeugt werden: ein einziges Teilchen passiert beide Spalten gleichzeitig um später mit sich selbst zu interferieren. Durch Reduzieren der Anzahl der möglichen Pfade, die ein Teilchen passieren kann, wird die Wahrscheinlichkeit erhöht, dass es ein bestimmtes Ziel erreicht. Quantencomputer machen sich die Phänomene Superposition (Überlagerung), Amplituden (gewichtete Zustände) und Interferenz (Wechselwirkung) zunutze, um bestimmte Probleme viel schneller zu lösen, als sie anders gelöst werden könnten.

Basics der Quanten-Informationstheorie4Hier als Comic: https://www.smbc-comics.com/comic/the-talk-3

Die kleinste Informationseinheit5Durch Claude Shannon wurde hierfür die Bezeichnung Information populär. http://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf von klassischen Computern ist das Bit, das einen von zwei möglichen Zuständen annehmen kann: 0 oder 1. Quantencomputer arbeiten mit Quantenbits oder Qubits, die die Zustände 0 und 1 gleichzeitig annehmen können – sie befinden sich in einer gewichteten Überlagerung beider Zustände. Die Amplituden sind die jeweiligen Gewichte, ausgedrückt in komplexen Zahlen, mit denen die Basiszustände in der Überlagerung vorkommen. Aus ihnen berechnet sich die Wahrscheinlichkeit, bei einer Messung den entsprechenden Basiszustand zu erhalten. Ein Computer mit n Qubits befindet sich in einer Überlagerung von 2^n Basiszuständen. Bei 1000 Qubits sind es 2^1000 Amplituden. Mit so vielen Messergebnissen, die alle möglichen Antworten darstellen, die ein QC auf eine an ihn gestellte Frage errechnet, kann natürlich niemand etwas anfangen. Der Trick besteht darin, bestimmte Interferenzen wegzustreichen und die Qubits dazu zu bringen, in bestimmter wünschenswerter Weise miteinander zu interferieren, d.h. Algorithmen für Quantencomputer zu implementieren, die für eine kohärente Überlagerung der Zustände sorgen und damit die vielen falschen Antworten aussortieren.
Eine besondere Rolle spielen hierbei die Eigenheiten des Meßpozesses in der Quantenmechanik, d.h. der Rolle, die dem Beobachter im Meßprozess zukommt. In der Quantenmechanik steht ein beobachtetes System zwangsläufig mit dem Messgerät in Wechselwirkung. Die Messungen sind mit einer Zustandsänderung verbunden, bei denen Unbestimmtheiten auftreten, die sich mit Wahrscheinlichkeiten ausdrücken lassen. Diese Wechselwirkung muss explizit in Betracht gezogen werden, um zu verhindern, dass während des Meßprozesses vorhanden gewesene Information verloren geht. Kurz: Man will kontrollierte Manipulation von Qubits ermöglichen und gleichzeitig jede zufällige oder böswillige Manipulation durch ihre Umgebung verhindern.

Es gibt verschiedene Ansätze, Quantencomputer physikalisch zu implementieren und auch hier gilt im Prinzip dasselbe wie bei klassischen Computern: der Programmierer der Algorithmen für Quantencomputer muss sich mit der darunter liegenden Hardware nicht auskennen. Allerdings ist man heute noch lange nicht so weit, die Hardwareebene völlig von der der Software abzukoppeln. Die niedrigere Ebene wirkt sich auf die höhere aus; man muss an alle Ebenen gleichzeitig denken. Die Amplituden sind als physikalische Größen grundsätzlich fehlerbehaftet. Die Qubits sind sehr fragil und funktionieren nur, wenn sie völlig von äußeren Einflüssen abgeschottet sind. Dieses technische Problem soll die Entwicklung fehlerkorrigierter Quantencomputer lösen. Entwicklungen in diesem Bereich gibt seit den späten 90er Jahren, sie werden unter dem Begriff Theorie der Quantenfehlerkorrektur und Quantenfehlertoleranz subsumiert. Allerdings geht Fehlererkennung und -behebung mit einem Overhead an Qubits einher. Es ist also eine große technische Herausforderung skalierbare Quantencomputer zu bauen.

Im Moment ist die Forschung und Entwicklung an dem Punkt angelangt, den der Physiker John Prisco die „noisy intermediate scale quantum,“ kurz NISQ-Ära, genannt hat; sie bietet viele Herausforderungen für Ingenieure, Physiker, Informatiker. Vielleicht können wesentliche Fortschritte mit einem entsprechend finanzierten „quantum computing Manhattan Project“ erzielt werden. Aber plausibler scheinen weitere fundamentale wissenschaftstheoretische Durchbrüche.

Manche Leute (z.B. Jim Keller6Jim Keller zu Moore’s Law: https://eecs.berkeley.edu/research/colloquium/190918; https://www.youtube.com/watch?v=Nb2tebYAaOA) argumentieren, dass das Moore’sche Gesetz7Moore’s Law beschreibt die Beobachtung, dass die Zahl der Transistoren auf einer integrierten Schaltung sich regelmäßig verdoppelt; Gordon Moore, 1965. noch lange nicht tot sei. Seit der Formulierung dieses Gesetzes wurden beachtliche Fortschritte in der Entwicklung CPUs für klassische Computer erzielt, was sich auf philosophischer und anthropologischer Ebene Fragen aufwirft und schwer zu erklären ist. Schließlich sind Menschen irgendwie in der Lage universelle Maschinen, die wir Computer nennen, zu entwickeln und damit beliebiges Verhalten zu simulieren. Die heutigen klassischen Computer sind im Prinzip dieselben wie in den 50er Jahren, nur viel schneller, viel kleiner und mit viel mehr Speicher ausgestattet. Natürlich ist es klar, dass diese Entwicklung irgendwann an prinzipielle Grenzen stößt. Nichtsdestotrotz ist es eine Erfolgsgeschichte und die Frage ist, ob man das mit Quantencomputern wiederholen kann und Fortschritte ähnlich wie im Kalten Krieg durch die Konkurrenz von USA und Sowjetunion befördert werden. Der Wettlauf wird heute stattdessen durch große Konzerne ausgetragen, die viel Geld für die Forschung auf diesem Gebiet ausgeben.

Das leitet über auf die kürzlich von Google ausgerufene Quantum Supremacy 8nature Artikel; Google AI blog; heise newsticker Meldungen: Jetzt auch offiziell: Googles Quantencomputer beweist „Quantum Supremacy“; Quantum Supremacy – IBM widerspricht Googles Beweis, d.h. die Überlegenheit der Quantencomputer ggü. klassischen Computern.

Die Grundidee geht zurück auf die Anfänge des Quantum Computing in 80er Jahren mit Leuten wie Richard Feynman und David Deutsch: Wann können Quantencomputer zum ersten Mal verwendet werden, um eine genau definierte (aber nicht unbeding nützliche) Aufgabe schneller zu erledigen, als jeder bekannte Algorithmus auf einem klassischen Computer? Grundsätzlich ist es so, dass ein klassischer Computer alles das berechnen kann, was ein Quantencomputer auch kann, nur ggf. exponentiell langsamer und dabei weniger skalierbar. Quantencomputer arbeiten genauso wie gewöhnliche Computer in den Grenzen Alan Turings Definition von Berechenbarkeit. Sie lösen nicht das Halteproblem oder irgendetwas anderes Unberechenbares im Sinne der Definition von Turing.

Die zentralen Fragen lauten deshalb: Ist ein Quantencomputer wirklich wesentlich schneller (in konkreten Zeiteinheiten) ist, als ein klassischer Computer? Das führt einerseits in die Komplexitätstheorie hinein, ob es ein bestimmtes Problem P oder NP-schwer9Scott Aaronson: P ?= NP; NP-complete problems and physical reality. ist. Andererseits: Wie beweist man das? Vielleicht muss man nur einen geeigneten Algorithmus für einen klassischen Computer finden? Der Studentin Ewing Tang ist es gelungen10Ewin Tang: A quantum-inspired classical algorithm for recommendation systems, https://arxiv.org/abs/1807.04271, den Machine Learning Algorithmus von Kerenidis und Prakash (2016), der viele so beeindruckt hat, zu de-quantisieren und damit zu beweisen, dass ein klassischer Algorithmus für diesen Fall nicht exponentiell mehr Daten benötigt. Seit ihrer Arbeit wurde dasselbe für weitere Quantum Machine Learning Algorithmen demonstriert. Das mag man als einen Vorwärtsschritt für die Wissenschaft und einen Rückschritt für Quantum Machine Learning bezeichnen.

Ein weiteres technisches Problem besteht darin, die Ergebnisse eines Quantencomputers zu verifizieren. Jemand – d.h. ein klassischer Computer – muss sich die Ergebnisse anschauen und prüfen. Hierfür sind spezielle Tests erforderlich, bspw. statistische Tests, Google entwickelte das linear cross entropy benchmark. Für ein bestimmtes Problem erfordert es bspw. 2^53 Rechenoperationen – eine Berechnung, die gerade noch von dem größten heute verfügbaren Supercomputer der Welt11IBM Summit in Oak Ridge, U.S.; https://en.wikipedia.org/wiki/Summit_(supercomputer) ausgeführt werden kann. Aber das ist nicht die Richtung, in die man gehen will. Das darf einfach nicht so aufwändig sein.

Was ist von der Behauptung zu halten, die etwa Andrew Yang (U.S. Präsidentschaftskandidat) aufgestellt hat, dass es, weil es Quantencomputer gibt, es keinen Code gibt, der nicht gebrochen werden kann? Stimmt das oder nicht?

Yang ist mit der Tragweite dieser Aussage seiner Zeit voraus. Praktisch relevant ist heute Peter Shors12Peter Shor’s algorithm https://arxiv.org/abs/quant-ph/9508027; https://arxiv.org/pdf/quant-ph/9508027.pdf dramatische Entdeckung, die bereits 26 Jahre zurück liegt. Damit können sehr spezielle Probleme, die nachweislich nicht NP-schwer sind, mit Hilfe von Quantencomputern gelöst werden. Insbesondere wird hier Primfaktorzerlegung erwähnt. Darauf basieren Public Key Kryptosysteme (der RSA Algorithmus), die im ganzen Internet für Absicherung der Kommunikation (mittels SSL/TLS) eingesetzt werden. Mit heutigen Quantencomputern ist man zwar noch nicht soweit, es sind weitere Fortschritte in der Fehlerkorrektur und noch viel mehr Qubits erforderlich. Zum Vergleich: Googles13List of companies involved in quantum computing: https://en.wikipedia.org/wiki/List_of_companies_involved_in_quantum_computing_or_communication Rechner hat 53 physikalische Qubits; um Kryptographie zu brechen, benötigt man mit den heute bekannten fehlerkorrigierenden Codes Millionen Qubits. Deshalb kann es noch einige Zeit dauern, bis man wirklich an die Geheimnisse rankommt. Allerdings kann man davon ausgehen, dass Organisationen (z.B. Geheimdienste) heute schon im großen Stil verschlüsselte Daten sammeln, um sie später, wenn die entsprechenden Mechanismen und skalierbare Systeme vorhanden sind, zu entschlüsseln (harvesting attack).

Andererseits wurde durch diese Situation auch die Entwicklung neuer Kryptosysteme befördert. In den USA hat das NIST einen Wettbewerb zur Entwicklung neuer kryptographischer Algorithmen ausgerufen, um rechtzeitig auf Post-Quantum Kryptographie umzusteigen (Kryptographie, die auf klassischen Computern läuft und die QC nicht brechen können). Das ist aber keine Anwendung, die die Welt nachhaltig verändern würde. Die wichtigste praktische Anwendung von QC, die wir bei weitem kennen, ist die Simulation der Quantenmechanik selbst, um mehr über chemische Reaktionen und Prozesse zu lernen, um neue Materialien, Arzneimittel, Solarzellen, Supraleiter usw. zu entwickeln. Konkret, um bspw. das Vielkörperproblem zu verstehen und ein besseres Verfahren, als das seit einem Jahrhundert bekannte Haber-Bosch Verfahren, für die Herstellung von künstlichem Dünger zu entwickeln. In diesen Bereichen können durch Quantencomputer in dem nächsten Jahrzehnt Fortschritte erzielt werden. Die Frage ist, wie viele Qubits für einen entscheidenden Durchbruch erforderlich sind, 50 / 100 oder 500 / 1000 oder mehr? Aktuellen Studien zufolge spricht man von 100 Qubits, um etwas neues über eine chemische Reaktion bei der Herstellung von Kunstdünger zu lernen – und zwar 100 nahezu perfekte logische Qubits.
Perfekte Qubits haben wir aber noch nicht. Die Forschung muss in die Richtung gehen, einerseits bessere Qubits und andererseits bessere Fehlererkennungs- und -korrekturstrategien mit weniger Overhead zu entwickeln, und drittens die Algorithmen zur Simulation der Quantenchemie zu verbessern.

Zu dem Stichpunkt Quantum Supremacy gibt es viele Publikationen. Wie unterscheidet man als Laie ernst zu nehmende Äußerungen vom Scharlatanismus?

Man sollte gegenüber allzu optimistischen Äußerungen vorsichtig zu sein. Viele Entwicklungen im Bereich des Quantum Computing stehen auf extrem wackligen Füßen. Man muss sich stets die Frage vorlegen, ob dasselbe Problem nicht vergleichbar effizient mit klassischen Computern gelöst werden kann und ob es sich um eine wirklich nützliche Anwendung von Quatencomputern handelt. Wenn z.B. der Grover-Algorithmus (effiziente Suche in einer unsortierten Datenbank) eine quadratische Beschleunigung ggü. entsprechenden Algorithmen auf klassischen Computern für das gleiche Problem erreicht, ist das zwar beeindruckend, aber es ist keine exponentielle Beschleunigung. Deshalb ist das auch kein Game-Changer wie es Shors Faktorisierungsalgorithmus ist.
Letztlich geht es darum zu beweisen, dass für ein bestimmtes Problem mit einem Quantenalgorithmus bessere Performance gegenüber einem klassischen Algorithmus erzielt wird. Es wird daran gearbeitet, aber man ist eben noch nicht so weit und sollte nicht wie manche Konzerne und Journalisten vorgeben, als wären die erwünschten Beschleunigungen bereits erzielt worden.

Zum Schluss die absurdeste philosophische Frage, die man jemandem stellen kann: Was ist der Sinn des Lebens? Was gibt deinem Leben Erfüllung, Sinn, Glück, Bedeutung?

Wissenschaftliche Tätigkeit. Freunde, Familie, Mitmenschen. Ein stückweit Weltverbesserung (Klima, Politik) im Rahmen der eigenen Möglichkeiten.

Anmerkungen   [ + ]

1. Scott Aaronson: Quantum Computing | AI Prodcast #72 with Lex Fridman, https://www.youtube.com/watch?v=uX5t8EivCaM
2. Kurzübersichten: Wittgenstein and Turing in Logic and Mathematics, Turing and Wittgenstein.
3. Doppelspaltexperiment: https://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.251/Didactics/quantenchemie/html/DpSpalt.html; https://www.mpg.de/10362242/doppelspalt-experiment-atome
4. Hier als Comic: https://www.smbc-comics.com/comic/the-talk-3
5. Durch Claude Shannon wurde hierfür die Bezeichnung Information populär. http://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf
6. Jim Keller zu Moore’s Law: https://eecs.berkeley.edu/research/colloquium/190918; https://www.youtube.com/watch?v=Nb2tebYAaOA
7. Moore’s Law beschreibt die Beobachtung, dass die Zahl der Transistoren auf einer integrierten Schaltung sich regelmäßig verdoppelt; Gordon Moore, 1965.
8. nature Artikel; Google AI blog; heise newsticker Meldungen: Jetzt auch offiziell: Googles Quantencomputer beweist „Quantum Supremacy“; Quantum Supremacy – IBM widerspricht Googles Beweis
9. Scott Aaronson: P ?= NP; NP-complete problems and physical reality.
10. Ewin Tang: A quantum-inspired classical algorithm for recommendation systems, https://arxiv.org/abs/1807.04271
11. IBM Summit in Oak Ridge, U.S.; https://en.wikipedia.org/wiki/Summit_(supercomputer)
12. Peter Shor’s algorithm https://arxiv.org/abs/quant-ph/9508027; https://arxiv.org/pdf/quant-ph/9508027.pdf
13. List of companies involved in quantum computing: https://en.wikipedia.org/wiki/List_of_companies_involved_in_quantum_computing_or_communication