Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Die zweite Quantenrevolution: Vom Spuk im Mikrokosmos zu neuen Supertechnologien
Die zweite Quantenrevolution: Vom Spuk im Mikrokosmos zu neuen Supertechnologien
Die zweite Quantenrevolution: Vom Spuk im Mikrokosmos zu neuen Supertechnologien
eBook576 Seiten5 Stunden

Die zweite Quantenrevolution: Vom Spuk im Mikrokosmos zu neuen Supertechnologien

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

„Quantenphysik ist bizarr und komisch, und sie widerspricht komplett unserem gesunden Menschenverstand“ oder ganz einfach „Die spinnen, die Physiker“ - so oder ähnlich ist die Wahrnehmung vieler Menschen, wenn es um die Grundtheorie der modernen Physik geht. Die These dieses Buches lautet: „Quantenphysik, so bizarr und abgehoben sie erscheinen mag, ist für unser heutiges Leben die bedeutendste wissenschaftliche Theorie. Und ihr Einfluss ist bei weitem nicht an irgendein Ende gelangt. Da kommt noch einiges auf uns zu!“  Der Autor steigt dabei mitten in unser Alltagsleben ein: Sie wollen mehr über heutige und zukünftige Technologien erfahren? Dann beschäftigen Sie sich mit dem Quantencomputer oder dem Quanteninternet; Technologien, deren erste Prototypen in den letzten Jahren möglich wurden und schon sehr bald unser tägliches Leben bestimmen werden. Das Buch wird Bewusstsein schaffen für die Bedeutung der Quantenphysik heute, dabei werden auch philosophische undweltanschauliche Fragen nicht außer Acht gelassen.  Am Schluss wird der Leser den heutigen Stand der Quantenphysik kennen und dabei Antwort auf Fragen finden, die Einstein, Bohr, Heisenberg und andere Physik-Genies des 20. Jahrhunderts noch nicht wussten. Mit diesem Buch erschließen sich ihm nicht nur eine Reihe ganz neuer Technologien, sondern auch die dramatischen Einflüsse der modernen Physik für das Gefüge unserer Weltanschauung.

SpracheDeutsch
HerausgeberSpringer
Erscheinungsdatum14. Aug. 2018
ISBN9783662575192
Die zweite Quantenrevolution: Vom Spuk im Mikrokosmos zu neuen Supertechnologien

Ähnlich wie Die zweite Quantenrevolution

Ähnliche E-Books

Computer für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Die zweite Quantenrevolution

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Die zweite Quantenrevolution - Lars Jaeger

    Teil IQuantum 2.0 – die zweite technologische Revolution aus der Welt der Quanten

    © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018

    Lars JaegerDie zweite Quantenrevolution https://doi.org/10.1007/978-3-662-57519-2_1

    1. Große Macht

    Wie eine Theorie des Mikrokosmos unsere Welt veränderte

    Lars Jaeger¹  

    (1)

    Baar, Schweiz

    Lars Jaeger

    Email: lars.jaeger@altbetapartners.com

    Mit drei Problemen fing alles an:

    1.

    Max Planck konnte sich im Jahr 1900 nicht erklären, dass sogenannte Schwarze Körper Energie nicht in beliebigen Mengen, sondern nur in „Energiepäckchen" einer bestimmten Größe abstrahlen.

    2.

    Albert Einstein sah sich 1905 zu der Interpretation gezwungen, dass Licht gleichzeitig Welle und Teilchen ist.

    3.

    Ernest Rutherford entdeckte 1912 in einem aufsehenerregenden Experiment, dass das Atom aus einem Kern aus Protonen besteht, um den Elektronen herumkreisen; dies ist aber nach den Gesetzen der klassischen Physik gar nicht möglich.

    Mit diesen drei Phänomenen im Gepäck begaben sich die Physiker im ersten Drittel des 20. Jahrhunderts auf eine der aufregendsten intellektuellen Reisen in der Geschichte der Menschheit. Von den sicheren Küsten der klassischen Physik brachen sie auf, um wie die Seefahrer des 15. und 16. Jahrhunderts auf ganz neuen Wegen einen unbekannten Ozean zu überqueren und zu erforschen, was sich auf seiner anderen Seite befindet.

    Zu Beginn des 20. Jahrhunderts entdeckten Physiker, dass die Gesetze der klassischen Physik nicht immer und überall gelten.

    Ihre Experimente führten ihnen immer klarer vor Augen, dass einige grundlegende Eigenschaften der Welt der Atome sich weder in unsere Alltagsvorstellungen noch in das bewährte Begriffssystem der abendländischen Philosophie einordnen lassen:

    Superposition:

    Quantenobjekte können sich in einer Überlagerung von verschiedenen, sich klassisch ausschließender Zuständen befinden. Sie können sich beispielsweise zeitlich parallel entlang unterschiedlicher Pfade bewegen, also gleichzeitig an verschiedenen Orten sein.

    Zufälligkeit im Verhalten:

    Die messbaren Eigenschaften eines Quantensystems sind in ihrem zeitlichen Verhalten nicht mehr eindeutig bestimmt. Mit der Möglichkeit beispielsweise, gleichzeitig hier und an einem anderen Ort sein zu können, lässt sich sein beobachtbares Verhalten nur noch mit Wahrscheinlichkeiten beschreiben.

    Abhängigkeit eines Quantenzustandes von der Messung:

    In der Mikrowelt haben Messungen einen direkten Einfluss auf das zu messende Objekt. Es ist sogar noch bizarrer: Erst die Messung weist einem Quantenteilchen einen bestimmten Zustand zu. Im Grunde bedeutet dies: Quantenteilchen besitzen keine unabhängigen und objektiven Eigenschaften. Eine jede Eigenschaft erhalten sie erst durch den Akt einer Beobachtung.

    Verschränkung:

    Quantenteilchen können nichtlokal miteinander verbunden sein. Selbst wenn sie räumlich weit voneinander entfernt sind, können sie einer gemeinsamen physikalischen Entität (die Physiker sagen: einer einzigen „Wellenfunktion") angehören, sodass sie wie von Geisterhand miteinander gekoppelt sind.

    Jede dieser Eigenschaften der Mikrowelt verletzt eine von vier wesentlichen traditionellen philosophischen Prinzipien:

    1.

    das Eindeutigkeitsprinzip, nach dem sich die Dinge in jeweils eindeutigen Zuständen befinden (der Stuhl steht vor dem Fenster und nicht neben der Tür);

    2.

    das Kausalitätsprinzip, nach dem jeder Effekt eine Ursache haben muss (wenn der Stuhl umfällt, muss eine Kraft auf ihn eingewirkt haben);

    3.

    das Objektivitätsprinzip (damit verbunden: das Realitätsprinzip), nach dem den Dingen eine von unserer subjektiven Wahrnehmung unabhängige, objektive Existenz zukommt (wenn wir den Raum verlassen, bleibt der Stuhl genau dort, wo er steht, und ist auch noch da, wenn wir ihn nicht mehr betrachten)¹; und

    4.

    das Unabhängigkeitsprinzip, nach dem die Dinge sich einzeln und unabhängig voneinander verhalten (der Stuhl wird nicht von der Tatsache beeinflusst, dass im Nebenraum ein weiterer Stuhl steht).

    Seit über 2500 Jahren setzen sich Philosophen mit den existentiellen Fragen der Menschheit auseinander. Demokrit hatte sich gefragt, ob sich Materie endlos teilen lassen kann und war zum Schluss gekommen, dass es unteilbare kleinste Teilchen geben muss, die Atome . Parmenides war auf der Suche nach der letztendlichen und unveränderlichen Substanz gewesen. Aristoteles und Platon hatten sich dafür interessiert, in welchem Verhältnis wir als Beobachter zum Beobachteten stehen. Es folgten hundert Generationen von Philosophen, die unermüdlich nach Klarheit und schlüssigen Beschreibungen der Welt suchten. Anfang des 20. Jahrhunderts wurde offenbar, dass viele der durch gründliche und unermüdliche Überlegungen gefundenen philosophischen Prinzipien nur für einen Teil der Welt gelten.

    Einige Eigenschaften der Atome und ihrer Bestandteile stehen im Widerspruch zu unserer täglichen Erfahrungswelt. Wo die Gesetze der klassischen Physik nicht mehr greifen, verlieren auch philosophische Prinzipien ihre Gültigkeit.

    Quantenphysiker – von Magiern zu Ingenieuren

    Mussten den Physikern die Phänomene und Eigenschaften der Mikrowelt anfangs noch wie Magie erscheinen, so lernten sie mit der Zeit, wie man diese Zauberwelt, wenn man sie schon nicht vollständig verstehen kann, mit mathematischen Mitteln und Tricks immer genauer berechnet und schließlich bändigt. Ihr intellektueller Höhenflug führte die Physiker zu einer Theorie, die die beobachteten merkwürdigen Phänomene der Mikrowelt erklärte, wenn auch mit ganz neuen Prinzipien und Begriffen: zur Quantentheorie. Mit dieser theoretischen Basis wurden die Physiker von Magiern wieder zu Wissenschaftlern und später dann auch zu Ingenieuren. Denn die neue Theorie ermöglichte zahlreiche so erstaunliche wie ungeheure Technologien. Die erste davon erwuchs, als die Physiker ihre quantenphysikalischen Modelle auf den Atomkern anwendeten. Denn dabei erkannten sie: Hier findet sich eine gewaltige Menge an Energie.

    In den Jahren, in der die Welt um sie herum in zwei Weltkriegen ins politische Chaos abkippte und ganze Städte dem Bombenhagel der Kriegsparteien zum Opfer fielen, mussten die Physiker den Einsturz ihrer eigenen althergebrachten Denkgebäude verkraften. Und dann entwickelten sie aus ihrer bizarren neuen Theorie eine Technologie, die mit einem Schlag nicht nur einzelne Straßenzüge, sondern ganze Städte und Regionen zu vernichten vermag. Noch während die Physiker jenseits der öffentlichen Wahrnehmung um die befremdlichen und grotesken Eigenschaften der Mikrowelt stritten, trat die Quantenphysik zum ersten Mal auf die Bühne der Weltöffentlichkeit, und dies mit einem sehr realen und lauten Knall.

    Die erste technische Anwendung der Quantenphysik war die furchtbarste Waffe, die jemals militärisch eingesetzt wurde: die Atombombe.

    Wie entstand diese schreckliche Waffe? Seit dem Versuch Rutherfords von 1912 wusste man, dass der Atomkern aus elektrisch positiv geladenen Elementarteilchen (Protonen) besteht. Doch wie schon in der Schule unterrichtet wird, stoßen sich gleich geladene Teilchen ab. Wie ist es dann möglich, dass Atomkerne stabil sind? Die vielen Protonen im Atomkern müssten doch auseinanderfliegen! Eine weitere Kraft im Atomkern musste auf den sehr kurzen Distanzen im Atomkern weit stärker (anziehend) wirken als die elektrische Kraft. Doch was das für eine Kraft sein sollte, davon hatten die Physiker keine Ahnung. Ein weiteres Quantenrätsel!

    Im Jahr 1938 führten die deutschen Forscher Otto Hahn und Lise Meitner Experimente mit Urankernen durch, um die unbekannte Kraft im Atomkern genauer zu untersuchen. Sie beschossen Uran mit seinen 92 Protonen und – je nach Isotop – 143 oder 146 Neutronen, die „Munition" waren verlangsamte Neutronen. Es stellte sich heraus, dass durch den Beschuss zwei ganz andere Elemente entstanden waren: Barium und Krypton. Bariumatome, die sich schnell radiochemisch nachweisen ließen, besitzen eine Kernladungszahl von 56 und sind damit weniger als halb so groß wie Urankerne. Wie war das möglich? Mithilfe theoretischer quantenphysikalischer Berechnungen kam Meitner zu dem Ergebnis, dass der Urankern durch das Neutronenbombardement zum Platzen gebracht worden war. Dabei nehmen die Bruchstücke sehr viel Energie auf, weit mehr, als in jedem bis dahin bekannten Atomprozess entstanden war. Doch woher kam diese Energie? Dies war ein weiteres Rätsel. Meitner berechnete auch, dass die beiden Kerne, die aus der Spaltung hervorgingen (plus drei Neutronen, die frei werden), in ihrer Summe geringfügig leichter waren als der ursprüngliche Atomkern des Urans plus das Neutron, das die Spaltung auslöste. Was war mit der fehlenden Masse geschehen?

    An dieser Stelle kam Einsteins berühmte Formel E = mc², die dieser mehr als 30 Jahre zuvor aufgestellt hatte, ins Spiel: Denn die Differenz der Massen vor und nach der Spaltung entsprach genau der Energie, die die Bruchstücke aufgenommen hatten. Damit war zum ersten Mal ein Prozess bekannt geworden, in welchem sich die von Einstein formulierte Äquivalenz von Energie und Masse direkt offenbarte. Zugleich war damit aber auch klar geworden: Im Inneren des Atoms schlummern unvorstellbare Energien!

    Viel Energie auf engem Raum – das weckte in den herrschenden Kriegszeiten schnell das Interesse der Militärs. Unter höchster Geheimhaltung (nicht einmal der Vizepräsident wurde eingeweiht) stellte die amerikanische Regierung ab 1941 ein Team von hochrangigen Wissenschaftlern und Technikern zusammen. Das Ziel des Manhattan Projekts, des bis dahin komplexesten und schwierigsten Technikprojekts der Geschichte: der Bau einer Atombombe. Die Wissenschaftler waren erfolgreich. Am 16. Juli 1945 explodierte auf einem Testgelände in der Wüste von Neu Mexico die erste Atombombe der Weltgeschichte. Ihre Wucht übertraf noch die optimistischen Erwartungen der Physiker. Doch als sich der mächtige Atompilz am Horizont abzeichnete, überkam sie ein Gefühl tiefsten Unbehagens. Wie der Leiter des Manhattan Projekts, Robert Oppenheimer, später berichtete, zitierte er in diesem Moment innerlich aus der „Bhagavad Gita, einer zentralen Schrift des Hinduismus: „Jetzt bin ich der Tod geworden, Zerstörer der Welten. Einer seiner Kollegen, der Direktor des Tests, Kenneth Bainbridge, drückte es plastischer aus: „Jetzt sind wir alle Hurensöhne." Ihre Ernüchterung war begründet: Schon drei Wochen später zeichnete sich der zweite Atompilz ab, dieses Mal über dem Himmel des Kriegsgegners Japan. Und nur zwei Tage später folgte der dritte. Von der wissenschaftlichen Entdeckung der Spaltbarkeit des Uran-Atomkerns bis zu den Atompilzen von Hiroshima und Nagasaki waren kaum sieben Jahre vergangen.

    Mit der Atombombe verlor die Quantenphysik gleich zu Beginn ihrer Existenz ihre Unschuld. Die Physiker mussten erkennen, dass ihr Wissensdrang nicht nur das herrschende Weltbild, sondern auch die Welt zerstören konnte.

    Immer abstraktere Theorie, immer konkretere Technologie – der Laser

    Bekanntlich kann die Kernenergie auch friedlich genutzt werden, in Atomkraftwerken. Die Quantenphysik hat auch eine ganze Reihe weiterer sehr nützlicher Technologien hervorgebracht. Eine davon kennt heute jeder: den Laser.

    Gemäß der Quantentheorie in Form des Bohr’schen Atommodells können Elektronen in ihren Bewegungen um den Atomkern spontan von einer Bahn auf eine andere springen. Es sind dies die sprichwörtlichen „Quantensprünge ". Sie sind der wesentliche natürliche Mechanismus, der Licht produziert. Alle chemischen Prozesse, bei denen (auf der Erde) Licht entsteht, wie beispielsweise Verbrennung von Holz beim Lagerfeuer, beruhen auf diesen Quantensprüngen (die Strahlung, die beschleunigte geladene Teilchen abgeben, wie Bremsstrahlung bei der Erzeugung von Röntgenstrahlung, ist für die Lichterzeugung vergleichsweise unbedeutend). Doch wie genau laufen diese Sprünge ab? Zum Springen auf einen energetisch höheren Zustand braucht das Elektron die Energie eines einfallenden Lichtteilchens (Photons), welches es absorbiert; beim Sprung auf ein niedrigeres Niveau sendet das Elektron wiederum ein Photon aus. Soweit so gut. Aber wohin gehen die Lichtteilchen und woher kommen sie? Und noch ein weiteres Problem ist zu bedenken: Einzelne Quantensprünge sind keine kausalen Prozesse, die sich vorhersagen lassen. Vielmehr sind sie instantane Prozesse, sie passieren sozusagen außerhalb jeglicher Zeit. Was bedeutet das? Ein Lichtschalter, der betätigt wird, lässt das Licht aufleuchten – von einem Moment auf den anderen. Mit anderen Worten: Es vergeht der Bruchteil einer Sekunde, bis der Effekt eintritt. Wenn aber ein Elektron springt, vergeht keine Zeit, auch nicht der Bruchteil eines Bruchteils eines Bruchteils einer Sekunde.

    Wenn ein angeregtes Elektron spontan auf sein ursprüngliches Energieniveau zurückspringt, gibt es dafür weder eine direkt zuzuordnende Ursache, noch können wir dem Geschehen einen Moment oder Zeitraum zuordnen.

    Diese Quantenrätsel motivierten Einstein 1917 dazu, der Frage nach Lichtabsorption und -emission in Atomen genauer nachzugehen. Die damals schon bekannte Planck’sche Strahlungsformel beschreibt die gequantelte Emission von Photonen aus schwarzen Körpern. Durch rein theoretische Überlegungen gelang es Einstein, eine weitere – wie er selbst schrieb – „verblüffend einfache Ableitung des Gesetzes der spontanen Lichtemission zu finden. Er fand zudem aber auch einen ganz neuen möglichen Vorgang der Lichtausstrahlung, den er als „induzierte Emission bezeichnete. Hierbei handelt es sich um Emission (Aussendung) von Photonen aus entsprechend präparierten („angeregten) Atomen, die nicht spontan erfolgt, sondern durch ein anderes einfallendes Photon ausgelöst wird. Die dabei freigesetzte Energie geht wieder auf das elektromagnetische Feld über und erzeugt ein weiteres Photon. Das auslösende Photon bleibt erhalten. So entsteht in einer Umgebung, in der sich die Atome in einem angeregten Zustand befinden, also vergleichsweise viele Elektronen auf einem „zu hohen Energieniveau vorhanden sind, bei Lichteinfall eine Kettenreaktion von Elektronensprüngen auf ein niedrigeres Niveau – und damit eine simultane Abstrahlung von Licht.

    Der Trick bei der Sache: Jedes der abgestrahlten neuen Photonen besitzt exakt dieselben Eigenschaften: Alle schwingen mit der gleichen Phase, breiten sich in dieselbe Richtung aus und besitzen dieselbe Frequenz und Polarisation (Schwingungsrichtung). So wird aus wenigen Photonen, die die Kettenreaktion in Gang bringen, ein sehr starkes Licht mit jeweils völlig identischen Eigenschaften der Photonen. Physiker sprechen auch von einer „kohärenten Lichtwelle".

    Erst in den 1950er- und 1960er-Jahren gelang den Physikern der experimentelle Nachweis und die technologische Umsetzung dieser von Einstein 1917 rein theoretisch beschriebenen stimulierten Emission von Photonen. Sie wurde zur Grundlage des Lasers, einer weiteren Schlüssel-Quantentechnologie des 20. Jahrhunderts. Ein Laser entsteht, indem zunächst die Elektronen in einem Medium durch Lichteinstrahlung, elektrischen Strom oder andere Prozesse dazu angeregt werden, auf höhere Energiezustände zu springen (die Physiker sprechen hier von „Pumpen"). Daraufhin werden Lichtteilchen mit der gleichen Energie (Frequenz) wie die Anregungsenergie der Elektronen in das Medium gesandt, wodurch die Elektronen dazu gebracht werden, wieder auf ihren Grundzustand zurückzuspringen. Dabei senden sie Photonen aus, die eine exakte Kopie der einfallenden Photonen sind. Dieser Prozess gibt dem Laser seinen Namen: „Light Amplification by Stimulated Emission of Radiation."

    Die genaue Natur der beim Laser ablaufenden Prozesse blieb zunächst im Dunkeln. Erst eine noch komplexere, noch unanschaulichere Quantentheorie sollte Antworten darauf geben, wie sich die atomaren Quantensprünge der Elektronen und die damit einhergehende spontane Entstehung und Vernichtung von Lichtquanten beschreiben lassen: die Quantenfeldtheorie des elektromagnetischen Feldes . Für ihre Beschreibung war eine noch einmal weitaus abstraktere Mathematik notwendig als in der ursprünglichen Quantenmechanik.

    Auch beim Laser zeigt sich die ganz spezielle Eigenschaft der Quantenphysik: Extrem abstrakte und unanschauliche Theorien bringen konkrete technologische Anwendungen hervor.

    Quantenphysik und Elektronik – vom Transistor zum integrierten Schaltkreis

    Die Eigenschaften von Materie im festen Aggregatzustand, zum Beispiel Wärmeleitfähigkeit, Elastizität und chemische Reaktivität, wird maßgeblich von den Eigenschaften und Zuständen der Elektronen in ihr bestimmt. Auch hier spielen Quanteneffekte die entscheidende Rolle.

    Unter anderem gibt die Quantenphysik eine genaue Erklärung der elektrischen Leitfähigkeit der Stoffe, auch die der sogenannten Halbleiter . Deren Leitfähigkeit liegt zwischen denen von elektrischen Leitern (wie Kupfer) und Nichtleitern (wie Porzellan), lässt sich jedoch durch verschiedene Maßnahmen stark beeinflussen. Ändert man zum Beispiel die Temperatur bestimmter Halbleiter, ändert sich auch ihre Leitfähigkeit, und zwar anders als bei Metallen: Sie nimmt mit steigender Temperatur zu, anstatt zu fallen. Auch das Einbringen von Fremdatomen in ihre Kristallstruktur (Dotierung) beeinflusst die Leitfähigkeit von Halbleitern beträchtlich. So sind Mikrotransistoren nichts anderes als ein Zusammenschluss von verschieden dotierten Halbleiterelementen, und ihre Funktionsweise wird maßgeblich vom Fluss der Elektronen darin bestimmt. Dieser wiederum gehorcht den Gesetzen der Quantenphysik.

    Halbleiterkomponenten sind die Grundbausteine der gesamten Elektronik und aller Computer- und Informationstechnologien, die unser heutiges Leben so maßgeblich prägen. In sogenannten „integrierten Schaltkreisen" werden sie milliardenfach auf kleinen Chips zusammengepackt, sodass hochkomplexe elektronische Schaltungen auf nur wenige Quadratmillimeter großen Elementen verbunden werden (zum Beispiel in Mikroprozessoren und Speicherchips). Die einzelnen Elemente dieser integrierten Schaltkreise sind heute teilweise nur einige Dutzend Atomschichten groß (etwa 10 nm) – was immer in ihnen stattfindet, unterliegt quantenphysikalischen Gesetzmäßigkeiten.

    Ohne Berücksichtigung quantenphysikalischer Prozesse könnte man die heutigen Chips für Computer, Handys und andere elektronische Geräte nicht herstellen.

    Ein Beispiel für einen Quanteneffekt, dem in den mikroskopischen Transistoren und Dioden eine enorme Bedeutung zukommt, ist der sogenannte Tunneleffekt: Mit einer gewissen Wahrscheinlichkeit ist es Quantenteilchen möglich, eine Barriere zu überwinden, obwohl ihre Energie nach den Gesetzen der klassischen Physik dafür nicht ausreicht. Das Teilchen tunnelt dann einfach durch die Energiebarriere hindurch. Übertragen auf unsere Makrowelt hieße das, dass von tausend Gummipfeilen, die auf eine Bleiwand abgeschossen werden, ein paar auf der anderen Seite der Wand zum Vorschein kämen – und dass man auch noch sehr genau berechnen kann, wie viele von ihnen es sein werden. Dieses Quantentunneln ist eine bizarre Eigenschaft, die sehr reale und bedeutende Konsequenzen in unserer heutigen technologischen Welt hat. Denn wenn die Abstände zwischen den leitfähigen Regionen der Schaltkreise auf 10 nm und weniger schrumpfen, drohen Komplikationen: Die Elektronen tunneln unkontrolliert und verursachen Störungen. Um dies zu verhindern, müssen sich die Ingenieure allerlei Tricks einfallen lassen. Zum Beispiel kombinieren sie verschiedene Materialien so, dass die Elektronen eingesperrt werden, d. h. weniger wahrscheinlich tunneln. Die Physiker können den Tunneleffekt mittlerweile sogar so gut berechnen, dass sie sogenannte „Tunneleffekt-Transistoren (TFET) bauen können, deren Funktion explizit auf dem Tunneleffekt beruht. Denn auch der „Tunnelstrom lässt sich steuern.

    Der quantenphysikalische Tunneleffekt spielt eine große Rolle in der modernen Mikroelektronik – einerseits als Hindernis für die immer weitergehende Miniaturisierung, andererseits als Grundlage einer neuen Transistor-Technologie.

    Neben der elektrischen Leitfähigkeit von festen Stoffen lassen sich auch ihre ganz alltäglichen Eigenschaften wie Farbe, Lichtdurchlässigkeit, Gefrierpunkt, Magnetismus, Viskosität, Verformbarkeit, chemische Charakteristiken nur mit den Gesetzen der Quantenphysik verstehen. Festkörperphysik ist ohne Kenntnisse von Quanteneffekten nicht mehr vorstellbar. Und immer wieder stoßen die Physiker hier auf überraschende Effekte und Eigenschaften und beobachten neue erstaunliche makroskopische Quanteneffekte, die wiederum den Weg zu weiteren technologischen Anwendungen eröffnen.

    Ein Beispiel ist die Supraleitung, das vollständige Verschwinden des elektrischen Widerstands in bestimmten Metallen, wenn sie Temperaturen nahe dem absoluten Nullpunkt ausgesetzt sind. Dieser Effekt wurde 1911 zum ersten Mal beobachtet und lässt sich mit einer bestimmten Vielteilchen-Quantentheorie erklären, der sogenannten „BCS-Theorie" von 1957 von John Bardeen, Leon Neil Cooper und John Robert Schrieffer (wofür John Bardeen als bisher einziger Mensch einen zweiten Physik-Nobelpreis erhielt, neben dem für seine Entdeckung des Transistoreffektes). Doch 1986 entdeckten die Physiker Georg Bednorz und Karl Alexander Müller, dass in manchen Stoffen die Temperatur, bei der sie den Strom widerstandslos leiten, sehr viel höher liegt als bei den bekannten supraleitenden Metallen; hierfür erhielten sie bereits ein Jahr später den Nobelpreis. Es ist wie so oft in der Quantenphysik: Dieses Phänomen ist bis heute nicht in allen Einzelheiten verstanden (es wird nicht durch die BCS-Theorie erklärt), aber es besitzt ein gewaltiges technologisches Potential. Der Traum der Quanteningenieure sind Stoffe, die bei Zimmertemperatur supraleitend sind. Mit ihnen könnte Strom verlustfrei durch ganze Länder und Kontinente transportiert werden. Im deutschen Stromnetz gehen heute noch über 5 % des Stroms durch Übertragungsverluste verloren.

    Neue Verbindungen – Quantenchemie und Quantenbiologie

    Mit der Quantentheorie erkannten die Wissenschaftler auch eine ganz neue Verbindung zwischen Physik und Chemie. Wie sich Atome zu Molekülen und anderen Verbindungen verbinden, wird durch die Quanteneigenschaften der Elektronenhüllen der jeweiligen Atome bestimmt. Das bedeutet: Chemie ist im Prinzip nichts anderes als angewandte Quantenphysik. Erst mit den Erkenntnissen aus der Quantenphysik ließen sich die Strukturen von chemischen Verbindungen im Detail verstehen. Mancher Leser mag sich aus dem Schulunterricht noch an die wolkenartigen Gebilde erinnern, die sich um den Atomkern herum formen: Diese Wolken, sogenannte Orbitale, sind nichts anderes als Näherungslösungen der Grundgleichung der Quantenmechanik, der Schrödinger-Gleichung, die die jeweilige Wahrscheinlichkeit des Aufenthaltsortes der Elektronen bestimmen (diese Lösungen berücksichtigen allerdings nur die Wechselwirkungen der Elektronen mit dem Atomkern, nicht aber die der Elektronen untereinander).

    Die „Quantenchemie" berechnet die Elektronenstruktur in Molekülen mit den theoretischen und mathematischen Methoden der Quantenphysik und analysiert so deren Eigenschaften, wie zum Beispiel ihr reaktives Verhalten, die Art und Stärke ihrer chemischer Bindungen, Resonanzen oder Hybridisierungen. Mit immer mächtigeren Computern wird es möglich, chemische Prozesse und Verbindungen immer exakter zu bestimmen. In der chemischen Industrie und Materialforschung, aber auch in der Medikamentenentwicklung und Agrochemie hat diese Disziplin große Bedeutung gewonnen.

    Nicht zuletzt hilft uns die Quantenphysik, auch die Biochemie lebendiger Systeme besser zu erfassen. Seit einigen Jahren sprechen die Biowissenschaftler von einer „Quantenbiologe". So lässt sich beispielsweise die Photosynthese von Pflanzen in ihren Einzelheiten nur mit Berücksichtigung von Quanteneffekten verstehen. Und der genetische Code ist unter anderem deshalb nicht vollständig stabil, weil Protonen in der DNA dem Tunneleffekt ausgesetzt sind, ein Effekt, der mitverantwortlich für das Auftreten von Spontanmutationen ist (Kap. 22 wird dies vertiefen).

    Doch wie immer, wenn irgendwo „Quanten" draufsteht, ist eine gewisse Ungenauigkeit im Paket enthalten. Grundsätzlich lassen sich

    die Struktur von Atomen und Molekülen

    sowie die Dynamik chemischer Reaktionen

    durch Lösung der Schrödinger-Gleichung (oder anderer Quantengleichungen) für alle involvierten Atomkerne und Elektronen theoretisch berechnen. Diese Berechnungen sind aber so kompliziert, dass mit heutigen Mitteln eine exakte Lösung nur für den Spezialfall des Wasserstoffs möglich ist – also für ein System mit einem Proton und einem Elektron. Bei komplexeren Systemen, also in praktisch allen realen Anwendungen in der Chemie, kann die Schrödinger-Gleichung nur unter Verwendung von Näherungen gelöst werden. Dafür werden die heute verfügbaren leistungsfähigsten Computer überhaupt eingesetzt.

    Theoretisch sollten sich mit den Gleichungen der Quantentheorie alle Vorgänge auf der Welt ausrechnen lassen ² – nur werden die Berechnungen schon bei einfachsten Molekülen so komplex, dass es dafür die schnellsten Computer der Welt braucht. Dennoch müssen sich die Physiker mit nur ungefähren Ergebnissen zufriedengeben.

    Quantenphysik überall – und es kommt noch viel mehr

    Von moderner Chemie bis zur Festkörperphysik, von der Signalverarbeitung bis zu den modernen bildgebenden Systemen in der Medizin – überall treffen wir heute auf Quantenphysik. Tagtäglich vertrauen wir ihren Gesetzen, wenn wir in ein Auto steigen (und uns auf die Bordelektronik verlassen), unseren Computer hochfahren (der aus integrierten Schaltkreisen, d. h. einer auf Quantenphänomenen beruhenden Elektronik, besteht), Musik hören (CDs werden durch Laser, einem reinen Quantenphänomen, ausgelesen), Röntgen- oder MRT-Aufnahmen unseres Körpers machen ³ , uns von GPS leiten lassen oder mittels unseres Handys kommunizieren. Nach verschiedenen Schätzungen beruht heute zwischen einem Viertel und der Hälfte des Bruttosozialprodukts der Industrienationen direkt oder mittelbar auf Erfindungen mit quantentheoretischer Grundlage.

    Dieser Anteil wird sich in den nächsten Jahren noch deutlich erhöhen. Denn nach Nukleartechnik und -medizin, Laser, Halbleitertechnik und der modernen physikalischen Chemie aus den Jahren 1940 bis 1990 entsteht seit den 1990er-Jahren eine zweite Generation von Quantentechnologien, die unser Leben womöglich noch weit stärker prägen wird, als es die erste Generation bereits getan hat. Die USA und Europa haben die Zeichen der Zeit erkannt und investieren unterdessen massiv auf diesem Gebiet. Das gilt auch für ein Land, das bisher eher als Entwicklungsland auf dem Gebiet der wissenschaftlichen Forschung galt, unterdessen aber mit riesengroßen Schritten aufholt: die Volkrepublik China. In ihrem 13. Fünfjahresplan hat sie die neuen Quantentechnologien zu einem strategischen Forschungsbereich ernannt. Welche dies konkret sind, damit beschäftigen sich die nächsten drei Kapitel.

    Vor über hundert Jahren nahm die erste Quantenrevolution ihren Anfang. Nun erleben wir den Beginn der zweiten Quantenrevolution.

    Anmerken

    1.

    Hier gab es allerdings bereits früher bedeutende philosophische Denkbewegungen, die die Unabhängigkeit der Dinge von unserer Betrachtung von ihnen infrage stellten, so zuletzt auch die Kantische Philosophie, die die Möglichkeit unserer Erkenntnis von den „Dingen an sich" bezweifelt.

    2.

    Diese Aussage gilt voraussichtlich nicht auf kosmischer Skala. Hier gilt die allgemeine Relativitätstheorie, die bisher inkompatibel mit jeder Quantentheorie ist (s. Kap. 14).

    3.

    Röntgenstrahlung besteht aus zwei unterschiedlichen Strahlungstypen, der Bremsstrahlung und der charakteristischen Strahlung. Für die Erklärung und Anwendung der Bremsstrahlung reicht weitestgehend die klassische Physik. Die charakteristische Strahlung lässt sich dagegen ohne Quantenphysik nicht erklären. Konrad Röntgen erhielt 1901 als erster Mensch überhaupt den Nobelpreis. Einige Jahre später entdeckte Charles Glover Barkla die charakteristische Strahlung und erhielt hierfür 1917 den Nobelpreis für Physik.

    © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018

    Lars JaegerDie zweite Quantenrevolution https://doi.org/10.1007/978-3-662-57519-2_2

    2. Nach unten hin gibt es noch viel Platz

    Eine neue Generation von Quantentechnologien

    Lars Jaeger¹  

    (1)

    Baar, Schweiz

    Lars Jaeger

    Email: lars.jaeger@altbetapartners.com

    Im Jahr 1959 hielt der Quantenphysiker und spätere Nobelpreisträger Richard Feynman einen bis heute vielzitierten Vortrag, in dem der ausführte, wie zukünftige Technologien auf mikro- und nanoskopischer Ebene (auf Skalen von einem Tausendstel Millimeter bzw. einem Millionstel Millimeter) funktionieren könnten. Sein Titel: „There’s Plenty of Room at the Bottom" („Nach unten gibt es noch viel Platz"). Feynmans Vision war sehr konkret: Er sagte voraus, dass der Mensch bald in der Lage sein würde, Materie bis auf die Ebene einzelner Atome zu manipulieren. Feynmans Vortrag war sozusagen der Urknall der Nanotechnologie, heute einer der aufregendsten Zukunftstechnologien überhaupt. Ihr Ziel: die Kontrolle und Manipulation einzelner Quantenzustände.

    Tatsächlich sind zahlreiche der Ideen Feynmans Realität geworden, zum Beispiel:

    das Elektronenmikroskop, in dem das Objekt mit einem Elektronenstrahl Punkt für Punkt abgetastet wird, dessen Wellenlänge um das bis zu Hunderttausendfache kleiner ist als die des Lichtes. Das ermöglicht Auflösungen bis zu 50 pm (10-12 m) und Vergrößerungen um bis zu 10.000.000 (Lichtmikroskope schaffen nicht mehr als 200 nm (10-9 m) Auflösung bzw. Vergrößerungen von 2000).

    mikroskopisch große Datenspeicher auf der Grundlage der Halbleitertechnologie, die es ermöglichen, 500 Gb auf einer daumennagelgroßen Fläche zu speichern.

    integrierte Schaltkreise mit Elementen, die aus jeweils nur 10 bis 100 Atomen bestehen und allein durch ihre immense Anzahl auf einem Mikrochip die ultraschnelle Informationsverarbeitung in modernen Computern ermöglichen.

    Nanomaschinen in der Medizin, die in den menschlichen Körper eingeschleust werden, zum Beispiel mit der Aufgabe, sich eigenständig auf die Suche nach Krebszellen zu machen.

    Viele der Visionen Feynmans von 1959 sind heute Teil unseres technologischen Alltags.

    Feynmans bahnbrechendste Vision von 1959 allerdings war, ultrakleine Maschinen zu konstruieren, die Materie auf der Ebene von Atomen gezielt manipulieren. Diese Maschinen würden aus einer Art Baukasten, in dem Atome der verschiedensten Elemente zur Verfügung gestellt werden, beliebige Stoffe zusammensetzen – als ob sie Lego nach einer vom Menschen vorgegebenen Aufbauanleitung spielen würden. Einzige Voraussetzung: Die synthetisch hergestellten Verbindungen müssen energetisch stabil sein.

    Erste Versionen solcher Nanogrundbausteine gibt es heute bereits: Nanoräder, die richtig rollen können, Nanozahnräder, die sich entlang einer gezackten Kante aus Atomen drehen, Nanopropeller, -scharniere, -greifer, -schalter und vieles mehr. Alle sind sie ungefähr einen zehntausendstel Millimeter groß und gehorchen den Gesetzen der Quantenphysik, nicht denen der klassischen Newton’schen Mechanik. So ist die Nanotechnologie ist nichts anderes als eine Quantentechnologie.

    In seinem Zukunftsroman Der Herr aller Dinge (2011) beschreibt der Science-Fiction-Autor Andreas Eschbach, wie Nanomaschinen einzelne Atome und Moleküle auf nahezu beliebige Art und Weise zusammensetzen. Zuletzt beginnen sie sogar, sich selbst zu replizieren, und breiten sich damit exponentiell schnell aus. Dank ihrer Fähigkeiten sind diese Nanomaschinen in der Lage, wie aus dem Nichts Dinge und Wirkungen zu erzeugen. Der Protagonist des Romans lernt, sie zu befehligen und lässt sie so spontan Dinge bauen, die er gerade braucht (Autos, Flugzeuge, sogar ein Raumschiff). Über seine Hirnsignale, die von den Nanorobotern direkt abgegriffen werden, gelingt es ihm letztlich sogar, diese Prozesse allein durch seine Gedanken zu steuern.

    Sind solche Nanomaschinen auch in der Realität möglich oder ist das pure Science-Fiction? Feynman meinte hierzu in seinem Vortrag, dass es kein Naturgesetz gäbe, das gegen ihre Herstellung spricht. Tatsächlich nähern sich die heutigen Nanoforscher immer weiter seiner Vision an. Der Chemie-Nobelpreis, den Jean-Pierre Sauvage, Fraser Stoddart und Bernard Feringa 2016 für ihre Arbeiten an molekularen Nanomaschinen erhielten, zeigt, für wie wichtig die Forschergemeinschaft die Arbeiten an Nanomaschinen hält.

    Die von Richard Feynman vorausgesagten Nanomaschinen, die aus atomarem Rohmaterial (fast) jedes beliebige Material wie aus dem Nichts zusammensetzen oder bestehendes Material – auch lebendes – reparieren, sind theoretisch möglich. Erste Schritte dahin sind bereits gemacht. Sie werden das 21. Jahrhundert prägen.

    Aus Quantenspuk wird Technologie

    In einer zweiten visionären Rede im Jahr 1981 entwickelte Feynman einen vielleicht noch radikaleren Gedanken: eine ganz neue Art von Computer, einen „Quantencomputer", der heutige Hochleistungsrechner aussehen lassen würde wie einen Commodore 64 aus den frühen 1980er-Jahren. Die beiden wesentlichen Unterschiede eines Quantencomputers zu den heute noch gebräuchlichen Computern sind:

    Im Quantencomputer dienen für Informationsverarbeitung und -speicherung nicht mehr Elektronenströme. Vielmehr basieren sie auf der Kontrolle und der Steuerung einzelner Quantenteilchen.¹

    Anstatt Bit für Bit zu verarbeiten, rechnet ein Quantencomputer dank der Superposition parallel auf zahlreichen Quantenzuständen, sogenannten Quantenbits (Qubits), zugleich. Statt auf separate Zustände 0 und 1 beschränkt zu sein, vervielfachen sich so die möglichen Zustände, die in einem Takt verarbeitet werden können; dies ermöglicht eine im Vergleich zu gängigen heutigen Computern unvorstellbar höhere Rechengeschwindigkeit.

    Noch steckt Quantencomputer-Technologie in den Kinderschuhen, doch einmal erwachsen wird sie eine Vielzahl heute gebräuchlicher Algorithmen dramatisch beschleunigen, wie sie etwa in der Datenbanksuche, bei der Berechnung komplexer chemischer Verbindungen oder beim Knacken gängiger Verschlüsselungsverfahren verwendet werden. Aber auch eine Reihe von Anwendungen, für die heutige Computer noch zu wenig leistungsfähig sind, wird sich mit ihnen realisieren lassen, beispielsweise bestimmte komplexe Optimierungen oder noch potenteres maschinelles Lernen. Hier trifft der Quantencomputer auf eine weitere bahnbrechende Zukunftstechnologie: die Entwicklung von künstlicher Intelligenz. Quantencomputer werden ausführlich Thema in Kap. 4 sein.

    Die Visionen Richard Feynmans sehen in der Quantenphysik nicht mehr nur den Inbegriff des Abstrakten, sondern auch ihre konkreten zukünftigen technologischen Möglichkeiten – genau dies ist die Quantenphysik 2.0.

    Wie Feynman vor fast 60 Jahren vorausgesagt hat, nutzen wir heute in vielfältiger Weise auf Quantenphysik beruhende Technologien. Gängige elektronische Bauteile, integrierte Schaltungen auf Halbleiterchips, Laser, Elektronenmikroskop, LED-Licht, spezielle Festkörper-Eigenschaften wie die Supraleitung, besondere chemische Verbindungen oder auch die Magnetresonanztomographie beruhen im Wesentlichen auf den Eigenschaften großer Ensembles von Quantenteilchen und den Möglichkeiten ihrer Kontrolle: der Steuerung des Flusses vieler Elektronen, der gezielten Anregung einer großen Anzahl von Photonen, der Messung des Kernspins massenhafter Atome. Konkrete Beispiele sind der Tunneleffekt in modernen Transistoren, die Kohärenz von Photonen beim Laser, die Spin-Eigenschafen der Atome bei der Magnetresonanztomographie, die Bose-Einstein-Kondensation oder die diskreten Quantensprünge in einer Atomuhr. An die damit verbundenen bizarren Quanteneffekte wie Quantentunneln, dem wie durch eine Geisterhand gesteuerten Gleichtakt vieler Milliarden von Teilchen, oder dem Wellencharakter von Materie haben sich die Physiker und Ingenieure längst gewöhnt. Denn das statistische Verhalten eines Ensembles von vielen Quantenteilchen lässt sich mit der seit nun 90 Jahre etablierten Quantentheorie (der Schrödinger-Gleichung) sehr gut erfassen, und die darin ablaufenden Prozesse sind noch einigermaßen anschaulich beschreibbar. Auf ihnen beruht die erste Generation von Quantentechnologien.

    Bei der sich abzeichnenden zweiten Generation von Quantentechnologien steht dagegen etwas ganz Neues im Vordergrund: die gezielte Präparation, Kontrolle, Manipulation und nachfolgende Auslese der Zustände einzelner Quantenteilchen und ihre Wechselwirkungen miteinander. Von entscheidender Bedeutung ist hier eines der ominösesten Phänomene in der Quantenwelt, das bereits den Gründungsvätern der Quantentheorie viel Kopfzerbrechen bereitet hat: die Verschränkung.

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1