Die moderne Quantentheorie entwickelte sich aus der Notwendigkeit heraus, die theoretische Beschreibung empirischen Faktenmaterials zu ermöglichen. Viele Entdecker der Quantentheorie sahen sie nur als Notlösung, sie wurden sozusagen durch die Meßergebnisse gezwungen, von der gewohnten klassischen Physik zu abstrahieren und eine Beschreibung zu verwenden, die auf den ersten Blick sehr viel weiter von den direkten Sinneswahrnehmungen entfernt ist.
In diesem Abschnitt soll es darum gehen, die nichtrelativistische Quantentheorie aus einfachen Analogiebildungen zur klassischen Physik herzuleiten. Dieses Verfahren hat den Vorteil, daß es grob den historischen Entwicklungsgang nachzeichnet, weist jedoch den unbestreitbaren Nachteil auf, daß dabei Vorstellungen etabliert werden, die nicht unserem modernen physikalischen Weltbild entsprechen.
Wie wir sogleich ausführlich entwickeln werden, hatte sich aus der Planckschen Quantenhypothese durch Einsteins Arbeit über Lichtquanten von 1905 die These etabliert, daß das Licht durch die Wellenvorstellungen des 19. Jh. allein nicht adäquat beschrieben werden kann, und das obwohl kaum 40 Jahre früher durch Maxwell eine so befriedigende Vereinigung des Elektromagnetismus mit der Optik stattgefunden hatte, die durch die direkte Erzeugung und den Nachweis elektromagnetischer Wellen durch H. Hertz 10 Jahre früher so glänzend ihre experimentelle Bestätigung erfahren hatte. Hinzu kam noch, daß die Maxwelltheorie für die damaligen Physiker keine allzu leichte Kost war. Was wir heutzutage spätestens im 4. Semester für das Vordiplom büffeln müssen, war damals ein ausgesprochenes Expertenwissen für die sich gerade herausbildende Zunft der mathematischen oder theoretischen Physiker.
Eine weitere sich gerade mühsam durchsetzende Theorie war die vor
allem durch Boltzmann entwickelte kinetische Gastheorie, die aus der
Vorstellung von Atomen die makroskopischen Erscheinungen der Materie
mit Hilfe statistischer Methoden zu beschreiben versuchte. Dabei waren
zu der Zeit Atome noch nicht einmal allgemein als existent anerkannt!
Planck selber war ein ausgesprochener Vertreter der klassischen, also
phänomenologischen, Thermodynamik und nur widerwillig bediente er
sich der Boltzmannschen Abzählmethode um das Spektrum der
Hohlraumstrahlung zu erklären. Er kam dabei durch die Analyse von
Experimenten, die seine Berliner Kollegen Rubens und Kurlbaum gerade
durchgeführt hatten, zu dem Schluß, daß das Licht nicht in
beliebigen Energien von den Wänden des Hohlraumes absorbiert und
emittiert wird (wodurch sich letztlich ein thermodynamisches
Gleichgewicht mit einer wohldefinierten Temperatur ergibt), sondern
daß dies eben nur in gewissen Portionen, die er Quant nannte,
geschehen kann, die proportional zur Frequenz der Lichtwelle waren.
Ein Lichtquant hatte also den Energieinhalt
,
wobei
war. Die Konstante
heißt zu Ehren
Plancks das Plancksche Wirkungsquantum, Wirkungsquantum deshalb, weil
sie die Dimension ,,Energie
Zeit`` besitzt wie die Wirkung
des aus der Mechanik bekannten Hamiltonschen Prinzips.
Es ist wichtig zu bemerken, daß Planck noch nicht dem Licht selber
diese Quanteneigenschaften zuordnete, sondern nur dem Absorptions- und
Emissionsverhalten der Materie. Nicht zuletzt deshalb war seine
Rechnung ausgesprochen kompliziert. Er betrachtete das
Strahlungsgleichgewicht zwischen einem harmonischen Oszillator und der
elektromagnetischen Strahlung des Hohlraums um das Spektrum der
Strahlung zu gewinnen. Es war dann Einstein in 1905, der diese
Quanteneigenschaft explizit dem Licht selber zuwies. Er stellte sich
das Licht als Teilchen vor, die die Energie
1 besitzen und (das war gegenüber der
Planckschen Hypothese neu) einen Impuls der Größe
, wobei
der Wellenvektor ist. Dessen Richtung ist
die Fortschreiterichtung der Welle und sein Betrag ist
, wobei
die Wellenlänge des Lichtes ist.
Dies ist aber nun eine für die damalige Zeit völlig verrückte Vorstellung, und selbst heute, fast 100 Jahre nach Entdeckung der Quantentheorie, tun wir uns noch schwer damit: Das Licht sollte aus Teilchen bestehen, dessen mechanische Parameter aber durch die Welleneigenschaften desselben Phänomens gegeben waren? So etwas klingt eher wie die Crackpottheorien, von denen unsere Newsgroups so zahlreich überschwemmt werden. Allerdings konnte Einstein auch gewichtige experimentelle Gründe für seine Idee vorbringen.
Lenard hatte nämlich den lichtelektrischen Effekt entdeckt, demzufolge aus Metallen durch die Einstrahlung von Licht Elektronen2 herausgeschlagen werden. Allerdings verhielten sich diese Elektronen äußerst merkwürdig. Nach der klassischen Vorstellung der Wechselwirkung von Licht mit geladenen Teilchen3 sollten die Elektronen zum einen nämlich erst nach einer gewissen Einstrahlzeit aus dem Metall herauskommen und dann sollte deren Energie mit der Intensität des Lichtes anwachsen. Diese Erwartung war aber völlig im Widerspruch zu den Lenardschen Experimenten! Die Elektronen kamen ohne merkliche Zeitverzögerung aus dem Metall heraus, und die Energie war unabhängig von der Intensität des Lichtes, wohl aber abhängig von der Frequenz desselben.
Einstein schrieb eigentlich nur eine wesentliche Formel in seine
bahnbrechende Lichtquantenarbeit, nämlich die, daß das Licht ein
Teilchenstrom ist, dessen Teilchen eine Energie von
hat. Es war eine gewisse ,,Austrittsarbeit`` notwendig, um die
Elektronen aus dem Metallverband herauszulösen. Zusammen mit dem
Energiesatz bedeutet das, daß
Wirklich anerkannt wurde die Lichtquantenhypothese allerdings erst
durch die Erklärung des Comptoneffekts (1923). Dabei wird Licht an
einem quasi freien Elektron gestreut. Das ist ein klassischer
elastischer Stoßprozeß4, der sich mit Hilfe der
Lichtquantenhypothese auch so behandeln lies. Man brauchte nur die
Energie- und Impulsbilanz des Prozesses aufzustellen, wobei dann auch
die Einsteinsche Beziehung
, die den Impuls des
Lichtes mit der Wellenbeschreibung desselben verknüpfte, zur
Anwendung kam. Aus der Energie des einfallenden Photons und dem Impuls
sowie dem Streuwinkel des auslaufenden Elektrons konnte die Energie
des auslaufenden Photons und damit die beobachtete
Frequenzverschiebung des Lichtes aufgrund der Streuung erklärt
werden. Die Comptonstreuung ist also seit Einstein als elastische
Elektron-Photonstreuung zu deuten.
Ein anderes Mysterium war das 1911 von Rutherford aufgrund seines
berühmten ,,Goldfolienversuchs`` aufgestellte Atommodell. Rutherford
hatte -Teilchen, also zweifach geladene Heliumatome, die aus
radioaktiven Zerfällen stammten, auf eine Goldfolie geschossen und
bemerkt, daß diese quasi aus gar nichts besteht. Genauer gesagt, die
meisten
-Teilchen flogen fast unbehelligt durch die Goldfolie
hindurch. Einige wurden allerdings auch stark abgelenkt. Damit war
klar, daß die Atome nicht massive positiv geladene Körper, in die
die negativen Elektronen eingelagert waren (ein Modell, das als
Thomsonsches Rosinenkuchenmodell damals aktuell war) sein konnten. Das
Atom mußte vielmehr selber zusammengesetzt sein aus einem Kern, der
nahezu die gesamte Masse des Atoms ausmachte und der entsprechend der
Ordnungszahl des Atoms geladen war, und einer der Ladung des Kerns
entsprechenden Zahl Elektronen. Rutherford hatte auch sofort den aus
dieser Hypothese zu erwartenden Streuquerschnitt der
-Teilchen berechnet, und zwar indem er einfach die aus der
Himmelsmechanik bekannten Keplerschen Gesetze benutzte. Die
Gravitation wurde natürlich durch die elektrostatischen Kräfte, die
der Kern auf das
-Teilchen ausübte, ersetzt, und da hier
wegen der gleichnamigen Ladung von
-Teilchen und Kern eine
abstoßende Kraft vorliegt, erhält man nur Hyperbeln (also sozusagen
Kometenbahnen). Aber mit der gefundenen heute nach Rutherford
benannten Streuformel konnte er exakt die gemessenen
Wirkungsquerschnitte reproduzieren.
Allerdings ergab sich damit ein neues Bild vom Atom, das jetzt als mikroskopisches Planetensystem angesehen werden mußte (mit dem Kern als Sonne und den Elektronen als Planeten und der elektrostatischen Kraft des Kerns anstelle der Gravitation als Zentralkraft). Andererseits besagte die klassische Elektrodynamik, daß die Elektronen, die sich der Rutherfordtheorie zufolge auf Ellipsenbahnen um den Kern bewegen würden, eigentlich strahlen müßten, weil beschleunigte Ladungen zufolge der Maxwellschen Theorie strahlen und auch die Strahlung genau ausgerechnet werden konnte (das Lienard-Wiechertsches Potential wurde bereits Ende des 19. Jh. aus den Maxwellgleichungen gewonnen).
Das widersprach aber eklatant der Stabilität der chemischen Elemente, die zudem noch wohl definierte Spektren emittierten und keine kontinuierliche Synchrotronstrahlung5. Es konnten im Atom also nicht beliebige Bahnen vorliegen, sondern nur ganz bestimmte, die die Stabilität der Atome dadurch gewährleisteten, daß das genau die Bahnen sind, auf denen die Elektronen keine elektromagnetische Strahlung emittieren. Es war natürlich wieder ein Widerspruch zur klassischen Physik, daß es solche Bahnen überhaupt geben kann.
Zum Glück war Thomson an der Doktorarbeit eines jungen Dänen
überhaupt nicht interessiert, so daß sich dieser sofort nach
Manchester zu Rutherford begab und da in ein ihm völlig unbekanntes
Gebiet eindrang. Bohr wurde also sofort mit dem Problem des
Planetenmodells konfrontiert, und nach einigen Wochen intensiver
Rechnerei konnte er aus der Planckschen Lichtquantenhypothese sein
berühmtes Atommodell gewinnen. Hier war es wieder das Teilchenmodell
der klassischen Mechanik, das die Lösung herbeiführte. Anders als in
der Makrophysik sollten aber die stabilen Bahnen durch das Plancksche
Strahlungsgesetz bestimmt sein. Ein Elektron sollte nur noch dann
Energie abstrahlen, wenn es von einer energetisch höher gelegenen
Bahn auf eine energetisch niedriger gelegene Bahn ,,springt``. Die
Bahnen wurden demzufolge durch einen bestimmten diskreten Wert für
die sog. Wirkungsvariable bestimmt, die ein ganzzahliges Vielfaches
von sein mußte.
Hatte man die Annahme diskreter Quantenbahnen erst einmal hingenommen, konnte diese Theorie auf ,,natürliche`` Art und Weise das empirisch bereits seit 1885 bekannte Balmersche Seriengesetz der Spektrallinien des Wasserstoffs erklären. Ebenso fand das Ritzsche Kombinationsprinzip eine theoretische Herleitung, demzufolge die Spektrallinien als Differenzen einfacher Terme beschrieben werden konnten.
Bohrs Theorie wurde alsbald von Sommerfeld mathematisch ausgebaut und konnte auf vielerlei Probleme angewandt werden. Sogar die relativistische Behandlung war kein Problem mehr, und die brachte einen entscheidenden Gewinn in der Präzision, konnte sie doch die sog. Hyperfeinstruktur der Spektrallinien erklären. Auch die Aufspaltung der Spektrallinien im schwachen Magnetfeld (Zeemanneffekt) und elektrischen Feld (Starkeffekt) konnte zumindest qualitativ verstanden werden.
Allerdings gab es schon beim nächstkomplizierteren Atom, dem Heliumatom mit zwei Elektronen, Probleme, die die Grenzen der Bohrschen ad hoc-Hypothese aufzeigten. In der Zwischenzeit hatte de Broglie aber diese Bohrschen Hypothese mit der Einführung der Materiewellen auf die Bedingung stehender Wellen als stationärer Zustände zurückgeführt werden. De Broglie hatte in seiner Doktorarbeit in einem kühnen Analogieschluß zum Welle-Teilchen-Dualismus beim Licht auch den Teilchen (damals also vornehmlich den Elektronen) Welleneigenschaften zugewiesen. Diese These wurde mit größter Vorsicht aufgenommen, und erst die positive Begutachtung der Arbeit durch Einstein, den man sozusagen als externen Gutachter hinzugezogen hatte, lies diese als Doktorarbeit überhaupt durchgehen.
Die Wellenvorstellung der Teilchen diente nun Schrödinger als Ausgangspunkt, durch eine systematische Analyse des Übergangs von der Wellen- zur Strahlenoptik, die schon Hamilton im 19. Jh. geleistet hatte, die aber zu der Zeit in Vergessenheit geraten war, seine berühmte Wellengleichung aufzustellen, die wir sogleich im nächsten Abschnitt durch einen wesentlich vereinfachten Analogieschluß gewinnen werden. Interessant ist es übrigens zu bemerken, daß Schrödinger zunächst wie de Broglie eine relativistische Gleichung herleiten wollte, aber alsbald große physikalische Probleme bemerkte, die erst einige Jahre später durch die Entwicklung der relativistischen Quantenfeldtheorie gelöst werden sollten.
Schon ein wenig früher hatte Heisenberg in seiner berühmten Arbeit von der ,,Quantenmechanischen Umdeutung mechanischer Größen`` eine Quantentheorie hergeleitet, die die physikalischen Größen durch abstrakte Zahlenschemata (unendlichdimensionale Matrizen) ersetzte, die von der Bohrschen Bahnvorstellung vollständig abstrahierte. Schrödinger konnte dann relativ schnell zeigen, daß seine ,,Wellenmechanik`` mathematisch und physikalisch äquivalent zu der Matrizenmechanik war.
Nun ergab sich aber ein für die Physik neuartiges Problem. War die klassische Mechanik mehr oder weniger gradlinig von den Erscheinungen ausgehend zu ihren theoretischen Grundbegriffen gelangt, d.h. die Zuordnung der mathematischen Begriffe zu in der Natur oder im Experiment gegebenen Beobachtungstatsachen war unmittelbar gegeben, hatte man nun einen mathematischen Formalismus gefunden, der sich hervorragend eignete um die atomaren Spektren zu beschreiben, der aber keinesfalls in allen Teilen physikalisch verstanden war. So ergab sich z.B. durch die Einführung der Schrödingerschen Wellenfunktion die Frage, was diese physikalisch zu bedeuten hatte oder umgekehrt, wie beim Licht die Teilchenvorstellungen, die sich mit den Photonen verbanden, zu deuten waren. Schrödingers Materiewellen zeigten nämlich die für Wellen typische Eigenschaft der Dispersion, d.h. wenn man ein Wellenpaket ,,mikroskopischer`` Ausmaße vorgab, lief es mit der Zeit unter Einfluß der freien Schrödingergleichung auseinander, und die stehenden Wellen, die Elektronen im Atom beschrieben, zeigten überhaupt keine irgendwie geartete ,,Lokalisierung``. Wollte man aber die Elektronen in allen Situationen als Teilchen verstehen, konnte das schwer möglich sein, wenn man die Wellen als klassische Wellen auffaßte, die in der makroskopischen Welt, also bei hinreichend grober Messung als Teilchen erscheinen. Beim Licht war es eher umgekehrt. Es fragte sich, wie die Teilcheneigenschaften, die beim Comptoneffekt zu einer so einfachen, quantitativ korrekten Erklärung geführt hatten, mit den typischen Interferenzversuchen vereinbar sein sollten.
Bei der Anwendung der neuen Quantentheorie auf Streuprobleme (1926)
fand nun Born, der zusammen mit Jordan in Göttingen maßgeblich an
einer systematischen Ausformulierung der noch recht verworrenen
Gedanken Heisenbergs zur Matrizenmechanik beteiligt war, eine einfache
Erklärung: Die Schrödingerschen Materiefelder waren keine Felder im
klassischen Sinne, also sich als kontinuierliche Entität im Raum
fortplanzende Ströme von Energie und Impuls. Vielmehr war durch
die
Wahrscheinlichkeit pro Volumenelement (also die
Wahrscheinlichkeitsdichte), zur Zeit
ein Teilchen, dem die
Wellenfunktion
zugeordnet war, am Ort
zu finden.
Diese Idee stellte er in einer erläuternden Fußnote seiner
Streutheoriearbeit dar und erhielt dafür später den Nobelpreis.
Das bedeutete aber, daß man über die Teilchen generell nur Wahrscheinlichkeitsaussagen machen konnte, was ihre klassischen Meßgrößen wie Ort, Impuls usw. betraf. Dies führte zu der wohl berühmtesten Debatte in der ganzen Wissenschaftsgeschichte, nämlich der zwischen Bohr und Einstein über die begriffliche Klärung der Quantenphysik, die bekanntlich nie zu einer Einigung kam. Auf diese grundlegenden Probleme der Interpretation, insbesondere auf die mit ihr auf's engste verknüpften Heisenbergschen Unschärferelationen (1927) gehen wir weiter unten näher ein, wenn wir den mathematischen Apparat der Quantentheorie etwas weiter entwickelt haben. Genau darum soll es im nächsten Abschnitt gehen.