Einführung
Stellung in der Welt
In Raum und Zeit
Die Evolution
Aberglaube, Religion
Das Gehirn versagt
Zahlenspiele
Relativitätstheorien
Quantenphysik
Chaos und Fraktale
 Die Erde
 Aufbau der Materie
Stichwort "Realität"
   

Zurück zu Willkommen

 

Wo das Gehirn versagt

„Nachdenken über Quantenphysik“
(Bildbearbeitung HG Klug)

Von der Kopenhagener Deutung bis zum Multiversum - Ernst Schrödinger’s Katzenparadox beschäftigt bis heute die Naturwissenschaft. Es steht symbolhaft dafür dass die Natur mit den Begriffen des Alltagslebens nicht zu fassen ist.

0 Vorbemerkung

Das menschliche Gehirn wurde von der Evolution dahin entwickelt, Überleben und Fortpflanzung unter irdischen Bedingungen sicher zu stellen.  Was immer im Erbgut schon festgelegt sein mag, die ersten Lebensjahre des einzelnen Menschen lehren ihn auch nicht viel anderes als seine Vorfahren. Das Modell der Welt in seinem Kopf spiegelt seine alltägliche Umgebung.

Das menschliche Gehirn ist daher eingerichtet auf


Sind diese Bedingungen nicht gegeben, dann versagt das Vorstellungsvermögen des Menschen. Er vermag nicht mehr intuitiv zu urteilen, muss vielmehr die Hilfsmittel der Mathematik zur Beschreibung und Analyse zu Hilfe nehmen.

Gewisse Denkprozesse scheinen dem menschlichen Gehirn grundsätzlich verschlossen zu sein. Wir denken beispielsweise im Grunde immer „monokausal“, suchen immer nach der einen Ursache, dem einen Schuldigen, wo es eigentlich um Regelkreise oder gar komplexe Netzwerke geht. Beispiele dafür sind Eheprobleme ebenso wie große Wirtschaftskrisen.

In diesem Kapitel werden einige Gebiete beispielhaft angerissen, wo das menschliche Gehirn regelmäßig an die Grenzen seines Vorstellungsvermögens stößt.  Der Experte wird auf seinem Fachgebiet vieles als vertraut empfinden was dem Außenstehenden gänzlich fremd ist. Der Autor wird stets die ihm einzig angemessene gedankliche Position des Laien einnehmen. Eine tiefschürfende wissenschaftliche Durchdringung ist nicht beabsichtigt und erst recht nicht der ohnehin aussichtslose Versuch im Leser doch noch eine Vorstellung hervorzurufen.

Man wird bemerken dass die unvorstellbar großen Zahlen der Astronomie hier nicht behandelt werden; dazu wird auf das Kapitel „Die Stellung des Menschen in der Welt“ verwiesen.

Bewusst ausgeklammert sind klassische Paradoxien an denen das Gehirn zu versagen scheint – sie sind so aufgebaut das ihre innere Logik eine Lösung unmöglich macht.

Nicht behandelt werden wissenschaftliche Theorien deren Gegenstand und Komplexität so weit vom Alltagsleben entfernt sind dass es dazu gar keine Alltagsvorstellungen gibt, mithin kein Konflikt entstehen kann (zum Beispiel Elementarteilchenphysik, Supersymmetrie, Higgs-Feld, Superstringtheorien....).  Zudem werden nur in der Praxis bewährte und experimentell abgesicherte Theorien betrachtet. Darüber hinaus bleibt die Wahl der Themen eine Sache des persönlichen Geschmacks  - oder der persönlichen Denkprobleme   ;-)  .
 
 

Im einzelnen werden behandelt:

1  Zahlenspiele

Arithmetisches und geometrisches Wachstum
Fülle und Leere ( Der Aufbau fester Körper aus Atomen)
Zahlen und Zählen
Wahrscheinlichkeit - Lottospielen
Wahrscheinlichkeit - Chancen  und Risiken
Wahrscheinlichkeit - Das Ziegenproblem
2  Einstein’s Relativitätstheorien
Newtons Weltbild
Die Lichtgeschwindigkeit
Die spezielle Relativitätstheorie
Die Allgemeine Relativitätstheorie
3  Quantenphysik
Teilchen oder Welle
Kausalität und Wahrscheinlichkeit
Die Entstehung der Quantentheorie
Der Doppelspaltversuch
Schrödingers Katzenparadoxon
Das EPR-Paradoxon
Erfolge und Alternativen
Zitate


4  Deterministisches Chaos und Fraktale

Deterministisches Chaos
Fraktale
5  Schlussbemerkung

Verwendete und empfohlenen Literatur


 

1 Zahlenspiele


 

Arithmetisches und geometrisches Wachstum

Aus unserem alltäglichen Leben kennen wir (fast) nur jene Art des Wachsens einer Größe die als „arithmetisch“ bezeichnet wird.   Arithmetisches Wachstum bedeutet: Die fragliche Größe nimmt je Zeiteinheit um einen bestimmten Betrag zu, einerlei welcher Wert schon erreicht ist. Kinder und Bäume wachsen in etwa so, bis sie eine natürliche Grenze erreichen.

Für solches Wachsen haben wir ein Gefühl, wir können es einschätzen. Man frage jemanden: “Wenn du seit Christi Geburt jedes Jahr einen Cent gespart hättest – wärst du jetzt reich?“ – und der Befragte wird spontan lachen: „Mit einem Cent? Gewiss nicht!“

Fragen Sie aber: “Hättest du bei Christi Geburt 1 Cent auf die Bank gelegt und immer  nur überaus ärmliche 2% Zinsen bekommen – wärst du jetzt reich?“ – siehe da, schon versagt unser Gefühl. Wir müssen den Taschenrechner zücken. Und der sagt:
 

0,01 €  x 1,022009 = 1895 Billionen Euro!


Onkel Dagobert müsste vor Neid erblassen.

Oder ein anderes Beispiel. Stellen Sie sich einen Bogen gewöhnlichen 100g-Papiers (Dicke 0,1 mm) vor. Diesen Bogen falten Sie einmal, dann noch einmal, dann noch einmal .... Klar, das Gebilde in Ihrer Hand wird dicker und immer schwerer zu falten. Aber wenn Sie es könnten, wie dick wäre das Bündel nach 50mal Falten? Vielleicht gar so hoch wie der Eiffelturm?!

Ihr Taschenrechner sagt es Ihnen:

                                    112 Millionen km,

 ein Gutteil des Abstandes der Erde von der Sonne (150 Millionen km).

Solche Wachstumsprozesse heißen „geometrisch“. Sie ereignen sich dann wenn der Zuwachs in einer Zeitperiode dem bereits erreichten Wert proportional ist. Bakterien in einer Petrischale vermehren sich in dieser Art solange die Nährlösung ausreicht. Oder Meerschweinchen wenn sie gut gefüttert werden und Platz haben ... . Sie selbst können es ja auch einmal mit ein paar Pflänzchen Entengrütze in Ihrem Gartenteich versuchen ..... (auf Ihr eigenes Risiko - der Autor erinnert sich mit Grausen).

Falls Sie die Beispiele für akademische Spielerei halten: macht nichts. Aber denken Sie an die Gesetze des geometrischen Wachstums wenn Ihnen ein Politiker fortan Wachstum der Wirtschaft um mehrere Prozent pro Jahr verspricht!


 

Die Fülle und die Leere.

Wir sind im täglichen Leben von festen Körpern umgeben. Wie fest sie sind, das kommt uns schmerzlich zu Bewusstsein wenn wir uns an der Tischkante stoßen. In unserer Vorstellung sind die Gegenstände durch und durch massive Körper – der Gedanke sie könnten vornehmlich aus leerem Raum bestehen, kommt uns gewiss nicht. Und doch ist es so.

Atome sind nach unseren alltäglichen Maßstäben winzig klein. Der Durchmesser eines Atoms liegt in Größenordnung eines 10tel nm (nm = „Nanometer“ ;  1 Nanometer ist 1x10-9 m -  in Worten: 1 Milliardstel Meter). Atome sind also viel kleiner als die Wellenlänge des Lichtes (380 – 780 nm) und daher mit Licht nicht zu fotografieren. Dennoch gibt es Methoden Atome sichtbar zu machen:

Rastertunnelmikroskop-Aufnahme einer Goldoberfläche (Wikipedia/Freenet Lexikon)

Atome bestehen aus einer „Hülle“ und einem „Kern“. Die Hülle ist eine diffuse, nicht scharf begrenzte Region, gekennzeichnet durch eine Wahrscheinlichkeitsverteilung für den Aufenthalt der Elektronen (die man schon lange nicht mehr als die kleinen Kügelchen des Bohr’schen Atommodells sieht). Als Atomdurchmesser gibt man daher den typischen Abstand zweier Atomkerne in einer Verbindung an. Fast die ganze Masse ist im winzigen Kern konzentriert, der aus Protonen und Neutronen  besteht, zusammengehalten durch die „Starke Kernkraft“. (Mehr dazu im Abschnitt "Aufbau der Materie")

Nehmen wir als Beispiel Kohlenstoff . Wir finden bei Wikipedia resp. schätzen mit einer dort gegebenen Formel ab:

Atomdurchmesser:           0,14 nm   (1nm= 1 nanometer  = 1x10-9 m)
Atomkerndurchmesser:    2,5 fm      (1fm = 1 femtometer = 1x10–15 m)

Stellen wir uns einen kleinen Würfel aus Grafit vor, Kantenlänge 1 cm. Mit der „Avogadro’schen Zahl“ (6,022 x 1023 Atome pro A Gramm Stoff, wobei A das Atomgewicht ist, bei Kohlenstoff 12) und der Dichte von 2,25 g/cm³ für Grafit erhalten wir:

                    Atome im Würfel:          1,13 x 1023  (113 000 000 000 000 000 000 000)

Auf einer 1-cm- Kante des Würfels sitzen dann 48 Millionen Atome, ihr Abstand errechnet sich zu circa 0,2 nm, das entspricht gut dem Atomdurchmesser: Die Atome sind ziemlich dicht gepackt.

Jetzt stellen wir uns vor dass alle Atome des Würfels als Kette auf eine lange Schnur aufgezogen werden, und verlängern mit dieser Kette die Kante des Würfels. Wie lang wird die Kette? Die Länge errechnet sich zu

                           230 Millionen km.

Das ist zweimal die große Bahnachse des Pluto; so viele Atome sind in den 1cm- Würfel Grafit „hineingestopft“!

Also muss der kleine Würfel doch dicht gefüllt sein? Ja, mit Atomen schon. Und da die Atomhülle, so diffus sie auch sein mag, für die Interaktion mit anderen Atomen entscheidend ist, wirkt der Grafitwürfel für die Atomanhäufung  eines menschlichen Fingers hart und undurchdringlich.

Man kann die Sache aber auch anders sehen. Fast die ganze Masse steckt in den Atomkernen. Die jedoch sind viel kleiner als die Atome selber. Bei einem Durchmes-ser von 2,5 fm ergibt sich eine Projektionsfläche aller Atomkerne im Würfel zusammen von 0,022 cm² . Man könnte also mit einer (virtuellen) Nadel durch den Würfel durchstechen und würde nur mit näherungsweise 2%  Wahrscheinlichkeit einen Kern treffen.

Noch drastischer ist das Ergebnis wenn wir nach dem Volumenanteil der Kerne an dem Würfel fragen. Es ergibt sich ein Anteil der Kerne von 0,9 x10-15 cm³ an den       1 cm³ des Würfels. Nicht einmal ein Tausendstel  eines Billionstels des Würfelvolumens enthält praktisch die ganze Masse.

Im wesentlichen ist der Grafit-Würfel also - leer!

Und der Mensch? Könnte man alle Atomkerne des menschlichen Körpers eng zusammenpacken, ergäbe sich ein winziges Stäubchen von Größenordnung 1/1000 mm Durchmesser .....


 

Zahlen und Zählen

Ein Gefühl für die Größe einer Zahl bekommt man am besten durch Zählen – so lan-ge es denn noch möglich ist. Wenn unserer Politiker sich angewöhnt haben mit leich-ter Hand viele Milliarden Euro zu jonglieren, vielleicht sollten sie mal bis zu einer Mil-liarde zählen? Politiker haben wichtigeres zu tun? Hmmm...

Stellen wir uns einen Milliardär vor. Dagobert Duck junior, erfolgreicher Spekulant eines großen Hedgefonds, besitzt genau eine Milliarde Euro. Weil er wie sein Vorfahr so gerne in Geld badet, hat er sich seine Milliarde in einzelnen Euro-Münzen auszahlen lassen. Die liegen jetzt in seinem Geldsilo. Aber sind es wirklich eine Milliarde Münzen? Oder hat die Bank sich – äh –verzählt? Dagobert Duck Junior beschließt nachzuzählen. Ein zweites Silo wird gebaut. Dagobert beginnt zu zählen. Jede Sekunde wirft er eine Münze aus dem ersten Silo in den zweiten. Wie lange wird er brauchen um seine Milliarde nachzuzählen? Wenn er ohne Pause und ohne Nachtruhe immer nur zählt?

Dann braucht er fast 32 Jahre.

Wenn er sich nicht verzählt und neu anfangen muss!

Nun gut, 1 Milliarde Euro-Münzen kann man gerade noch zählen. Wie ist es mit Atomen? Sie möchten Atome zählen? Stimmt die Angabe über die Zahl der Atome in einem 1-cm-Würfel Grafit?

Nehmen Sie sich nicht zu viel vor! Lieber einen kleineren Würfel! Einen Würfel von 0,1 mm Kantenlänge, einen Krümel den man gerade noch sehen kann mit bloßem Auge. Da müssten 1,13 x 1017  Atome drin sein.

Sie zählen wie Dagobert Duck junior. Tagaus, tagein, Monate, Jahre. Ohne Pause, ohne Nachtruhe. Jede Sekunde legen Sie eines der Atome zur Seite. Wie lange brauchen Sie?

Sie brauchen 3,6 Milliarden Jahre.

Wenn Sie bald fertig werden wollen mit dem Zählen, dann hätten Sie anfangen müssen als die ersten Bakterien auf der Erde auftraten.


 

Wahrscheinlichkeiten


 

Lottospielen

Die Wahrscheinlichkeit beim deutschen Zahlenlotto 6 Richtige aus 49 Zahlen zu tippen liegt bei
1/13 983 816 .

Ist das viel oder wenig?

„Nackte Zahlen“ sind unanschaulich. Sehen können wir nur bis drei. Das klingt seltsam, aber wenn wir ausgestreute Bonbons zählen wollen, greifen wir immer nach Dreier-Gruppen. „Fünf“ ist uns auch noch vertraut – beim Führen von Strichlisten bilden wir Fünferpäckchen. Aber wie weit darüber hinaus? 13 Millionen können wir uns gewiss nicht vorstellen.

Wir können uns die Zahl aber veranschaulichen. Für Wege haben wir ja ein gutes Vorstellungsvermögen. Also wandeln wir die „nackte Zahl“ in einen Weg um:

Stellen Sie sich ein Straße vor. An der Seite steht alle Meter ein Lostopf. Sie dürfen nur in einen einzigen Topf hineingreifen. In einem Lostopf liegt die Mitteilung: Sie haben 6 Richtige! Im ersten Topf, im letzten, irgendwo dazwischen?

Wie lang ist die Straße mit den 13,8 Millionen Lostöpfen? An jedem km Straße stehen 1000 Lostöpfe. Die Straße ist also 13 800 km lang. Welche Städte könnte sie verbinden?

In 2006 fand eine Langstreckenfahrt statt, PR-Maßnahme einer Automobilfabrik. Die Strecke wird mit 13 600 km angegeben. Die Fahrt führte von Paris nach Peking!

Können Sie sich die lange Reihe der Lostöpfe zwischen Paris und Peking vorstellen? Nur ein einziger birgt den Hauptgewinn!

Natürlich können Sie Ihre Chancen verbessern wenn Sie mehrere – viele – Tips abgeben. Wenn Sie 13 983 816 verschiedene Tips abgeben, haben Sie garantiert 6 Richtige ......  ;-)


 

Chancen und Risiken

Im August 2009 hatte sich im italienischen SuperEnalotto ( 6 aus 90) ein Jackpot von zuletzt 147  Millionen Euro angesammelt. Das löste in Italien wie in den Nachbarländern ein wahnhaftes Rennen aus. Riesige Summen wurden eingesetzt. Viele Deutsche fuhren mit dem Auto nach Italien um ihren Wettschein abgeben zu können. Eine bekannte deutsche Boulevardzeitung füllte Sonderflüge mit  Wettwilligen.

Machte sich jemand Gedanken über Chancen und Risiken?

Wieso überhaupt Risiken?

Nehmen wir den Fall dass jemand mit dem Auto von Deutschland nach Italien fährt. Nehmen wir an dass er in Süddeutschland wohnt und nur 100 km (einfache Strecke) fahren muss.

Die Chance auf einen richtigen Tip beim SuperEnalotto liegt laut Wikipedia bei
1: 622 614 630. In Worten : Eins zu 622 Millionen.

Und die Risiken? 2007 gab es in Deutschland im Personenverkehr 2625 Tote bei 869 Milliarden Personen-km, also 3,02 Tote pro Milliarde Personen-km.

Für die 200 km Personen-km zur Wettstelle in Italien und zurück ist also das Risiko eines tödlichen Unfalls
200 x 3,02 x 10-9 = 6,04x10-7= 1 / 1 655 000.

In Worten: Eins zu 1,65 Millionen.

Das Risiko bei der Fahrt zum Wettbüro zu Tode zu kommen ist also rund 400 mal größer als die Chance für den Hauptgewinn! Schreckt das jemand von der Fahrt ab? Wohl kaum. „Es fahren ja gar keine Millionen Deutsche nach Italien – warum soll es gerade mich treffen?!   Damit das Verhältnis besser wird werde ich ja viele Tipreihen abgeben ...“

Das Risiko bei einem Verkehrsunfall verletzt zu werden war  278 Verletzte pro Milliarde Personen-km in 2007.  Das führt auf ein Risiko von 1 / 17 985 für die Fahrt zur Wettstelle in Italien. Damit ist das Verletzungsrisiko rund 34 500 mal höher als die Chance den Jackpot zu knacken .....

Wird das jemand von der Fahrt nach Italien abhalten? Wohl kaum. Lottogewinn  und Tod sind seltene Ereignisse. Offensichtlich geht uns das Gefühl für sinnvolle Risiken ab wenn der lockende Gewinn sehr hoch ist.  Wie hoch muss wohl der Gewinn sein dass man Leib und Leben riskiert?


 

Das Ziegenproblem

Ob man das Ziegenproblem als Herausforderung für das Beurteilen von Wahrscheinlichkeiten auffassen will oder „nur“ als Denksportaufgabe mag offen bleiben. In 1991  hat das Problem für weltweite Diskussionen gesorgt. Gero von Randow schildert das sehr schön in seinem lesenswerten Buch über Wahrscheinlichkeit und Statistik  „Das Ziegenproblem“. Der Autor dieser Zeilen selbst erinnert sich gut daran wie die Arbeit in seiner Abteilung zum Stillstand kam und alle hitzig diskutierten.  Und er gesteht: Er hat damals auf die falsche Lösung gesetzt.

Hier ist das „Problem“:
 

In einer Rateshow im Fernsehen wird der Kandidat mit drei verschlossenen Türen konfrontiert. Der Moderator erklärt ihm dass hinter einer der Türen als Gewinn ein Auto steht, hinter den beiden anderen Türen verbirgt sich jeweils eine Ziege.

Der Kandidat wird aufgefordert eine Tür zu wählen. Da es nicht das kleinste Indiz gibt und der Moderator ihm auch nicht mit einen versteckten Hinweis hilft, wählt der Kandidat aufs Geradewohl eine der Türen. Er ist sich im Klaren darüber dass  seine Chance die richtige Tür zu erwischen genau 1/3 ist.

Die gewählte Tür bleibt verschlossen. Aber der Moderator sagt: „Jetzt zeige ich Ihnen einmal etwas!“ und er öffnet zielsicher eine der beiden anderen Türen – meckernd kommt eine Ziege hervor!

„Wollen Sie bei Ihrer Wahl bleiben, oder wollen Sie auf die andere Tür wechseln?“ fragt der Moderator den Kandidaten.
 

Und genau das ist die Frage: Kann der Kandidat durch Wechseln seine Gewinnchancen erhöhen?

Nein, Sie wollen doch gleich lesen? Na gut.

Am einfachsten und ganz ohne Formalismus findet man die Antwort indem man sich ein Experiment vorstellt. Es geht um Wahrscheinlichkeiten, also um das Ergebnis das man bei einer großen Zahl von Versuchen erwarten darf. Wir spielen dazu das Spiel in unserer Vorstellung hundert oder tausend mal. Zwei Kandidaten spielen gegeneinander: der eine bleibt immer bei seiner ersten Wahl, der zweite wechselt immer. In  1/3 aller Fälle steht das Auto hinter der zuerst gewählten Tür; die Frage des Moderators kann daran nichts ändern.  In 1/3 aller  Fälle wird also der beharrliche Spieler gewinnen. Und in den anderen 2/3 der Fälle gewinnt natürlich der Wechsler!

Verändert denn der Moderator durch Handlung und Frage etwa hinter welcher Tür das Auto steht? Natürlich nicht. Aber die Handlung des Moderators – gezieltes Öffnen einer Tür mit einer Ziege dahinter– ist eine zusätzliche Information. Sie hilft beim Erraten der richtigen Tür.

Formal wird das klar wenn man sich das Diagramm  der Möglichkeiten anschaut (wir nennen die Tür mit dem Auto willkürlich A, die Ziegentüren B und C):

Der Kandidat gewinnt durch Wechseln also immer dann wenn seine erste Wahl falsch war, und dafür war die Wahrscheinlichkeit zwei Drittel! Man kann auch sagen: Der Moderator hat dem Wechsler  geholfen, weil er die zweite Niete durch das Öffnen einer Ziegentür eliminiert hat.

Wechseln verdoppelt die Gewinnaussicht!
 


 

2  Die Relativitätstheorien

Gemeinhin gelten die Einstein’schen Relativitätstheorien als Inbegriff des Abgehobenen, Unverständlichen. In der Tat bedeuteten sie einen Umsturz im Weltbild der Physik das seit Newton unverändert bestanden hatte. Ihre Aussagen sind in vielen Punkten mit unserer Alltagserfahrung nicht verträglich und dem Vorstellungsvermögen des Gehirns nicht zugänglich. Intuitiv können wir sie nicht erfassen. Wie schwierig es offensichtlich ist die Aussagen der Theorien zu akzeptieren zeigten die
24 200 Seiten die Google findet wenn man den Suchbegriff „Einstein widerlegt“ eingibt. Und Stephen Hawkins hält fest: „Noch immer bekomme ich zwei bis drei Briefe pro Woche, in denen ich darüber aufgeklärt werde, dass sich Einstein geirrt hat.“ (Hawkins: Das Universum in der Nussschale). Gleichwohl kann es keinen Zweifel geben dass diese Theorien ein gutes Modell der Wirklichkeit geben.

Es kann nicht Ziel dieses Beitrages sein die Theorien zu erklären; dazu ist der Verfasser nicht qualifiziert. Es gibt auch keinen Mangel an Literatur. Besonders zur  „Speziellen Relativitätstheorie“ finden sich viele gute Texte, welche für den Interessierten die Grundlagen herausarbeiten und die wesentlichen Aussagen, ganz im Geiste Einsteins, mit Gedankenversuchen oder mit Animationen anschaulich und logisch entwickeln. Die Mathematik der „Speziellen Relativitätstheorie“ geht über Schulmathematik nicht hinaus.  Wir werden nur einen derartigen Gedankenversuch vorführen, andere Aussagen ohne jede Ableitung wiedergeben.

Die „Allgemeine Relativitätstheorie“ hingegen erfordert einen sehr viel aufwendigeren mathematischen Apparat. Wir werden nur das Prinzip umreißen und eine besonders wichtige Aussage hinweisen die eine Bedeutung für unser Alltagsleben gewonnen hat von der Einstein bestimmt nicht geträumt hat.

Galilei’sche Relativität
Bereits Galileo Galilei formulierte ein Prinzip der Relativität: Eine gleichförmig gerad-linige Bewegung lässt sich nur durch Beobachtung externer Objekte feststellen. Es gibt kein allgemeines bevorzugtes Bezugssystem.

Das Weltbild Newtons
 
 

Die Welt Isaac Newtons (1642-1726) war eine unveränderliche Bühne für alles Geschehen. Man kann sie beschreiben durch ein rechtwinkliges Koordinatensystem das sich bis ins Unendliche erstreckt. Es gibt keinen bevorzugten Ausgangspunkt, Wechsel zwischen Bezugssystemen ist  ohne weiteres möglich.  An jedem Punkt der Welt kann man sich eine Uhr vorstellen, und alle Uhren sind synchronisiert, sie ticken gleichmäßig eine universelle Zeit. In diesem Bezugssystem bewegen sich alle Körper geradlinig solange keine äußeren Kräfte auf sie wirken ( „Principia Mathematica“ 1687,
1. Newton’sches Gesetz).  Tatsächlich ist dieses  „Inertialsystem“ eine idealisierte Beschreibung der Welt, denn alle massebehafteten Körper wirken aufeinander durch eine „Gravitationskraft“ (deren genauere Natur Newton offen lassen musste). Diese Gravitationskraft ist den „schweren Massen“ der beteiligten Körper proportional, sie nimmt mit dem Quadrat der Entfernung ab, wird also niemals gänzlich zu Null (Newton’sches Gravitationsgesetz). Einer Änderung ihres Bewegungszustandes durch eine äußere Kraft widersetzen sich die Körper mit ihrer „trägen Masse“ (2. Newton’sches Gesetz: „Beschleunigung ist gleich Kraft dividiert durch Masse“). Schwere und träge Masse erweisen sich als identisch, darum fallen alle Körper gleich schnell, wie schon Galilei erkannte, solange nicht Luftwiderstand oder andere Kräfte sich einmischen. Die Geschwindigkeit eines  Körpers ist in dieser Welt grundsätzlich unbegrenzt.

 

Die Lichtgeschwindigkeit

In unserer Alltagswelt können Geschwindigkeiten beliebig addiert werden. Wenn das Laufband auf dem Flughafen mit 6 km/h läuft und wir mit 5km/h darauf marschieren, dann bewegen wir uns mit 11km/h an den Warteräumen vorbei und müssen am Ende des Bandes aufpassen dass wir mit dieser hohen Geschwindigkeit nicht ins Stolpern kommen.

--
Olaf Römer - Christaan Huygens - Clerk Maxwell

Dass die Geschwindigkeit des Lichtes endlich ist wurde 1670 von Olaf Christensen Römer durch astronomische Beobachtungen  nachgewiesen; auf Basis seiner Messungen bestimmte Christiaan Huygens erstmals 1678 einen numerischen Wert. Die  Messungen wurden sukzessive verfeinert, heute wird die Vakuumlichtgeschwindigkeit mit 299792,458 km/Sekunde angegeben. James Clerk Maxwell errechnete 1864 für die von seinen Gleichungen vorhergesagten elektromagnetischen Wellen innerhalb der damaligen Genauigkeit eben diese Geschwindigkeit und schloss daraus dass Licht  eine elektromagnetische Welle sein musste.

Man ging davon aus dass eine solche Welle, ähnlich wie eine Schallwelle,  ein Trägermedium benötige, und postulierte dafür die Existenz eines „Äthers“. Die von Maxwell gefundene  Geschwindigkeit wurde als Fortpflanzungsgeschwindigkeit der Welle im Äther interpretiert. Wenn diese Hypothese stimmte, dann musste die Geschwindigkeit des Lichtes im Äther  und die Geschwindigkeit eines Beobachters der dem Licht im Äther entgegenkam sich zu einer höheren Geschwindigkeit addieren, und reduzieren wenn der Beobachter vor dem Licht davonlief.

--.
Albert Michelson - Edward Morley - Hendrik Antoon Lorentz

Ende des 19. Jahrhunderts war die Messtechnik in der Lage diesen Effekt zu erfassen (Messung von Sternlicht an gegenüberliegenden Punkten der Erdbahn; 1887 Versuch von Albert Michelson und Edward Morley; im 20 Jahrhundert auch Messung der Lichtgeschwindigkeit von einander umkreisenden Doppelsternen nach einem Vorschlag von Willem de Sitter).
Die Ergebnisse widersprachen den festen Erwartungen: Die Vakuum-Geschwindigkeit des Lichtes war absolut konstant, einerlei unter welchen Bedingungen man sie maß, einerlei in welchem Bewegungszustand Quelle oder Beobachter sich befanden. Das ist mit  Alltagsverstand nicht zu begreifen.

Die Wissenschaft unternahm verzweifelte Deutungsbemühungen. Hendrik Antoon Lorentz zum Beispiel  schlug 1895 vor, ein sich gegen den Äther bewegender Körper werde durch eine Art Stauwirkung in seiner Länge derart verkürzt und der Gang seiner Uhren verlangsamt, so dass die höhere Geschwindigkeit  kompensiert und wieder nur die gewohnte Lichtgeschwindigkeit gemessen werde. Die Beziehungen die er dafür angab wurden später  als „Lorenz-Transformationen“ bekannt; sie werden in der  Speziellen Relativitätstheorie bestätigt.


 

Die Spezielle Relativitätstheorie

1905 legte Albert Einstein, damals Beamter am Schweizer Patentamt, mit „Zur Elektrodynamik bewegter Körper“ einen radikal neuen Ansatz vor, noch im gleichen Jahr ergänzt mit  „Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig?“  Das Gedankengebäude wurde als „Spezielle Relativitätstheorie“ bekannt. Die Ätherhypothese wurde damit endgültig überflüssig.

-

Einstein ging von zwei „Postulaten“ aus (Grundannahmen die nicht weiter hinterfragt werden):

1. Relativitätsprinzip
Die physikalischen Gesetze haben in allen „Inertialsystemen“  die selbe Form, es gibt kein ausgezeichnetes System. Alle Geschwindigkeiten sind Relativgeschwindigkeiten bezogen auf ein Inertialsystem.
2. Lichtgeschwindigkeit unveränderlich
Die Vakuum-Lichtgeschwindigkeit c hat in jedem Inertialsystem exakt und unveränderlich den selben Wert, gänzlich unabhängig vom Bewegungszustand der Lichtquelle oder des Beobachters. (Andernfalls wäre der leere Raum ein bevorzugtes Bezugssystem. Spezialfall der Galilei’schen Relativität!)

Immer wieder fragte Einstein  danach wie sich für einen in einem Inertialsystem ruhenden Beobachter das Geschehen in einem anderen Inertialsystem darstellt. Inertialsysteme sind Bezugssysteme in denen jeder Körper, auf den keine äußere Kraft wirkt, sich geradlinig und gleichförmig bewegt. Damit ist die Wirkung von Gravitation ausgeschlossen, und eben deshalb spricht man von der „Speziellen Relativitätstheorie“ (Einstein hätte den Namen „Invarianztheorie“ bevorzugt als Hinweis auf die unveränderliche Lichtgeschwindigkeit.)

Aus den beiden Prinzipien leitete Einstein durch Gedankenversuche und  geometrische Betrachtungen Gesetze ab die sich als Aussagen über die wirkliche Welt erwiesen und später vielfach experimentell belegt wurden.

Dafür dass er die Konstanz der Lichtgeschwindigkeit rückhaltlos akzeptierte, musste Einstein das starre und objektive System Newtons von Raum und universeller Zeit aufgeben. Raum und Zeit sind nicht mehr der unveränderliche Rahmen für das Geschehen in der Welt, die Zeit existiert nicht losgelöst und unabhängig vom Raum, sondern beides sind zu einer neuen Entität verbunden: die „Raumzeit“ . Es treten Effekte auf die in der Newton’schen Physik unmöglich und in unserem an der Alltagswelt ausgerichteten Gehirn unvorstellbar sind.
 
 

Wesentliche Effekte sind:

Bewegte Uhren gehen langsamer (Zeitdilatation)

Aus der Sicht eines als unbewegt angenommenen Beobachters gehen alle Uhren eines bewegten Objektes oder Systems langsamer als eine unbewegte Uhr, und zwar gehen sie umso langsamer je näher das Objekt der Lichtgeschwindigkeit kommt.

Die Größe dieses Effektes lässt sich durch einen einfachen Gedankenversuch ableiten:
Gegeben seien zwei (hypothetische) Lichtuhren. Zwischen zwei Spiegeln bewegt sich ein Photon (ein Lichtpartikel) hin und her, selbstverständlich mit der Lichtgeschwindigkeit c. Wir messen die Zeit indem wir zählen wie oft das Photon einen Zyklus durchläuft.

Die Uhr im System des Beobachters ist per definitionem unbewegt. Die andere Uhr bewege sich mit der Geschwindigkeit v. Aus Sicht des Beobachters bewegt sich das Photon der anderen Uhr nicht einfach auf und ab. Da sich die Uhr mit ihren Spiegeln weiterbewegt muss das Photon einem Zick-zack-Kurs  folgen wenn es die Spiegel treffen will. Das Photon der bewegten Uhr muss in dieser Sicht einen längeren Weg zurücklegen. In der Newton’schen Welt wird der längere Weg durch eine höhere Geschwindigkeit kompensiert die sich aus der Vektoraddition von v und c ergibt. In der Einstein’schen Welt kann die Geschwindigkeit des Photons auch auf der Zick-zack-Bahn  nur die Lichtgeschwindigkeit c sein. Das Photon braucht also längere Zeit für die Vollendung seines Zyklus – die Uhr tickt in größeren Abständen – die bewegte Uhr geht aus Sicht des ruhenden Beobachters langsamer!

Aus der Geometrie der Figur lässt sich für die Zeit zwischen zwei Ticks die Formel herleiten:

DZeit zw. 2 T. im bewegt. System = DZeit zw. 2 T. im ruhend. System / (1-v2/c2)1/2

Zeigen die Uhren als Zeit die Zahl der Ticks, so ergibt sich der Kehrwert:

Zeit im bewegten System = Zeit im ruhenden System x (1-v2/c2)1/2

(Achtung: Bezeichnungen sind in der in der Literatur nicht einheitlich!!! )

Man ist versucht in dieser „Zeitdilatation“ (Zeitdehnung) so etwas wie eine optische Täuschung zu sehen, zumal die Situation ja symmetrisch ist. Man kann die Betrachtung umdrehen, das vorher bewegte System als stationäre und das vorher stationäre System als bewegtes auffassen kann; dann vergeht die Zeit in diesem  langsamer.

Tatsächlich ist der Effekt aber vielfach durch das Experiment belegt. Dabei wird aber immer in irgendeiner Form die Symmetrie durchbrochen, eines der beiden Systeme erweist sich als dasjenige das tatsächlich in Ruhe war, das andere dagegen hat Beschleunigungen (Geschwindigkeitsänderungen) erfahren:
 

Zwillingsparadoxon

Wohl die verblüffendste Konsequenz der Zeitdilatation zeigt sich im Zwillingsparadox. Die Geschichte tritt in vielerlei Form auf; im Grundsatz läuft sie immer so:

Einer der beiden Zwillinge bleibt zuhause, der andere unternimmt eine Reise ins Universum mit einem Raumschiff das fast Lichtgeschwindigkeit erreicht, kehrt um und kommt dann zu seinem Zwilling zurück. Verblüffung beim Wiedersehen: Für den reisenden Zwilling sind nur wenige Jahre vergangen, sein zuhause gebliebener Zwilling aber ist ein uralter Greis.

Nicht nur eine technische Uhr, auch die „biologische Uhr“ (man erinnere sich an den poetischen Vergleich des Herzens mit einer Uhr) geht im schnell sich bewegenden Raumschiff langsamer als auf dem Heimatplaneten, der Reisende altert langsamer. Das wird beim Uhrenvergleich bei der Heimkehr deutlich. Das Paradoxon beruht auf der Unsymmetrie der beiden Lebensläufe, entscheidend ist der Richtungsumkehr des Raumschiffes. Hier kann es keinen Zweifel geben wer in Bewegung war und wer in Ruhe.


Zwillingsparadox
(Montage HG Klug)

Die Montage mit dem jungen und dem alten Albert Einstein könnte den Fall illustrieren, dass der Raumfahrer mit 99% der Lichtgeschwindigkeit zu einem 30 Lichtjahre entfernten Stern reist und zurückkehrt. Für ihn selbst hat die Reise nur 8 Jahre gedauert, aber er wird seinen auf der Erde zurückgebliebenen Zwillingsbruder um 61 Jahre gealtert vorfinden. Das Szenario ist jedoch weit jenseits des technisch Machbaren: Um auf 99% der Lichtgeschwindigkeit zu kommen, müsste dem Raumschiff 6 mal mehr Energie zugeführt werden als seiner Ruhemasse entspricht. (Elementarteilchen kann man bis sehr nahe an die Lichtgeschwindigkeit beschleunigen; der Rekord für ein Proton lag 2005  nach J.R. Gott bei 99,999946 % der Lichtgeschwindigkeit, erreicht im Beschleunigerzentrum Fermilab).
Eine Zeitreise a la Zwillingsparadox spielt eine wichtige Rolle in der SF-Erzählung "Chononauten".
 

Gleichzeitigkeit ist vom Beobachter abhängig
Zwei Ereignisse, die in einem Inertialsystem gleichzeitig sind, können in einem anderen zu verschiedenen Zeiten stattfinden. Das Konzept einer universellen Zeit ist hinfällig geworden. Die Folge kausal verknüpfter Ereignisse aber bleibt für alle Beobachter erhalten.
 

Geschwindigkeiten „addieren“ sich so dass die Lichtgeschwindigkeit nie überschritten werden kann.  (Relativistische Geschwindigkeits“addition“)

Für hohe Geschwindigkeiten  gilt nicht die einfache Addition der Newton’schen Welt und des Alltags:
w = u + v      ist falsch !

sondern
                     w = (u + v ) / (1 + uv/c2)

Beispiel: Wenn ein Starwars-Raumschiff , mit 75% der Lichtgeschwindigkeit relativ zu einem feindlichen Planeten heranjagend,  eine Rakete abschießt mit 75% der Lichtgeschwindigkeit relativ zu seinem Raketenwerfer, dann erreicht diese Rakete aus Sicht des angegriffenen Planeten „nur“ 96% der Lichtgeschwindigkeit.
 

„Bewegte Maßstäbe sind in Bewegungsrichtung verkürzt“
 ("Lorentzkontraktion")

Wenn ein Objekt sich an einem ruhenden Beobachter mit der Geschwindigkeit v vorbeibewegt, erscheint es in der Länge verkürzt um den Faktor

L = LRuhe . (1 - v2/c2)1/2

Die Verkürzung hat nichts mit mechanischen Vorgängen zu tun wie Urheber und Namensgeber Lorentz annahm, sie ist eine Aussage über  die Geometrie der Welt.
 

Masse und Energie

Über die geometrisch orientierten Untersuchungen hinaus ging Einstein mit seiner Arbeit „Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig?“

Mit Annäherung an die Lichtgeschwindigkeit nimmt die Masse eines Körpers stetig zu, er widersetzt sich mehr und mehr einer weiteren Geschwindigkeitssteigerung, so dass immer mehr  und mehr Energie zugeführt werden muss; die Lichtgeschwindigkeit zu erreichen ist unmöglich.

Der Effekt ist den Atomphysikern bestens vertraut die in Beschleunigern  Elementarteilchen möglichst nahe an die Lichtgeschwindigkeit bringen wollen und dafür außerordentliche Energie zuführen müssen.

Allein auf Grund seiner Ruhemasse besitzt auch ein ruhender Körper bereits Energie:

E = m . c2

Wie viel Energie in der Ruhemasse steckt wurde leider zuerst durch die Atombombe demonstriert: Nur etwa 1g Materie wurde in der Bombe von Hiroshima in Energie umgesetzt. Ständig in großem Maßstab verifiziert wird diese wohl berühmteste Gleichung der Welt mit dem Betrieb von Atomkraftwerken.


 

Allgemeine Relativitätstheorie

Newtons Gravitationstheorie geht von einer unmittelbaren und augenblicklichen Wirkung der Gravitationskraft zwischen zwei Körpern aus. Welcher Art diese Kraft sei und wie sie übermittelt wird, darüber konnte er keine Aussage machen, er schrieb: „Gravity must be caused by an agent acting constantly according to certain laws, but wether this agent be material or immaterial, I have left to the consideration of my readers“ (zitiert nach Brian Greene). Die Spezielle Relativitätstheorie schließt die Einwirkung äußerer Kräfte, insbesondere der Gravitation aus. Einstein suchte viele Jahre vergeblich nach einem Weg diese Einschränkung zu beheben.

-
Hermann Minkowski

1908/1909 legte der Mathematiker Hermann Minkowski (1864-1909; in Zürich Universitätslehrer Einsteins, über den er sagte: "Er ist ein fauler Hund, sicherlich sehr intelligent aber von Mathematikkenntnissen überhaupt nicht belastet“) die konzeptionellen Grundlage: die Vorstellung eines mit geometrischen Begriffen zu beschreibenden, von einem Beobachter unabhängigen Raumzeitgefüges. Seine  Weg-Zeit-Diagramme sind eine wichtige Vereinfachung bei der Arbeit mit Einsteins Spezieller Relativitätstheorie, deren Verbreitung er mit seinem letzten Vortrag entscheidend förderte. Dort heißt es: „Von Stund an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken, und nur noch eine Union der beiden soll Selbständigkeit bewahren.“ Einstein stand dem geometrischen Raumzeit-Konzept zunächst skeptisch gegenüber, griff es dann doch auf.

-

Erst 1915 konnte Albert Einstein seine Allgemeine Relativitätstheorie vorlegen.

Seine entscheidende Ideen waren:

  • Gravitation und Beschleunigung als physikalisch gleichwertig anzusehen („Äquivalenzprinzip“ - Einstein: „Mein glücklichster Einfall“);
  • die Gravitation als Ausdruck einer Krümmung der Raumzeit zu interpretieren.

  •  

     
     
     
     
     
     
     
     
     
     
     
     
     
     
     

    Gekrümmte Räume können wir uns nicht vorstellen, gekrümmte Flächen hingegen sind uns vertraut:

    Euklidische Geometrie der Ebene                   -              Gekrümmte Fläche:  Kugeloberfläche

    Insbesondere die endliche aber nirgendwo begrenzte, in sich zurück gekrümmte Oberfläche einer Kugel ist uns selbstverständlich. Und wir wissen dass die Euklidische  Geometrie dort nicht gilt: Die Winkelsumme in einem Dreieck ist hier größer als 180°, ein Kreisumfang kleiner als pi x d.

    Analog gibt es geschlossene gekrümmte Räume, die man freilich weder sich vorstellen noch bildlich auf einer zweidimensionalen Fläche darstellen kann.

    -
    Bernhard Riemann  -  Marcel Grossmann

    Die Mathematik gekrümmter Räume war schon im 19. Jahrhundert von  Bernhard Riemann (1826-1866) entwickelt worden,  ohne jeden Gedanken an praktische Anwendung.    Mit Hilfe seines Freundes Marcel Grossmann erarbeitete sich Einstein dieses mathematische Instrument, und es gelang ihm die Gravitation zu geometrisieren.

    Die Krümmung des Raumes (genauer: der Raumzeit) wird durch Massen und Energie verursacht; die Krümmung des Raumes wiederum wirkt sich als Gravitation aus und bestimmt die Bahn von Massen und Energiepaketen (z.B. Photonen). Die von Materie und Energie verursachte Verzerrung des Raumzeitgefüges ist das Gravitationsfeld.
     
     


    Gummimembran - Analogie

    Gekrümmter Raum lässt sich nicht darstellen. Zum Zwecke einer gewissen Veranschaulichung durch Analogie wird auf das Bild einer Gummimembran zurückgegriffen: Eine schwere Kegelkugel, abgelegt auf eine Gummimembran, wird diese einbeulen (links). Eine Murmel wird um die Kugel herumlaufen wenn sie mit der richtigen Geschwindigkeit in passender Richtung gestartet wird (Planet läuft um Stern).

    Extreme Raumkrümmung wird durch ein Schwarzes Loch verursacht (rechts). In gebührendem Abstand kann ein Körper darum herumfliegen. Überschreitet er aber den sogenannten Schwarzschildradius, so wird er unweigerlich in das Schwarze Loch hineingezogen. Nicht einmal ein Lichtstrahl kann aus dem Schwarzen Loch entkommen. Supermassive Schwarze Löcher werden in den Zentren aller Galaxien vermutet.
    Der Flug um ein Schwarzes Loch ermöglicht die "Rückkehr des Astronauten" (SF-Erzählung).

    Nebenbei: Kennen Sie die Spendensammler nach dem Prinzip des Schwarzen Loches? Kinder sind fasziniert davon wie die Euros und Cents ihrer Eltern immer schneller herumjagen bis sie schließlich im Schlund verschwinden!

    Die neue Beschreibung der Schwerkraft besitzt gegenüber der Newton’schen eindeutige Vorteile:
     

  • Sie ist mit der speziellen Relativitätstheorie verträglich: Gravitation wirkt nicht mehr instantan (augenblicklich) sondern kann sich als Gravitationswelle im Raumzeitgefüge mit Lichtgeschwindigkeit ausbreiten;
  • Sie beschreibt besondere astronomische Situationen besser: sie gibt zum Beispiel den richtigen Zahlenwert für die Periheldrehung des Merkur (die große Achse seiner Bahnellipse dreht sich in 225 000 Jahren einmal um 360°, bildet so eine Rosette);
  • Sie sagt richtig die Ablenkung eines Lichtstrahles voraus der nahe an einer großen Masse vorbeistreicht (messbar bei einer Sonnenfinsternis; Erklärung für „Gravitationslinsen“/ “Einsteinringe“ in der Astronomie):
  • Sie sagt richtig voraus dass die Zeit in der Nähe großer Massen langsamer vergeht;
  • Sie sagt richtig voraus dass Photonen an Energie (Frequenz) gewinnen wenn sie sich auf eine Gravitationsquelle zu bewegen (1965 mit Gammastrahlen am Jefferson Lab der Harvard University nachgewiesen durch Robert Pound und Glen Rebka ; nach L. Randall)
  • Sie erlaubt kosmologische Betrachtungen, also die Untersuchung von Rechenmodellen zu Geometrie und Entwicklung des Universums als ganzes (zum Beispiel die Vorstellung eines geschlossenen Universums“ in dem der Raum sich in sich selbst zurückkrümmt), und zu „Schwarzen Löchern“.

  •  

     
     














    --
    Zwei „Einsteinringe“ und das sog. Einsteinkreuz“ (NASA,ESA)
    (Ein  weit  entfernter  Quasar steht  genau  hinter  einer  näheren Galaxie.  Die Gravitationswirkung der Galaxie biegt die auf allen Seiten vorbeistreichenden Lichtstrahlen so dass der Quasar als Ring oder als Mehrfachbild erscheint. Der Effekt wurde von Einstein vorhergesagt.)

    Die Newton’sche Gravitationstheorie erweist sich als eine unter „gewöhnlichen Umständen“ sehr gute und dort völlig ausreichende Näherung.

    Gravitation und Zeit
    In unserem Kontext erscheint uns die Aussage über den Einfluss der Gravitation auf den Gang von Uhren besonders bemerkenswert. Warum soll die Zeit in auf einem Berg schneller vergehen als im Tal? Das passt nicht in unser Alltagsverständnis.  Und doch konnte der Effekt erstmals 1962 experimentell nachgewiesen werden: Bereits die Höhe eines Wasserturms reichte aus, um Atomuhren oben und am Fuß unterschiedlich gehen zu lassen, so wie es die Theorie vorhersagte (nach Hawking: Eine kurze Geschichte der Zeit).

    Praktische Auswirkungen
    Die Aussagen der beiden Relativitätstheorien zu Zeit und Raum mögen auf den ersten Blick ohne Bedeutung für unser tägliches Leben erscheinen, da wir es weder mit Geschwindigkeiten vergleichbar der Lichtgeschwindigkeit noch mit gigantischen Masse zu tun haben. Tatsächlich spielen diese Gesetze aber in unserem Alltag eine wichtige Rolle.

    Unser Satellitennavigationssystems GPS benutzt außerordentlich genau gehende Atomuhren. Nun bewegen sich die Satelliten aber mit hoher Geschwindigkeit, die Zeit vergeht an Bord langsamer – die Uhren wollen gegenüber einer stationären Uhr  um 7 Mikrosekunden pro Tag gegenüber einer Uhr am Erdboden nachgehen. Andererseits ist in der Höhe der Satelliten (rund 20 000 km über der Erdoberfläche) das Gravitationsfeld der Erde merklich schwächer als an der Erdoberfläche, die Uhren wollen deshalb um 45 Mikrosekunden pro Tag vorgehen. In der Summe wollen die Uhren 38 Mikrosekunden pro Tag vorgehen, das ist deutlich mehr als die Gang-Ungenauigkeit der Uhren. Würde die Positionsbestimmung durch Zeitvergleich mit einer Uhr im Empfänger erfolgen würde das einen Fehler von circa 12 km pro Tag verursachen. Tatsächlich werden aber die Signale von mindestens vier Satelliten genutzt und damit auch die Zeit am Empfangsort bestimmt.   Damit die Satellitensignale des GPS außer zur Positionsbestimmung auch als Zeitstandard verwendet werden können, wird der relativistische Gangunterschied der Uhren kompensiert durch Verstimmen der Schwingungsfrequenz der Satellitenuhren.
     

    Wesentliche, mit den Alltagserfahrungen nicht verträgliche  Aussagen der beiden Relativitätstheorien lassen sich wie folgt zusammenfassen:
     

    Ist es ein Wunder dass Albert Einstein 1944 fragte:

    "Wie kommt es dass mich niemand versteht und jeder mag?"


     

    3   Quantenphysik

    Gegenstand der Quantenphysik sind die „Quantenobjekte“, das sind atomare oder subatomare Objekte oder aus ihnen aufgebaute Systeme, die von der klassischen Physik der Alltagswelt grundsätzlich abweichendes Verhalten zeigen. Da sie sich mit den Begriffen der Alltagswelt  oder des gesunden Menschenverstandes, auch mit den Begriffen der klassischen Physik, nicht hinreichend beschreiben lassen, werden sie häufig als „seltsam“, „skurril“, „sonderbar“, „bizarr“  bezeichnet. Einige – durchaus nicht alle – für das menschliche Gehirn „unverdaulichen“ Fakten werden im folgenden skizziert.


     

    Teilchen oder Welle?

    Teilchen sind nach dem üblichen Sprachgebrauch individuelle massebehaftete Objekte von endlicher Ausdehnung im Raum, die sich an einem klar erkennbaren Ort befinden - als Alltagsbeispiel können kleine harte Bälle dienen.  Wellen hingegen sind Vorgänge, zeitliche Veränderungen physikalischer Größen, deren mathematische Beschreibung einem bestimmten Schema folgt. Sie sind räumlich nicht  punktartig zu beschreiben – Alltagsbeispiel sind natürlich die Kräuselwellen auf einer Wasseroberfläche.

    --
    Isaak Newton - Pierre-Simon Laplace -Christiaan Huygens

    Isaac Newton ( 1642-1726 ) legte 1687 mit seinen drei Bewegungsgesetzen und seiner Gravitationstheorie die Grundlage nicht nur für die Mechanik sondern für das  ganze Weltbild der Physik der nächsten 200 Jahre. Die Welt stellte sich als eine Art Uhrwerk dar, jeder Vorgang war mathematisch beschreibbar, jede Wirkung hatte ihre Ursache.  Pierre-Simon Laplace  (1749  - 1827  )  machte diese Sicht anschaulich durch das Bild einer überlegenen Intelligenz („Laplace’scher Dämon“), die zu einem bestimmten Zeitpunkt Ort und Bewegungszustand aller Körper der Welt kennt und dank der streng kausalen Mechanik in der Lage ist, daraus alle zukünftigen Vorgänge in der Welt vorauszuberechnen.

    Isaac Newton leistete aber auch Großes auf dem Gebiete der Optik . Zur Ableitung und Erklärung der optischen Gesetze zog das bewährte mechanische Bild heran in der Form, dass er sich das Licht als einen Strom kleiner Teilchen vorstellte („Korpuskulartheorie“). Allerdings gab es zu dieser Zeit bereits eine alternative Theorie, entwickelt von Christiaan Huygens (1629 -1695 ), nach der das Licht als ein Wellenvorgang in einem allgegenwärtigen Äther gedeutet  wurde. Für Wellen gilt:

    Wellenlänge x Frequenz = Fortpflanzungsgeschwindigkeit.
     
     

    Schema Welle

    Gegen dem überragenden, sehr aggressiven und streitsüchtigen Newton hatten die Verfechter der Wellennatur des Lichtes keine Chance.

    -
    Thomas Young - Augustin Fresnel

    Erst zu Anfang des 19. Jahrhunderts waren der Engländer Thomas Young und der Franzose Augustin Fresnel in der Lage, für die Wellennatur des Lichtes überzeugende Gründe vorzulegen. Von Fresnel stammt die besser ausgearbeitete Theorie, aber es war Thomas Young der den „Doppelspaltversuch“ erfand der später in der experimentellen Quantenphysik eine bedeutende Rolle spielen sollte.

    Man stelle  sich eine Wand mit zwei Schlitzen vor, eine Art Torwand. Kleine Steinchen werden gegen die Wand geworfen. Jene Steinchen welche die Schlitze treffen, werden hindurch fliegen und sich auf der Rückseite in zwei Häufchen wiederfinden; liegen die Spalte nah genug beisammen, bildet sich ein größerer Haufen.


    Feste Teilchen am Doppelschlitz

    Nun stelle man die Wand mit den beiden Schlitzen in ein Wasserbecken und lasse Wellen auf der Oberfläche des Wassers auf die Wand zulaufen. Was an Welle durch die Schlitze hindurchläuft, wird auf der Rückseite zum Ausgangspunkt von Wellenkreise, und diese Wellenkreise können sich überlagern, sie können „interferieren“. Wo Wellenberg und Wellental zusammentreffen werden sie sich auslöschen (destruktive Interferenz), wo zwei Wellenberge oder zwei Wellentäler zusammentreffen werden sie sich verstärken (konstruktive Interferenz ). Es entsteht ein typisches Muster.

    Wellen am Doppelschlitz                           Welleninterferenz auf Wasser

    Als Thomas Young nun einfarbiges, kohärentes  Licht durch zwei nahe schmale Schlitze schickte, bildete sich auf einer Wand dahinter ein charakteristisches Muster aus hellen und dunklen Streifen ab – ein Interferenzmuster - also  musste das Licht Wellennatur haben.


    Young's Doppelspaltversuch - Schema









    Die Situation schien klar zu sein.  James Clerk Maxwell legte  1864  die elektromagnetischen Feldgleichungen vor welche die Ausbreitung transversaler elektromagnetischer  Schwingungen durch den leeren Raum vorhersagten. Ihre Geschwindigkeit ergab sich so nahe an der damals bekannten Lichtgeschwindigkeit dass Maxwell den Schluss ziehen konnte dass Licht eine solche Schwingung sei.  (Die Lichtgeschwindigkeit im Vakuum beträgt knapp 300 000 km/sec). Magnetisches und elektrisches Feld schwingen unter 90° zu einander und senkrecht zur Fortpflanzungsrichtung („transversale“ Schwingung!)


    Elektromagnetische Welle

    Licht einer gewöhnlichen Lichtquelle enthält Wellen die in allen möglichen Richtungen schwingen. Erfolgen aber alle Schwingungen in gleicher Richtung, z.B. die Schwingungen des elektrischen Feldes durchweg in einer vertikalen Ebene, dann wird das Licht als "polarisiert" bezeichnet.

    Das Gesamtspektrum der elektromagnetischen Wellen wurde später als von den langen Radiowellen über die Wärmestrahlung und den engen Bereich des sichtbaren Lichtes zum Ultraviolett, zu Röntgenstrahlung und Gamma-Strahlung reichend identifiziert.

    Im Bereich des sichtbaren Lichtes wird die Frequenz von der Kombination Auge/Gehirn als Farbe interpretiert.


    Wellenlängen, Frequenzen elektromagnetischer Strahlung

    Doch es gab Schwierigkeiten. Ein heißer fester Körper (in der physikalischen Theorie genauer ein „Schwarzer Körper“) strahlt Energie bei allen Frequenzen ab; das Maximum liegt bei mittleren Frequenzen. Wenn die Temperatur zunimmt verschiebt das Maximum  sich zu immer höheren Frequenzen. Die Sonne mit einer Oberflächentemperatur von 5778 ° strahlt am stärksten im Bereich des sichtbaren Lichtes – die Evolution hat das Auge dorthin entwickelt.

    Wenn man aber  mit klassischen Methoden die Strahlung eines heißen festen Körpers ausrechnete, ergab sich ein völlig falsches Spektrum: je höher die Frequenz der ausgesandten elektromagnetischen Strahlung, desto mehr Energie wurde damit abgestrahlt  - in der Summe  des für feste Körper typischen kontinuierlichen Spektrums also eine unendliche Energie. Dieses unsinnige Ergebnis wurde als „Ultraviolettkatastrophe“ bekannt und blieb lange unerklärt.
     
     

    --...
    May Planck - Albert Einstein - Louis de Broglie

    Max Planck (1858 - 1947) veröffentlichte 1900 eine Lösung basierend auf der Annahme, dass die Atome des festen Körpers Energie nur in kleinen Paketen abstrahlen können die er „Quanten“ nannte. Die Energie eines solchen Strahlungsquants errechnet sich als
                                      E  =  ny  ·  h
    wobei ny ( sprich „Nüh“)  die Frequenz und  h  eine sehr kleine Konstante ist, das sogenannte Planck’sche Wirkungsquantum.

    Bei statistischer Energieverteilung zwischen den Atomen des Körpers sind mit zunehmender Frequenz im hohen Bereich immer weniger und zuletzt gar keine Atome mehr in der Lage die Energiepakete abzustrahlen.

    Planck und seine Kollegen sahen in diesem „Akt der Verzweiflung“ (Originalton Planck) eher einen mathematischen Trick als eine physikalische Aussage. Es war Albert Einstein  ( 1879 - 1955 ) der als erster die Vorstellung akzeptierte dass Licht (oder irgendeine andere elektromagnetische Strahlung) grundsätzlich und immer aus einzelnen Quanten besteht. Als Bezeichnung bürgerte sich später nach einem Vorschlag von Gilbert Lewis der Name „Photonen“ ein. Man kann heute im Labor einzelne(!) Photonen herstellen und damit experimentieren. Photonen besitzen Energie und Impuls, wie ein „echtes“ Teilchen.

    Mit der Annahme der Lichtquanten war Einstein auch in der Lage den lichtelektrischen Effekt zu erklären den Philipp Lenard und J.J. Thomson Ende des 19. Jahrhunderts untersuchten: bestrahlt man gewisse Metalle im Vakuum mit einfarbigem Licht, so schlägt dieses aus der Metalloberfläche Elektronen heraus. Die Energie eines solchen Elektrons ist immer gleich und nur abhängig von der Frequenz des benutzten Lichtes. Lässt man bei unveränderter Farbe mehr Licht auf die Metalloberfläche fallen, dann nimmt die Zahl der herausgeschlagenen Elektronen zu, aber sie haben alle die gleiche Energie.

    Dass nicht ein kontinuierlicher Energiefluss sondern eben einzelne Lichtquanten auf die Metalloberfläche treffen, erklärt den Effekt zwanglos. Für diese 1905 vorgelegte Untersuchung erhielt Albert Einstein 1921 den Nobelpreis.

    Schlagwortartig gilt:

    Licht ist sowohl Teilchen als auch Welle! Mit gleichem Recht kann man auch sagen: Es ist weder noch – es ist eben ein Quantenobjekt das eigenen Regeln folgt.

    Hier stehen wir also vor dem Problem dass wir eine physikalische Entität nur mit zwei widersprüchlichen Begriffen aus der Alltagswelt beschreiben können – eine Vorstellung können wir uns nur von dem einen oder dem anderen, nicht aber von beidem gleichzeitig machen.
     

    Louis de Broglie vertrat 1923/1925 die Ansicht, alle Teilchen  besäßen auch Welleneigenschaft. Und tatsächlich konnte Welleneigenschaft für Elektronen, Protonen und Neutronen experimentell nachgewiesen werden, ja sogar an Fullerenen (ballförmigen Molekülen aus 60 Kohlenstoffatomen).  Nils Bohr formulierte dazu das „Komplementaritätsprinzip“: „Welleneigenschaft“ und  „Teilcheneigenschaft“ schließen sich nicht aus sondern ergänzen sich.

    Man kann es auch anders sagen: Unsere Begriffe aus der Alltagswelt sind im Bereich der sehr kleinen Teilchen nicht anwendbar, jedes Bild das wir uns machen ist notwendig falsch.


     

    Kausalität und Wahrscheinlichkeit

    In der klassischen Physik hat jedes Ereignis seine eindeutige Ursache, im Alltag sehen wir das genau so.

    Was uns als Zufall erscheint wie das Ergebnis des Würfelns, ist physikalisch gesehen eindeutig determiniert, nur wir wissen die Randbedingungen des Vorganges nicht mit der nötigen Genauigkeit, für uns ist das Ergebnis zufällig („Subjektiver Zufall“, „Deterministischer Zufall“).

    Oder ein physikalisches System ist so kompliziert und empfindlich dass eine beliebig kleine Änderung der Anfangsbedingungen zu beliebig großen Änderungen des Ergebnisses führt, unsere Möglichkeiten der Vorhersage also begrenzt sind. Das gilt zum Beispiel für das Wetter („Schmetterlingseffekt“, „Deterministisches Chaos“), siehe unten.

    Mit Ereignissen, für die keine Ursache angegeben werden kann, wurden die Physiker erstmals beim atomaren Zerfall konfrontiert. Von einem radioaktiven Stoff zerfällt innerhalb einer bestimmten Zeitspanne immer der gleiche Prozentsatz der vorhandnen Atomkerne, zum Beispiel innerhalb der „Halbwertzeit“ immer genau die Hälfte der anfangs vorhandenen Atome. Die Halbwertzeit variiert für verschiedene radioaktive Stoffe in sehr weiten Grenzen. Für Kohlenstoff  14C    beträgt sie   knapp 6000  Jahre; daher kann sie in der Archäologie zur Altersbestimmung organischer Reste benutzt werden.

    Der Zerfallsprozess ist statistisch gesehen sehr präzise vorherzusagen. Dagegen ist es völlig unmöglich vorherzusagen welches Atom wann zerfallen wird. Offenbar hängt der Zerfall nicht von irgendwelchen äußeren Einflüssen oder inneren Mechanismen ab sondern erfolgt rein zufällig; man spricht hier vom „irreduziblen“ oder objektiven  Zufall. Diese Vorstellung hat den Physikern nie gefallen. Sie haben immer gehofft man werde irgendwann eine Erklärung finden – bislang vergeblich. Und wenn man die Ursache schon nicht identifizieren könne, so müsse es doch „verborgene Variable“ geben die den Vorgang bestimmen, aber nicht erforschbar sind. Albert Einstein glaubte fest an die Existenz verborgener Variabler; von ihm stammt das berühmte „Gott würfelt nicht!“


     

    Die Entstehung der Quantentheorie

    1913 veröffentlichte Niels Bohr seine ersten Aufsätze zu Aufbau und Verhalten des einfachsten Atoms, nämlich des Wasserstoffatoms; in den Folgejahren wurde das „Bohr’sche Atommodell“ weiter ausgebaut. Bohr’s Modell war eine Mischung von Alt und Neu; es ging von einem Planetenmodell des Atoms aus (Elektronen umkreisen den Kern), integrierte aber zahlreiche Vorschriften basierend auf der Quantifizierung von Energieniveaus um das Verhalten des Atoms bei Strahlungsvorgängen zu beschreiben. Ein durchgängiges physikalisches Konzept lag dem nicht zugrunde.
     
     

    -
    Niels Bohr - Werner Heisenberg – Max Born – Paul Dirac - Erwin Schrödinger

    Werner Heisenberg, Max Born und Pascual Jordan entwickelten 1925 mit der „Matrizenmechanik“ ein abstraktes mathematisches Konzept zur Beschreibung der atomaren Prozesse. In England entwickelte Paul Dirac in gleichem Jahr mit den „Quantenalgebra“ ein mächtiges, aber mathematisch noch gewöhnungsbedürftigeres  Instrument. Erwin Schrödinger hingegen orientierte sich bewusst an klassischen physikalischen Vorbildern und entwickelte die „Wellenmechanik“. Alle Verfahren konnten als im Kern gleichwertig bewiesen werden. Da für konventionelles Denken am vertrautesten wurde Schrödingers Wellenmechanik zum bevorzugten Instrument der Quantenphysiker. Insbesondere hat sie sich beim Aufbau eines wellenmechanischen Atommodells bewährt, das in sich konsistent und nicht wie Bohr’s Vorgängermodell von Zusatzannahmen abhängig ist.

    Schrödinger hatte gehofft seine Wellen besäßen eine physikalische Realität. Er war enttäuscht als Max Born zeigte dass die Wellenfunktion – die Stärke der Welle (genauer ihr Quadrat) - an irgendeinem Ort eine Aussage über die Wahrscheinlichkeit macht das Teilchen an diesem Punkt anzutreffen. Das tatsächliche Verhalten des einzelnen Teilchens unterliegt dem irreduziblen Zufall. (Die übliche Bezeichnung „Zustandsvektor“ ist irreführend: Es gibt eben gerade kein Objekt das sich in einem bestimmten Zustand befindet). Man muss die Wahrscheinlichkeitswelle wohl als reines mathematisches Hilfsmittel auffassen.

    Dass nur Wahrscheinlichkeitsaussagen möglich sind passt gut zu Heisenbergs Entdeckung dass in der Quantenwelt tatsächlich Unbestimmtheit  herrscht, und er konnte diese Unschärfe quantifizieren.  Es ist unmöglich gleichzeitig Merkmalspaare wie Ort und Impuls exakt zu bestimmen. Das ist nicht Ausdruck einer experimentellen Beschränkung (dort zeigt sie sich natürlich auch), sondern einer tatsächlichen Unschärfe: Die Unbestimmtheit ist eine Eigenschaft der Quantenobjekte.  Es gibt ganz einfach keine absolute Wahrheit über den Zustand des Teilchens. Damit ist der Kausalität in diesem Bereich die Grundlage entzogen.

    Insbesondere sind die Eigenschaften eines Teilchens vor einer Messung undefiniert, man kann zum Beispiel nicht sagen dass es überhaupt einen bestimmten Weg verfolgt. Durch eine Messung aber wird eine reale Eigenschaft geschaffen, andere Eigenschaften mögen zunächst unbestimmt bleiben. Durch sukzessive „verträgliche“  Messungen können mehrere Eigenschaften des Quantenobjektes fixiert werden.

    Die Heisenbergsche Unschärferelation findet ihren Ausdruck im tatsächlichen Verhalten von Teilchen, zum Beispiel wenn ein Atomkernbestandteil durch „Tunneln“ eine Potentialschranke unterläuft  und einen atomaren Zerfall verwirklicht.

    Die Unbestimmtheit erlaubt das kurzzeitige Erscheinen von Teilchen und Photonen  „aus dem Nichts“; diese spielen die entscheidende Rolle bei der Berechnung von Wechselwirkung zwischen Teilchen. Das Vakuum erweist sich nicht einfach als Leere, sondern als ein brodelndes Meer von erscheinenden und wieder verschwindenden Teilchen; je größer die „geborgte“ Energie, desto kürzer ist die Erscheinungsdauer (es dreht sich Sekundenbruchteile).


     

    Der Doppelspaltversuch

    Nach Feynman steckt das ganze Geheimnis der Quantenphysik im Doppelspaltversuch, der ja ursprünglich nichts tun sollte als die Wellennatur des Lichtes nachweisen.  Der Versuch lässt sich auf Quantenobjekte anwenden und vielfach abwandeln – mit überraschenden Ergebnissen. Für Untersuchungen an Elektronen oder noch größeren Teilchen ist er aus technischen Gründen weniger geeignet – für die  damit verknüpften hohen Frequenzen/ extrem kurzen Wellenlängen müssen die Spalte und ihr Abstand extrem klein sein. Hier arbeitet man oft mit äquivalenten Beugungsversuchen an Kristallgittern. Der Anschaulichkeit halber behält die populärwissenschaftliche  Literatur aber die Vorstellung des klassischen Doppelspaltversuches bei; das soll auch hier geschehen.

    Die Grundbausteine des Versuchsaufbaus sind:
    1. eine Quelle für Photonen oder Teilchen
    2. eine Wand mit einem Doppelspalt oder Doppelloch
    3. ein Schirm oder irgendein Detektor der die Ankunft von Photonen oder
        Teilchen anzeigt

    Die Quelle sende einfarbiges kohärentes Licht aus. So lange nur einer der Spalte geöffnet ist, bildet sich hinter dem offenen Spalt ein Muster mit einem ganz klaren Maximum in gerader Linie hinter dem Spalt aus, wie man es von rechtschaffenen Teilchen erwartet . Sind beide Spalte geöffnet so zeigt sich auf dem Schirm nicht etwa ein Bild entsprechend der Summe zweier solcher Einzelspaltbilder, sondern es bildet sich auf dem Schirm das bekannte Streifenmuster aus – der Beleg für die Wellennatur des Lichtes. Den analogen Versuch mit Elektronen konnten erstmals 1987 japanische Forscher durchführen, Anfang der neunziger Jahre konnten Forscher in Konstanz den Versuch mit Heliumatomen realisieren.

    So lange das Licht in breitem Strahl am Doppelspalt ankommt, können wir uns die Interferenz durch das Analogon der Wasserwelle gut vorstellen. Nun lassen sich aber auch einzelne Photonen herstellen und auf die Reise schicken. Ein solches einzelnes Photon kann – nach unserer Alltagserfahrung! – nur durch einen Spalt gehen -  also sollte auf dem Bildschirm ein Bild entsprechend zwei Einzelspalten entstehen. Es entsteht aber tatsächlich das Interferenzbild! Wie kann es Interferenz geben wenn nur einzelne Teilchen durch die Spalte gehen?! Irgendwie muss das Teilchen wissen dass der zweite Spalt offen steht!

    Es liegt nahe zu kontrollieren durch welchen Spalt das Teilchen denn nun wirklich geht. Aber sobald man das beobachtet verschwindet das Interferenzmuster, es erscheint das Bild für zwei Einzelspalte.

       In der raffiniertesten Form baut man den Versuch so auf, dass erst nach dem Durchgang durch den Doppelspalt entschieden wird, ob der Durchgang des Teilchens beobachtet werden soll oder nicht („Verzögerte Entscheidung“, nach einem Vorschlag von John Wheeler). Das Ergebnis: Das Teilchen "weiß" das es beobachtet werden sollte,  und verhält sich so als sei nur ein Spalt offen gewesen.
    Diese Beschreibung setzt unser Alltagsverständnis voraus nämlich dass das Teilchen auf seinem Weg von der Quelle zum Schirm jederzeit einen definierten Ort einnehme. Man kann aber auch sagen:  Das Objekt hat gar keine eindeutige Geschichte - über die Vergangenheit wird nachträglich entschieden.  Diese Deutung entspricht der Vorstellung Feynmans, dass ein Teilchen grundsätzlich alle möglichen Wege durchläuft (siehe unten).

    Zusammengefasst:


    Anders gesagt:  Weginformation und Interferenz schließen sich aus. Interferenz findet statt,  wenn verschiedene denkbare klassische Möglichkeiten (Wege)  eintreten könnten, zwischen denen der Versuch nicht entscheidet. Wo jeweils das einzelne Teilchen landet ist objektiv zufällig, es sind nur statistische Aussagen möglich.

    Nach der klassischen „Kopenhagener Deutung“ bewegt sich ein Quantenobjekt nicht wirklich als Teilchen, sondern es breitet sich eine Wahrscheinlichkeitswelle aus, und diese kann interferieren („Reist als Welle, kommt an als Teilchen“). Der Zustand, d.h. die Bahn des Teilchens, ist nicht definiert solange es nicht beobachtet wird. Man muss sich diese Phase  als Überlagerung aller Möglichkeiten vorstellen, welche die Versuchsanlage insgesamt erlaubt. Man kann auch sagen: das Teilchen existiert gar nicht als solches solange es nicht beobachtet wird. Sobald das Teilchen aber beobachtet wird, nimmt es gezwungenermaßen einen bestimmten Zustand an, es entscheidet sich für einen der beiden Spalte; in der Kopenhagener Diktion: „Die Wahrscheinlichkeitswelle bricht zusammen („kollabiert“)“.  Der  Doppelspaltversuch insgesamt ist nur erklärbar wenn man die Beschreibung als Welle und die Beschreibung als Teilchen verwendet. Besonders schön wird das bei Interferenzversuchen mit Elektronen erkennbar, die ja üblicherweise als Teilchen gelten: Das Interferenzmuster auf der verwendeten Fotoplatte baut sich aus einzelnen Punkten auf welche das Auftreffen einzelner Elektronen anzeigen. Auch mit wesentlich größeren Gebilden ergab der Versuch das gleiche Ergebnis, so mit „Buckyballs“, kugelförmigen Molekülen aus 60 Kohlenstoffatomen.

    Entscheidend ist nach der "Kopenhagener Deutung" der Akt der  Beobachtung; in der schärfsten Version der Kopenhagener Deutung ist ein bewusster und intelligenter Beobachter notwendig. Allerdings kann man auch diesen als Teil eines umfassenden Quantensystems auffassen, und dann landet man bei der Notwendigkeit eines Beobachters außerhalb des Universums!


     

    Schrödingers Katzenparadoxon

    Um die Problematik der Kopenhagener Deutung anschaulich zu machen, erfand Erwin Schrödinger sein berühmtes „Katzenparadoxon“, ein Gedankenexperiment. („Paradoxon“ ist eigentlich nicht ganz der korrekte Ausdruck).

    Man stelle sich eine Kiste vor,


    Schrödingers Gedankenversuch

    Nach Ablauf der bestimmten Zeit öffnet ein Mensch die Kiste. Wenn man den Versuch vielmals wiederholt, wird sich in der Hälfte der Fälle in der Kiste eine lebendige Katze, in der Hälfte der Fälle eine tote Katze finden.

    Was war der Zustand bevor die Kiste geöffnet wurde? Bei einer konsequenten  Auffassung der Kopenhagener Deutung war das Innere der Kiste insgesamt ein Quantensystem und befand sich in einer Überlagerung der beiden möglichen Zustände, die Katze war also gleichzeitig tot und lebendig, oder sie war keines von beiden. Erst der Blick des Experimentators ließ die Wahrscheinlichkeitswelle zusammenbrechen, jetzt  erst entschied sich das Schicksal der Katze.  Nach Schrödingers Auffassung war das absurd – eine Katze kann nicht gleichzeitig lebendig und tot sein.

    Dieses Paradoxon wurde nie endgültig ausdiskutiert. Muss man wirklich das gesamte Innere der Kiste als Quantensystem auffassen? Ist es erst der bewusste Mensch der die Wahrscheinlichkeitswelle zusammenbrechen lässt? Oder langt dafür die Katze? Oder genügt es dass die Makrowelt, vertreten durch den Geigerzähler,  das Ereignis „Atomzerfall“ registriert? Ist eine „Messung“ im gewöhnlichen Wortsinn notwendig oder genügt irgendeine Interaktion mit der Makrowelt? Wo endet die Quantenwelt und wo beginnt die Makrowelt?

    Die neuere Auffassungen geht eher dahin dass der Akt der Messung entscheidend ist; dieser wird als objektiver Vorgang gesehen. Die Einführung des subjektiven Bewusstseins als entscheidender Faktor erhellt nichts, bringt nur gedankliche Schwierigkeiten, und sollte mithin Ockhams Rasiermesser zum Opfer fallen.

    Nach einer anderen modernen Auffassung ist es die „Offenheit des Systems“, sind es die unablässigen Quantenereignisse der Wechselwirkung mit der Umgebung (z.B. die Wärmestrahlen welche die noch  arglos sitzende oder schon umgefallene Katze treffen) welche zur „Dekohärenz“ (dem Verschwinden von Überlagerung und Interferenz) führen und dafür sorgen dass die in der Makrowelt gewohnten Gesetze für Messgerät und Katze gelten. „Dekohärenz“ ist ein fortschreitender Prozess und benötigt daher endliche Zeit. Serge Haroche, Paris,  konnte den Prozess experimentell verifizieren. Makroskopische Systeme sind nie isoliert („geschlossen“).

    Die einfachste Lösung für das Paradoxon dürfte sein: Es herrscht Begriffsverwirrung! So lange die Kiste verschlossen ist, können wir nur von Möglichkeiten sprechen, und die können ohne weiteres nebeneinander existieren. Mit der Öffnen der Kiste stellen wir ein Faktum fest. Wo ist da eigentlich das Problem?


     

    Das EPR-Paradoxon

    Einstein konnte sich nie mit der Kopenhagener Deutung der Quantenmechanik aussöhnen. Er ersann zahlreiche Gedankenexperimente um sie zu widerlegen, doch konnte Niels Bohr seine Argumente stets aushebeln.

    1935 ersann Einstein zusammen mit seinen Mitarbeitern Boris Podolsky und Nathan Rosen ein Argument das als EPR-Paradoxon bekannt wurde (wieder ist der Ausdruck Paradoxon nicht wirklich passend).

    Das Argument bezieht sich auf ein Paar „verschränkter“ Teilchen. Das sind Teilchen die  von ihrer Entstehung her auf einander bezogen sind. Weiß man eine Eigenschaft des einen, so kennt man automatisch auch die entsprechende Eigenschaft des anderen. Wenn die Teilchen weit genug von einander entfernt sind, dann kann man zum Beispiel an dem einen Teilchen den Ort und an dem anderen den Impuls messen, und weil der Impuls beider Teilchen entgegen gesetzt gleich sein muss, besitzt man die vollständige  Information über das erste Teilchen (was nach der Unschärferelation ja nicht zulässig sein soll)  – so jedenfalls Einstein. Dabei setzte er voraus dass die Teilchen ihre Eigenschaften im Entstehungsprozess unveränderlich aufgeprägt bekamen („Verborgene Variable“). Die Eigenschaften liegen also vor der Messung bereits vor und können nur durch lokalen Eingriff geändert werden („Lokale Realität“, „Einstein-Realität“), nicht durch eine „spukhafte Fernwirkung“ (Einstein) ohne Zeitverzug.

    Nicht exakt in der von Einstein vorgeschlagenen Form aber äquivalent wurde das Experiment mehrfach durchgeführt. John Bell schlug dazu1964 einen Versuch vor der mit der Messung von drei komplementären Eigenschaften verschränkter Teilchen operiert, zum Beispiel Photonen-Polarisation in geeignet gewählten drei Richtungen, oder Protonen-Spins in geeignet gewählten drei Achsen.   Eine große Zahl von Versuchen soll statistisch aussagekräftigeErgebnisse liefern.

    ..........
    John Bell                                -  Grundschema des EPR – Experiments   -                Alain Aspect

    Auf rein klassischer Basis leitete Bell ein statistisches Kriterium ab, das erfüllt sein muss wenn die Eigenschaften im Augenblick der Entstehung der verschränkten Teilchen festgelegt wurden, nicht aber wenn nach den Regeln der Quantenphysik jede Messung den Zustand des Systems verändert und das Gesamtergebnis beeinflusst . Sein Kriterium  wurde als „Bell’sche Ungleichung“ bekannt (die Bezeichnung wird auch für analoge Kriterien gebraucht die andere Wissenschaftler für verschiedene Fälle aufgestellt haben). Quantenmechanische Rechnungen sagen ein anderes Ergebnis als das klassische voraus: Die Ungleichung würde verletzt werden.

    Das Ergebnis der Versuche: Die Bell’sche Ungleichung wurde in der Tat deutlich verletzt, in genau der von der Quantenphysik vorhergesagten Weise. Also:  Es gibt keine  „verborgenen Variablen“. Das Quantensystem entscheidet im Augenblick der Messung an einem seiner Teile objektiv zufällig welcher Zustand in der Messung zutage tritt, und zwar für beide beliebig weit von einander entfernten Teile. 1982 führte Alain Aspect an der Universität Sud in Paris den ultimativen  Versuch durch bei dem ausgeschlossen wurde dass zwischen den beiden Teilchen Information fließen konnte. Wieder wurde bestätigt dass das Gesamtsystem der beiden verschränkten Teilchen augenblicklich entscheidet welchen Zustand sie in der Messung annehmen.

    Verschränkung scheint entfernungsmäßig nicht beschränkt zu sein – verschränkte Teilchen könnten das ganze Universum zwischen sich haben und blieben doch verkoppelt. Ob man hier von „spukhafter Fernwirkung“ sprechen will ist Geschmackssache, jedenfalls fließt keine Information zwischen den Teilen des Systems. „Nicht-Lokalität“ ist eine gängige Bezeichnung für den Tatbestand.
     


     

    Erfolge und Alternativen

    ----
    Richard Feynman  -  Hugh Everett  -  John Cramer  -  David Bohm

    Auf der Basis der Kopenhagener Deutung und mit dem Instrument der Schrödinger Wellenmechanik wurden in der praktischen Arbeit außerordentliche Erfolge erzielt. Auf der theoretischen Seite konnte mit der Quantenelektrodynamik  (QED), entwickelt von Richard Feynman, der Elektromagnetismus, insbesondere die Wechselwirkung zwischen Elektronen und Strahlung, erklärt werden. Kurzzeitig erscheinende und wieder verschwindende Teilchen werden in die Rechnungen einbezogen.  Die QED ist von außerordentlicher Präzision, sie gilt als die am exaktesten überprüfte Theorie der Physik. In Feynmann’s “Pfadintegralmethode“ werden alle überhaupt nur möglichen Pfade eines Teilchens berücksichtigt. Mit der QED lassen sich auch die Gesetze der Optik ohne jeden Rückgriff auf die Vorstellung von Wellen herleiten.

    Mit der zur QED bewusst analog aufgebauten  Quantenchromodynamik (QCD) konnten die Vorgänge im Bereich des Atomkerns analysiert und geklärt werden.

    Im technischen Bereich basieren Maser und Laser, LEDs und  Computer, CDs und DVDs auf der Quantenphysik. Die Arbeit mit verschränkten Photonen verspricht unter anderem schon in naher Zukunft vollkommen sichere Verschlüsselungsmethoden für den Datenverkehr, längerfristig große Fortschritte in der Computertechnik und eine Art von „Teleportation“.

    Intellektuell konnte und kann  die Kopenhagener Deutung aber nicht voll befriedigen. Zahlreiche Varianten und alternative Deutungen wurden vorgeschlagen. Markante Alternativen sind:

    Die Vielwelten -Theorie wurde zuerst 1957 von Hugh Everett vorgeschlagen und später von Wheeler und DeWitt propagiert. Nach dieser Theorie bricht die Wahrscheinlichkeitswelle nicht zusammen und  eine der möglichen Lösungen wird zur Realität, während die anderen verschwinden. Vielmehr werden alle möglichen Lösungen realisiert  - die Welt spaltet sich in zwei oder mehrere Welten auf, die in unterschiedlichen Dimensionen existieren und daher in keiner Weise miteinander wechselwirken können. Die Theorie tritt auch in den Varianten „Viele Geschichten“ und „Viele Bewusstseine“ auf.

    Die SF-Erzählung "Schmetterlingseffekt" spielt mit der Vielwelten-Theorie.

    Die Transaktions – Interpretation, vorgelegt von John Cramer 1986, beschreibt ein Quantenereignis als Überlagerung einer gewöhnlichen in die Zukunft gehenden („retardierten“) und einer aus der Vergangenheit auf das Ereignis zulaufenden („avancierten“) Welle. Sie greift damit auf die Grundidee der  Wheeler-Feynman-Absorbertheorie der elektromagnetischen Strahlung zurück (die Maxwell’schen Gleichungen haben beide Wellen als Lösung, doch wird die zweite traditionell vernachlässigt). Sie fasst die quantenmechanischen Wellen als echte physikalische Wellen auf, ist nichtlokal und mit allen bekannten Fakten der Quantenmechanik verträglich.
     

    Die David Bohm’sche Mechanik basiert auf einer das Universum umfassenden Leitwelle die dafür sorgt das alles mit allem verknüpft ist; jedes Geschehen spiegelt einen zugrundeliegenden Prozess.

    Bemerkenswert ist: Was immer die Deutung, es ändert sich dadurch nichts an der praktischen und überaus präzisen Vorhersagekraft der Wellenmechanik: ihre Ergebnisse bleiben gleich. Keine Deutung lässt sich gegenüber den anderen als die allein richtige beweisen.

    Insofern kann man sich auch auf den streng positivistischen Standpunkt stellen den Bohr einmal formuliert hat: „Es gibt keine Quantenwelt. Es gibt nur eine abstrakte quantenphysikalische Beschreibung. Es ist falsch wenn man denkt, die Aufgabe der Physik ist herauszufinden, wie die Natur ist. Physik handelt von dem was man über die Natur sagen kann (zitiert nach Audretsch).
     

    Wesentliche Erkenntnisse der Quantenphysik lassen sich wie folgt zusammenfassen:
     



     

    Zitate

    Wer die Aussagen der Quantenphysik als schlicht unverständlich empfindet, befindet sich in bester Gesellschaft, wie die folgende Auswahl an Zitaten beweist:

    Niels Bohr:
     „Wer über die Quantentheorie nicht entsetzt ist, der hat sie nicht verstanden.“

    Albert Einstein:
    „Die Theorie leistet sehr viel, aber dem Geheimnis des Alten bringt sie uns kaum näher. Jedenfalls bin ich überzeugt dass der nicht würfelt“

    Erwin Schrödinger:
    „Ich mag sie (die Quantentheorie) nicht, und es tut mir leid dass ich jemals etwas damit zu tun hatte.“

    Erwin Schrödinger:
    „Wenn es doch bei dieser verdammten Quantenspringerei bleiben soll, so bedaure ich, mich überhaupt jemals mit der Quantentheorie abgegeben zu haben.“

    Albert Einstein:
    „Falls Gott die Welt geschaffen hat, war seine Hauptsorge sicherlich nicht , sie so zu machen, dass wir sie verstehen können“

    Albert Einstein:
    „Fünfzig Jahre Nachdenken haben mich der Antwort auf die Frage >Was sind Lichtquanten?< nicht näher gebracht. Heute bilden sich Hinz und Kunz ein es zu wissen. Aber da täuschen sie sich.“

    Richard Feynman:
    “Es gab eine Zeit, als die Zeitungen sagten, nur zwölf Menschen verstünden die Relativitätstheorie. Ich glaube nicht dass es jemals eine solche Zeit gab. Auf der anderen Seite denke ich es ist sicher zu sagen, niemand versteht die Quantenmechanik.“
     

    Murray Gell-Mann:
    “Niels Bohr unterzog eine ganze Generation von Physikern einer Gehirnwäsche und machte sie glauben das Problem sei bereits gelöst.”
     

    John Bell:
     „Ich bin nie hinter die Bedeutung der Komplementarität gestiegen, und Widersprüche sind mir ein Greuel“.
     

    Auch die Physiker mussten zur Kenntnis nehmen dass sie ihre Modelle nur mit den Vorstellungen und aus den Elementen bauen können die wir aus der Alltagswelt gewohnt sind. Nur die Mathematik erlaubt das Geschehen zu fassen. Sie beschreibt wie sich ihre Objekte verhalten, nicht was sie sind.

    Die Quantenwelt ist so anders als unser „gesunder Menschenverstand“ es möchte, dass wir sie nicht wirklich verstehen können. Was die Quantenmechanik „bedeutet“, bleibt ohne endgültige und einvernehmliche Antwort. Aber vielleicht ist das auch einfach eine unangemessene Frage – warum sollte die Welt des Allerkleinsten sich nach unserem Alltag richten?

    Richard Feynman:
     „Das Paradoxe ist lediglich ein Konflikt zwischen der Realität und Ihrem Gefühl was Realität sein sollte.“

    Richard Feynman:
    "Die Quantenmechanik beschreibt die Natur als absurd vom Standpunkt des gesunden Menschenverstandes. Und sie stimmt voll mit dem Experiment überein. So hoffe ich dass Sie die Natur so akzeptieren können wie sie ist – absurd.“
     

    Oder in der bildhaften Sprache zweier ganz Großer:

    Einstein:
     „Ich kann einfach nicht glauben dass Gott mit dem Universum würfelt.“
    Niels Bohr:
     „Schreiben Sie Gott nicht vor was er tun soll!“
     


     

    4  Deterministisches Chaos und Fraktale

     

    Deterministisches Chaos

    Unsere Weltsicht enthält als wichtiges Element die Annahme strenger Kausalität:  Was immer sich in der Welt ereignet, es  ist nicht grundlos, jedes Ereignis hat seine Ursache. Es fällt uns schwer zu akzeptieren dass – zum Beispiel im sozialen und wirtschaftlichen Zusammenleben – komplizierte Vernetzungen und Rückkopplungseffekte eine große Rolle spielen. Eigentlich können wir nur einfache Ursache-Wirkungs-Ketten durchdenken; vernetzte Systeme können wir nur mit Hilfe der Mathematik und der Simulation behandeln. Das erschüttert jedoch nicht unseren Glauben an streng gültige Kausalität (dass diese im Quantenbereich nicht gilt wird als sehr irritierende Ausnahme empfunden – man vergleiche Einsteins „Gott würfelt nicht!“)

    Was uns im Alltag als Zufall erscheint wie der Fall eines Würfels oder das Rollen der Kugel im Roulette, ist in Wirklichkeit streng determiniert; wir sind nur nicht in der Lage die physikalischen Anfangsbedingungen und Einflüsse zu erfassen. Wüssten wir alle Randbedingungen, könnten wir die Bewegungen von Würfel oder Kugel vorhersagen, glauben wir ganz im Sinne des Laplace’schen Dämon (Der in den Quanteneffekten wirkende echte Zufall sorgt wahrscheinlich für eine grundsätzliche Nichtvorhersagbarkeit auf lange Zeit ).

    Weiterhin gehen wir gewöhnlich davon aus dass eine kleine Veränderung der Ursache auch nur eine kleine Veränderung in der Wirkung hervorruft.  Schon der große französische Mathematiker Henri Poincaré (1854-1912) hatte darauf hingewiesen dass dies nicht unbedingt so sein müsse; aber das wurde wieder vergessen.

    Darum erregte es außerordentliches Aufsehen als in der zweiten Hälfte des letzten Jahrhunderts klar wurde, das in komplexen Systemen beliebig kleine Veränderungen der Anfangs- oder Randbedingungen beliebig große Veränderungen in den Auswirkungen hervorrufen können und damit jede Vorhersage zukünftigen Verhaltens unmöglich machen – trotz strenger Determiniertheit!  Dieses Verhalten wurde als „deterministisches Chaos“ bekannt, im allgemeinen Sprachgebrauch bürgerte sich der Ausdruck „Schmetterlingseffekt“ ein.
     
     

    ....
    Edward N. Lorenz - Robert May - James York - Mitchell Feigenbaum

    Klassisches Beispiel für ein solches System ist das Wetter, und hier fiel der Effekt auch zuerst auf. 1963 stellte der Meteorologe Edward N. Lorenz  fest, dass das Ergebnis seiner Wettersimulationen bei winzigen Änderungen der Daten völlig unterschiedlich ausfallen konnte.  Wenn aber die Entwicklung des Wetters so überaus empfindlich auf kleinste Änderungen der Randbedingungen reagiert, dann muss im Prinzip gelten dass der Flügelschlag eines Schmetterlings am Amazonas Wochen später einen Tornado in Texas auslösen kann – daher der Ausdruck „Schmetterlingseffekt“. Heute überprüft man die Verlässlichkeit von Wettervorhersagen durch Berechnung mit leicht unterschiedlichen Daten.

    Deterministisches Chaos kann nur in nichtlinearen Systemen auftreten, vorzugsweise mit Rückkoppelung.  Astronomische Mehrkörper-Systeme, Konvektion und Turbulenz, Lebewesen und ihre einzelnen Organe (umstritten: Herzrhythmus), Räuber-Beute-Beziehungen, ganze Ökosysteme, tropfende Wasserhähne, Flipperautomaten, Jahrmarktsfahrgeschäfte („Tilt-A-Whirl“), Lottozieh- maschinen, Verkehrsstaus, Börsenkurse, die Volkswirtschaft (Konjunkturen!) fallen in diese Kategorie.

    Eine besonders interessante (und nicht geklärte Frage) ist, ob das Klima auf der Erde ein chaotisches System ist. Nichtlinearität und Rückkoppelung sind zweifellos gegeben. Der Mechanismus der Eiszeiten ist mit astronomischen und plattentektonischen Einflüssen noch nicht ausreichend erklärt. Die schnellen Wechsel zwischen Warm- und Kaltzeiten weisen auf die  Existenz verschiedener vergleichsweise stabiler Ausprägungen des Klimas hin, zwischen denen das System pendeln kann. Ob der extreme Grenzfall „Schneeball Erde“ im Erdaltertum einmal eingetreten ist bleibt umstritten (Schneeball Erde: Die gesamte Erde ist vereist. In diesem Zustand reflektiert sie einen erheblichen Teil der einfallenden Sonnenstrahlung – daher sehr niedrige Temperaturen – daher allgemeine Vereisung! Offenbar ist dies ein denkbarer stabiler Zustand, aus Simulationen als „White Earth“ bekannt). Wenn das Klima tatsächlich ein chaotisches System ist, dann kann es durchaus sein dass der Mensch durch Treibhausgasemission und Abholzung dem Klima einen „Stoß“ versetzt, der es auf schnell auf einen anderen Zustand wechseln lässt.

    Ein einfaches mechanisches System mit chaotischem Verhalten ist das Doppelpendel. (Animation hier)

    Es gibt aber auch ein ganz simples Beispiel das die Entwicklung von Chaos illustriert und von jedermann/jederfrau mit einer kleinen schrittweisen Excel-Rechnung nachvollzogen werden kann (hier können Sie das unten behandelte Beispiel nachvollziehen!). Es handelt sich um die sogenannte „Logistische Gleichung“. Die Gleichung wurde   zuerst 1837 von Pierre François Verhulst  entwickelt, 1976 machten  der Biologe Robert May  und der Mathematiker James  Yorke sie durch ihre Untersuchungen berühmt. Gewöhnlich unter rein mathematischen Aspekten diskutiert, führen wir sie hier auf ihren anschaulichen Kern zurück.

    Es geht um die Entwicklung einer Population von Tieren angesichts begrenzter Nahrungs-Ressourcen in einem abgeschlossenen Gebiet, zum Beispiel auf einer Insel.   Wir betrachten die Veränderung der Population (Zahl der Tiere) von einer Generation (Pn)  zur nächsten Generation (Pn+1) .  Bei unbegrenzten Ressourcen können wir schreiben:

    Pn+1 = a X Pn

    Der Faktor a beschreibt die Veränderung der Population von einer Generation zur nächsten; die „normale“ Sterberate durch Alterschwäche sei darin schon erfasst.

    Bei Werten a unter 1 nimmt die Population stetig ab und stirbt schließlich aus (Der Wert für die deutsche Bevölkerung liegt um das Jahr 2008 bei 0,65 entsprechen 1,3 Kindern pro Frau).

    Bei a größer 1 beschreibt  die Gleichung, angewandt auf eine Folge von Generationen n= 1,2,3,4,5 usf., ein exponentielles Wachstum über alle Grenzen hinaus.

    Nun soll es aber begrenzte Nahrungsressourcen geben derart, dass sie dann die ganze Population dem Hungertod überantworten würden wenn diese die Größe

    „PHungertod
    erreicht. Bei ganz wenigen Tieren wird natürlich keines verhungern. Wir nehmen der Einfachheit halber einen linearen Verlauf der Todesrate zwischen P=0  und P=PHungertod an. Dann ergibt sich das Gesamtverhalten der Population zu

    Pn+1= Pn x a x (1 – Pn/PHungertod)       („Logistische Gleichung“)

    Ein Gleichgewichtszustand würde bei

    P = PHungertod x ( 1 – 1/a )

    bestehen, aber stellt er sich auch in der Abfolge der Generationen ein?

    Wir betrachten ein Beispiel.
     
     

    Auf einer einsamen Insel möge – den Zoologen bislang unbekannt - eine Population von „Obstmäusen“ zuhause sein. Sie konkurrieren um die Früchte die von den Bäumen fallen; würden 1000 Obstmäuse auf der Insel leben, dann würde das Obst für keine davon reichen, alle müssten sterben.  PHungertod ist also  gleich 1000.  Wir beginnen die Rechnung mit einer willkürlich gewählten Population (Tierzahl) in der nullten Generation.

    Wir betrachten zunächst mäßige Vermehrungsraten .

    Die Abbildung zeigt dass bei der kleinen Vermehrungsrate a=2 (d.h. Verdopplung der Tierzahl von Generation zu Generation) sich die Population nach fast exponentiellem Anfangswachstum schnell asymptotisch dem Gleichgewichtszustand (500 Tiere) nähert. Bei der etwas größeren Vermehrungsrate a =2,8 schwingt die Zahl der Tiere zunächst etwas über, pendelt sich dann  aber bald auf die Gleichgewichtszahl ( 643 Tiere) ein.

    Wird die Vermehrungsrate a=3 überschritten, passiert etwas völlig Neuartiges:
    Von Generation zu Generation pendelt jetzt die Zahl der Tiere zwischen zwei Werten hin und her:

    Überschreitet a den Wert 1+61/2  (3,4495) so ergibt sich wieder ein anderer Verlauf:
    Jetzt pendelt die Population zwischen vier Werten hin und her!

    Setzt man die Vermehrungsrate weiter hoch, so verdoppelt sich in immer kürzeren Abständen die Zahl der Werte zwischen denen die Population hin- und herspringt („Bifurkation“). Dieses Verhalten ist für viele chaotische Systeme typisch.

    Bei a=3,5699 schließlich passiert es: Chaos bricht aus!

    Die Werte verteilen sich über einen immer größeren Bereich und erfassen ihn bei a=4 vollständig (über a=4 verlassen die Werte den zulässigen Bereich). Von kurzen Abschnitten abgesehen ist keinerlei Ordnung und System mehr festzustellen. Mittlere Werte, Werte nahe dem allgemeinen Hungertod und winzige Restpopulationen wechseln bei a=4 sich ab. Jeder einzelne Schritt ist nachvollziehbar, das ganze Bild ist – Chaos!

    Dieses Chaos ist außerordentlich empfindlich. Wir haben zuletzt immer mit einer Population von 400 Obstmäusen begonnen. Jetzt setzen wir eine einzige Maus hinzu, starten mit 401 Tieren: Anfänglich scheint alles in Ordnung: die neue Population entwickelt sich eng entlang der alten. Aber die Unterschiede in einem deterministisch-chaotischen System wachsen exponentiell (Maß dafür ist der „Ljapunov-Exponent“). In unserem Fall geht  von der 9. Generation an jeder erkennbare Zusammenhang verloren. Erinnert das nicht an das Problem der Wettervorhersage?

    James York hat die verschiedenen Bereiche in folgender Grafik zusammengefasst (Beschriftung geändert gemäß Terminologie dieses Papiers):

    Später untersuchte Mitchell Feigenbaum das Aufspalten der Werte („Bifurkation“) in großem Detail. Die Abstände, in denen die immer neue Aufspaltung erfolgt, werden immer kürzer im Verhältnis 1/f, wobei  f=4,69920.... die „Feigenbaum-Zahl“ ist . Feigenbaum entdeckte dass der Übergang in das Chaos auch in vielen anderen, selbst mathematisch ganz anders gelagerten Fällen in dieser Form erfolgt („Universalität“). Das Bild wird daher auch als „Feigenbaum-Diagramm“ bezeichnet. Sorgfältige Experimente haben inzwischen bewiesen dass der Übergang in der Natur tatsächlich so erfolgt.

    Im chaotischen Bereich gibt es ganz enge Inseln mit stabilen Lösungen, z.B. mit drei oder 7 Werten, gefolgt von neuer „Bifurkation“.  „Period Three Implies Chaos” ist der Titel einer berühmten Abhandlung von James Yorke.

    Die extrem einfache Logistische Gleichung entwickelt alle Merkmale des deterministischen Chaos. Das ist zunächst einmal eine Sache der Mathematik, aber hat sie auch etwas mit der Wirklichkeit zu tun? Uns scheint: tendenzmäßig ja. Es ist wohl kein Zufall dass wir periodisches oder auch ungeordnetes Anschwellen zu massenhaftem Auftreten und Zurückgehen von Populationen gerade von jenen Tieren kennen, die sich durch eine besonders große Nachkommenschaft auszeichnen: Insekten und Nagetiere.

    Die außerordentliche Empfindlichkeit chaotischer Systeme legt die Erwartung nahe dass man sie auch mit geringem Aufwand steuern kann – man muss allerdings ihren Mechanismus verstehen und bereit sein ständig nachzusteuern. Politische Eingriffe in die Volkswirtschaft in Krisenzeiten sind nicht a priori unsinnig! Man darf nur nicht erwarten dass die Probleme ein für allemal lösbar seien. Ein anderer positiver Aspekt chaotischer Systeme ist eben ihre Fähigkeit Neues hervorzubringen – ihre „Kreativität“. Selbst im menschlichen Gehirn wird „kreatives Chaos“ vermutet.

    Die Entdeckung des deterministischen Chaos löste eine Welle wissenschaftlicher  Aktivität aus, dazu ein „Hype“ in den Medien. Von der Behandlung komplexer dynamischer Systeme erhoffte man sich Erkenntnisse im Sinne einer holistischen Weltsicht: Einblicke in das Entstehen „emergenter“ Phänomene die sich nicht aus der „reduktionistischen“ Betrachtungsweise der Komponenten erschließen. Die Erwartung dass hier ein neues übergeordnetes Wissenschaftsgebiet entstehen werde hat aber wohl getrogen. Wie für eine interdisziplinäre Arbeitsrichtung nicht anders zu erwarten gab es vielfältige Kritik. Heute spricht man nicht mehr von Chaos-Forschung sondern von der „Dynamik komplexer Systeme“. Die Aktivität liegt wieder in den Fachgebieten. Neue Bücher für den interessierten Laien scheint es nicht zu geben.

     

    Fraktale

    Neben dem „Schmetterlingseffekt“ hat ein zweiter Aspekt der Behandlung komplexer Systeme anhaltende Popularität erlangt: die „Fraktale“. Hierunter sind geometrische Figuren zu verstehen die bei immer feinerer Auflösung  - beim Betrachten in immer größerem Maßstab – immer feinere Strukturen zeigen; häufig besitzen sie „Selbst-ähnlichkeit“, das heißt sie zeigen bei jeder Vergrößerung immer wieder die gleichen Formen. Fraktale entstehen in der Mathematik durch die iterative Anwendung des immer gleichen Bildungsgesetzes.

    Fraktale treten im Kontext chaotischer Systeme häufig auf. Beim Bifurkationsvorgang haben wir das unendlich wiederholte Auftreten der selben Figur in immer kleinerer Form schon beobachtet. Fraktale treten auch auf wenn man untersucht  wie  sich Lösungsbereiche chaotischer Systeme gegeneinander abgrenzen. Beispiel: eine Eisenkugel  pendelt über drei Magneten. Nur bei Start im engen Umfeld der Magnete ist die Endstellung des „magnetischen Pendels“ vorhersagbar.

    .....

    (nach Paul Nylander "Bugman")

    Die stabile aber sich niemals exakt wiederholende Entwicklung chaotischer Systeme erweist sich in der grafischen Darstellung als unendlich fein strukturiert. Der berühmteste dieser „Seltsamen Attraktoren“ ist zweifellos der Lorenz-Attraktor, der sich zuerst bei den Lorenz’schen Wetteruntersuchungen zeigte:


    Lorenz-Attraktor (nach TU Graz)

    Eine sowohl  einfach geometrisch zu konstruierende als auch ästhetisch befriedigende  fraktale Form ist die Koch’sche Kurve bzw. die aus drei solcher Kurven zusammengefügte Koch’sche Schneeflocke (benannt dem Erfinder, dem schwedischen Mathematiker   Helge von Koch,1904) .

    Man beginne mit einem gleichseitigen Dreieck. Jede Seite teile man in drei gleiche Teile, auf den mittleren Abschnitten errichte man jeweils ein neues gleichseitiges Dreieck; diesen Prozess setze man gedanklich ad infinitum fort. Da bei jedem Schritt die Länge des Umfangs um den Faktor 4/3 wächst,  wird der Umfang der Figur gegen unendlich gehen, während die Fläche ja ganz offenbar endlich bleibt.

    Andererseits ist es möglich durch unendliche Wiederholung eine bestimmten Zeichenanweisung eine Fläche vollständig durch einen fraktalen Linienzug auszufüllen („FASS“-Kurve = "space-filling, self-avoiding, simple and self-similar")! Beispiele sind Hilbertkurve, Peanokurve und Gosperkurve :


    Hilbert-Kurve , vier Stufen der Verfeinerung (nach Wikipedia)

    Fraktal sind auch „Cantor-Staub“, „Sierpinski-Teppich“ und „Menger-Schwamm“, benannt nach den Mathematikern die sie erfanden.

    Man stelle sich eine Strecke (auf der Zahlengeraden) vor und nehme das mittlere Drittel heraus, Das gleiche tue man mit den beiden Resten, und fahre so fort bis ins unendlich Kleine. Was übrigbleibt sind unendlich viele Punkte auf einer leeren Strecke:  (Zahlen-) Staub – „Cantor-Staub“ . Das sieht wie eine Spielerei aus, aber Benoit Mandelbrot fand darin eine gute Beschreibung für so unterschiedliche Erscheinungen wie elektrische Störungen bei der Informationsübertragung, die historische Entwicklung der Baumwollpreise und die jährliche Fluthöhe des Nil!

    Beim Sierpinski-Teppich (links und Mitte) wird aus einer Fläche immer wieder nach der gleichen Regel eine Teilfläche herausgeschnitten bis so etwas wie ein unendlich feines Sieb übrigbleibt das keine Fläche mehr besitzt. Analog gebildet hat der „Mengerschwamm“ (rechts, nach Wikipedia)) bei unendlicher Verfeinerung kein Volumen mehr aber eine unendliche Oberfläche!


    Fraktale Strukturen werden als ästhetisch sehr reizvoll empfunden. Links ein Sierpinski-Versuch des Autors, in der Mitte eine Menger-Darstellung von Paul Bourke.  Auch der große Grafiker M.C.Escher hat fraktale Bilder geschaffen, so das wunderbare „Kreislimit“ (rechts).

    In der Natur finden wir fraktale Formen bei zerklüfteten Küsten, bei Wolken, bei Farnblättern, bei Blumenkohl, bei Hohltieren,  .... Hier ist die Zahl der fraktalen Stufen naturgemäß begrenzt und nicht unendlich wie in den mathematischen Figuren. Nicht mathematische sondern physikalische Gesetzte oder Anweisungen des Erbmaterials sorgen dafür dass der selbe Bildungsvorgang sich in immer kleineren Maßstab wiederholt. Bereits der Biologe D’Arcy Wentworth Thompson (1860-1948) war überzeugt dass übergreifende Gesetze am Werke sind, und verglich zum Beispiel die Auflösung von Tinte in Wasser mit der Form einer Qualle (unten).

    Fraktale Naturformen

    Spricht man heute von Fraktalen, so denkt man zuerst an das „Apfelmännchen“ des Benoit Mandelbrot (1975), das bei der Betrachtung in immer größerem Maßstab nicht nur Selbstähnlichkeit (rechts), sondern eine große Fülle filigraner Figuren zeigt.

    ....









    Mathematisch ist die Mandelbrotmenge dem fraktalen Bifurkationvorgang beim Entstehen von Chaos verwandt:

    (nach Wikipedia)

    Benoit Mandelbaum prägte auch die Bezeichnung „Fraktale“ mit Blick darauf dass sich diese Figuren nicht durch die gewöhnlichen Dimensionen 1 – 2 – 3  (Länge - Fläche - Raum) beschreiben lassen sondern nur durch eine gebrochene Dimension (etwas, was dem Alltagsverstand nicht eben einleuchtet).

    Wir haben oben schon festgestellt dass das menschliche Auge/Gehirn offenbar eine besondere Affinität zu Fraktalen besitzt – vielleicht weil sie so natürlich wirken?! Außerordentlicher Beliebtheit erfreuen sich fraktale Formen in der Computerkunst / Digital Art. Als Mandelbrot-Menge respektive Julia-Menge, oder auch nach anderen Bildungsgesetzen lassen sie sich mit Computerwerkzeugen leicht generieren und dienen als Ausgangspunkt für eine unendliche Fülle ästhetisch ansprechender abstrakter Grafiken. Eine größere Zahl solcher Programme unterschiedlicher Komplexität sind kommerziell oder frei im Netz zu finden.  Das folgende Bild  wurde von Robert Sontheimer mit dem von ihm selbst entwickelten und als Freeware erhältlichen Programm „Fractalizer“ erstellt.

    Mit dem gleichen Programm hat der Autor zahlreiche Bilder erspielt, von denen sich eine Auswahl hier findet.


     

    5  Schlussbemerkung

    Das im Laufe der Evolution entwickelte und von jedem einzelnen Menschen in den ersten Monaten und Jahren seines Lebens auf Alltagstauglichkeit hin trainierte Gehirn versagt im intuitiven Urteil wenn es  um Fakten geht die abseits seiner gewohnten Erlebniswelt liegen.  Dass der Mensch gleichwohl solche Fakten erkennen kann verdankt er seiner Fähigkeit mathematische Beziehungen zwischen physikalischen Größen aufzustellen:

    "Mathematik ist die Sprache in der Gott das Universum schrieb." (Galileo Galilei).

    Mit Hilfe der Mathematik baut sich der Mensch handhabbare Bilder der Wirklichkeit: „Modelle“. Der große Mathematiker und einer der Väter des Computers John von Neumann (1903-1957) sagte dazu (zitiert nach Gleick):
     

       „Die Naturwissenschaften wollen nicht erklären, sie wollen selten etwas interpretieren, sie schaffen in der Hauptsache Modelle. Mit einem Modell ist ein mathematisches Konstrukt gemeint, das unter Zusatz bestimmter sprachlicher Interpretationen Phänomene der Beobachtungswelt beschreibt. Die Berechtigung eines solchen mathematischen Konstruktes beruht einzig und allein auf der Hoffnung, dass es funktioniert.“

    Modelle sollen eine Anzahl vereinzelter Fakten in einem umfassenden Beschreibungsrahmen zusammenfassen. Modelle  sollen  aber nicht  allein  ohnehin  Bekanntes  nachvollziehen.
    Modelle  sind  erst  dann wirklich  wertvoll  wenn   sie  überprüfbare  Aussagen  und  Vorhersagen  machen  welche  auf  andere Weise  unmöglich  wären  -  die  uns  überraschen  -  ja  die  zunächst  unseren  Widerspruch  hervorrufen,  weil  sie  den  Erwartungen und  Vorstellungen unseres Alltagsverstandes widersprechen.
     


     
     

    Verwendete und empfohlene Literatur

    Die Links entsprechen dem Stand von Mitte Mai 2010

    Wie immer findet man bei Wikipedia gute Übersichten sowie Artikel zu Einzelfragen; auf eine ermüdende Aufzählung wird  verzichtet.

    Die Fülle und die Leere

    Verwendete Daten zur Atomphysik finden sich hier:
    http://de.wikipedia.org/wiki/Atom
    http://de.wikipedia.org/wiki/Kohlenstoff
    http://de.wikipedia.org/wiki/Avogadro-Konstante

    Wahrscheinlichkeiten

    Statistische Daten für den Personenverkehr in 2008 (im Text verwendet noch 2007)
    http://www.allianz-pro-schiene.de/sicherheit/sicherheitsvergleich-der-verkehrsmittel/

    Ein viel diskutiertes Problem von verschiedenen Seiten beleuchtet - eine gut lesbare Einführung in das Thema  "Wahrscheinlichkeit"
    Gero von Randow: "Das Ziegenproblem - Denken in Wahrscheinlichkeiten"
    Rowohlt 1992    1090-ISBN 3 499 19337 X
     
     

    Relativitätstheorien

    Der Klassiker gibt auch eine Übersicht über die Relativitätstheorien
    Stephen W. Hawking: Eine kurze Geschichte der Zeit
    Rowohl 1988  ISBN  3 498 028847

    Das Buch über die Superstring-Theorien enthält auch sehr anschauliche Abschnitte über die Relativitätstheorien.
    Brian Greene: The Elegant Universe
    Random House 1999     ISBN 0 09 928992 X

    Die Aussagen der Speziellen Relativitätstheorie werden abgeleitet, auf wissenschaftliche Sauberkeit wird großer Wert gelegt
    Franz Embacher: Spezielle Relativitätstheorie
    http://homepage.univie.ac.at/Franz.Embacher/SRT/

    Schöne Animationen zur Speziellen Relativitätstheorie
    Franz Embacher: Effekte der Speziellen Relativitätstheorie
    http://homepage.univie.ac.at/Franz.Embacher/Rel/Effekte
    (Verfügbarkeit 2010?)

    Schritt für Schritt – ganz einfach, ohne jede Formeln
    Max-Planck-Institut für Gravitationsphysik: Einstein für Einsteiger
    http://www.einstein-online.info/de/einsteiger/index.html

    Beschreibung der Gedankenversuche, keinerlei Formeln
    Dr. Franke-Consulting: Spezielle Relativitätstheorie
    http://www.uni-protokolle.de/Lexikon/Spezielle_Relativit%E4tstheorie.html

    Übersichtliche Darstellung vieler Effekte
    Philipp Wehrli: Die spezielle Relativittstheorie
    http://homepage.hispeed.ch/philipp.wehrli/Physik/Relativitaetstheorie/spezielle_Relativitaetstheorie/spezielle_relativitaetstheorie.html

    Zahlen zu den relativistischen Effekten beim GPS
    Joachim Schulz: Beweist das Global Positioning System (GPS) die Relativitätstheorie?
    http://www.relativitaetsprinzip.info/faq/gps-beweist-relativitaetstheorie.html

    Enthält ein gutes Übersichtskapitel zu den Relativitätstheorien
    Lisa Randall: Verborgene Universen S. Fischer 2006
    ISBN  978-3-596-17438-6

    Enthält ein prägnantes Übersichtskapitel zu den Relativitätstheorien
    J. Richard Gott: Zeitreisen in Einsteins Universum
    Rowohlt 2003   ISBN 3 499 61577 0

    Enthält eine ausführliche Darstellung mit vielen Gedankenexperimenten
    Brian Green: The Elegant Universe
    Vintage 1999 ISBN 0 09 928992 X

    Originaltexte zu den Relativitätstheorien

    Albert Einstein: Zur Elektrodynamik bewegter Körper 1905 Faksimile
    http://users.physik.fu-berlin.de/~kleinert/files/1905_17_891-921.pdf

    Albert Einstein: Zur Elektrodynamik bewegter Körper 1905 Kommentiert und erläutert
    http://de.wikibooks.org/wiki/A._Einstein:_Kommentare_und_Erl%C3%A4uterungen:_Zur_Elektrodynamik_bewegter_K%C3%B6rper

    Albert Einstein: Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig? 1905 Faksimile
    http://www.zbp.univie.ac.at/dokumente/einstein4.pdf

    Albert Einstein: Die Grundlage der allgemeinen Relativitätstheorie  1916 Faksimile
    http://www.alberteinstein.info/gallery/pdf/CP6Doc30_pp284-339.pdf

    Albert Einstein: Über die spezielle und die allgemeine Relativitätstheorie1917
    http://www.ideayayinevi.com/metinler/relativitetstheorie/oggk00.htm

    Hermann Minkowski: Vortrag „Raum und Zeit“
    http://de.wikisource.org/wiki/Raum_und_Zeit_(Minkowski)
     

    Quantenphysik

    Darstellung quantenphysikalischer Prinzipien am Beispiel der linearen Polarisation, mit starken Bezügen zur Wissenschafts- und Erkenntnisphilosophie
    Jürgen Audretsch: Die sonderbare Welt der Quanten
    Verlag C.H.Beck oHG, München 2008     ISBN 978 3 406 573514

    Sehr umfassend, geht auch auf Anwendungen ein, eigentlich gut verständlich aber stellenweise mathematisch anspruchsvoll
    Silvia Arroyo Camejo: Skurrile Quantenwelt
    Fischer 2007      ISBN 978-3-596-17489-8

    Das Buch über die Superstring-Theorien enthält auch ein gutes Kapitel über Quan-tenphysik
    Brian Greene: The Elegant Universe
    Random House 1999     ISBN 0 09 928992 X

    Enthält auch ein Übersichtskapitel zur Quantenphysik
    Lisa Randall: Verborgene Universen  S. Fischer 2006
    ISBN  978-3-596-17438-6

    Geschichte und Inhalte der Quantenphysik, klar und ausführlich
    John Gribbin: Auf der Suche nach Schrödingers Katze
    Piper 1987    ISBN  978-3-492-24030-7

    Geschichte und Inhalte der Quantenphysik, neuere Erkenntnisse und Deutungen
    John Gribbin: Schrödingers Kätzchen
    Fischer 1998     ISBN 3-596-14151-6

    Das Prinzip der Quantenelektrodynamik – ganz ohne Mathematik erklärt
    Richard P. Feynman: QED Die seltsame Theorie des Lichtes und der Materie
    Piper 1988    ISBN-10: 3-492-04894-3
     

    Deterministisches Chaos und Fraktale

    Eine umfassende  Übersicht über die Forschung auf dem Gebiet der Dynamik kom-plexer Systeme, Schwerpunkt Arbeiten in USA.
    James Gleick: Chaos – die Ordnung des Universums
    Knaur Sachbuch 1990   ISBN 3-426-04078-6

    Reich illustrierter Überblick über Chaosforschung mit einem Akzent auf deutschen Arbeiten.
    Chaos und Kreativität
    GEO WISSEN 1990   ISBN 3-570-06644-4

    Chaosforschung als Aspekt der erwarteten Entdeckung holistischer Naturgesetze
    Paul Davies: The Cosmic Blueprint als Hoffnung
    Touchstone 1988 ISBN 0-0671-60233-0

    Der Vortrag auf den der Begriff „Schmetterlingseffekt“ zurückgeht
    Edward N. Lorenz : "Predictability : Does the Flap of a Butterfly’s Wing in Brazil Set Off a Tornado in Texas?"
    http://eapsweb.mit.edu/research/Lorenz/Butterfly_1972.pdf

    Animation des mathematischen (idealisierten) Doppelpendels
    http://de.wikipedia.org/wiki/Doppelpendel

    Ein empfehlenswertes Programm zur Erzeugung von Bildern mit Mandelbrot- und Julia-Mengen
    Robert Sontheimer: "Fractalizer"
    http://www.fractalizer.de/
     
     

    Einführg  Ergänzungen
    Stellung in der Welt
    In Raum und Zeit
    Die Evolution
    Aberglauben, Religion

    Zurück zu Willkommen