Im Film Oppenheimer, den ich zum Zeitpunkt des Erscheinen dieses Artikels 24 Stunden im Kino und 3 Stunden zu Hause auf BlueRay…
… gesehen haben sollte, kann das zentrale Thema sehr stark vereinfacht, aber nicht unzulaessig, als „die Angst der Wissenschaftler die Atmosphaere zu entzuenden“ zusammengefasst werden. Das soll diesbezueglich hier und heute reichen und ich diskutiere das vielleicht nochmal genauer an anderer Stelle.
Mir geht es heute aber ganz konkret genau darum, dass die Wissenschaftler des Manhatten Projektes fuer eine Weile ernsthaft das Folgende diskutierten: unter der Annahme, dass eine auf Kernspaltung basierte Bombe, so viel Energie frei setzt, dass es zu einer Fusion (!) von Stickstoffatomen kommt, kann die durch die Fusion frei werdende Energie diese Reaktion in Gang halten?
Neulich stiesz ich auf den Los Alamos National Laboratory Originalbericht dazu, von E. J. Konopinski, C. Marvin, und E. Teller aus dem Jahre 1946. Der entstand zwar erst im Nachhinein, aber fasst besagte Diskussion zusammen und ist ein wirklich gutes Beispiel dafuer, wie man informierte Entscheidungen selbst bei Abhandensein gewisser nøtiger Informationen machen kann, aufgrund von (notwendigerweise konservativen) Abschaetzungen.
Kurz (und vereinfachend) gesagt wird zunaechst berechnet, wie oft Stickstoffatome zusammenstoszen (denn meistens fliegen die aneinander vorbei) und fusionieren und wieviel Energie dabei pro Sekunde und Kubikmeter Luft produziert wird. Dabei wird vom schlimmsten Fall ausgegangen, dass alle Støsze frontal aufeinander sind (sehr unrealistisch) UND dass jeder Zusammenstosz eine Fusion zur Folge hat (auch sehr unrealistisch, denn andere Reaktionen, wie Emsission von Alpha Partikeln und so, sind viel wahrscheinlicher).
Dann wird berechnet, wieviel Energie verloren geht. Dies geschieht hauptsaechlich durch Bremsstrahlung; schnelle (vulgo: heisze) Elektronen werden gebremst und der Energieunterschied wird in Form von Strahlung … øhm … abgestrahlt. Diese Energie steht dann der Fusionsreaktion nicht mehr zur Verfuegung, denn es benøtigt „feste Partikel“ die gegen die Stickstoffatome „prallen“ um die aufzuheizen … nicht vergessen: Temperatur entspricht der kinetischen Energie der Teilchen und beim „Teilchenbilliard“ wird besagte Bewegungsenergie ja durch andere „Billiardkugeln“ uebertragen.
Bei all dem werden „Nebenprozesse“ weg gelassen. Oder anders: es wird (A) davon ausgegangen, dass die Energie immer auf die effektivste Weise produziert wird und (B) andere Prozesse die zu Energieverlust fuehren, werden nicht in Betracht gezogen (man nimmt also an, dass es die nicht gibt und die Energie somit nicht durch solche Nebenprozesse verloren geht).
Energieverlust und -produktion werden dann ins Verhaeltniss gesetzt und das ergibt den Sicherheitsfaktor, von dem man møchte, dass der grøszer als 1 ist. Der Strahlungsverlust soll also grøszer sein als die Energieproduktion. Und dem ist zum Glueck so.
Dummerweise sind alle Grøszen abhaengig von der involvierten Energie, also wie schnell die Stickstoffatome (und Elektronen) sind. Sehr kalte Teilchen haben keine grosze Chance zu fusionieren und dadurch wird nur wenig Energie produziert. Sehr schnelle Teilchen fusionieren zwar oft und produzieren viel Energie, aber der Bremsstrahlungsmechanismus wird dabei auch sehr effektiv und ueberkompensiert Ersteres. Brenzlig wirds mittendrin und wenn man aus Sicherheitsgruenden die konservativsten Annahmen trifft kommt der Sicherheitsfaktor mit einem Wert von 1.6 der eins ganz schøn nahe.
Solche „mittendrin“ Energien sind aber immer noch sehr hoch und konnten durch die beim Manhattan Projekt entwickelten Bomben nicht produziert werden. Auch Weiterentwicklungen seitdem schaffen das nicht wirklich (zumindest nicht in ausreichendem Masze).
Nur um sicher zu gehen, ging die Diskussion dennoch auf eine andere Art und Weise weiter und die Wissenschaftler beschaeftigten sich mit der folgenden Frage: wieviel Luft muss man initial heisz genug machen, sodass die Reaktion sich von alleine fortsetzen kann (unter der Annahme, dass der Sicherheitsfaktor kleiner ist als oben berechnet).
Der Hintergrund liegt darin, dass bei einer zu kleinen Kugel die Oberflaeche im Verhaeltniss zum Volumen sehr grosz ist und deswegen durch besagte Oberflaeche mehr Energie abgestraehlt, als im Inneren produziert wird. Das ist also der gleiche Effekt, warum Pinguine in Suedafrika kleiner sind als die Pinguine am Suedpol.
Die Antwort: solch ein (Kugel)Volumen muss einen Durchmesser von ueber 100 Meter haben. Um ein solches Volumen genuegend aufzuheizen, sodass die Partikel schnell (vulgo: heisz) genug sind fuer einen kleinstmøglichen Sichterheitsfaktor, wuerde man ueber 1 Million Kilogramm spaltbares Material brauchen … WENN Letzteres zu 100 % gespaltetet werden wuerde (und somit die entsprechende Energie frei wird). In der Realitaet sind die 100 % eher um nur ca. ein Prozent.
Als Letztes wird ein weiterer wichtiger Energieverlustmechanismus diskutiert, der die obigen Zahlen noch unrealistischer macht.
Wir haben also:
– der Sicherheit wegen wird von extrem konservativen (vulgo: im Wesentlichen unrealistischen) Annahmen ausgegangen,
– der Sicherheitsfaktor bleibt trotzdem immer grøszer als 1,
– kommt fuer gewisse høhere Energien der 1 aber nahe,
– aber solche Energien kønnen nicht produziert werden,
– und selbst wenn solche Energien produziert werden kønnten und der Sicherheitsfaktor unter 1 fallen wuerde (die Berechnungen also nicht ganz richtig sind), wuerde man dafuer bei 100 % Effizienz absurd viel spaltbares Material benøtigen damit es zu einer fortlaufenden Reaktion kommen kann,
– und in der Wirklichkeit ist die Effizienz VIEL kleiner als 100 %.
Lange Rede kurzer Sinn: die von Edward Teller vorgebrachte Reaktion ist echt und ein Weltbrand kann daraus als Schlussfolgerung gezogen werden. Deswegen war die ausfuehrliche Beaschaeftigung mit dem Thema extrem wichtig. Eine SEHR konservative Abschaetzung zeigt aber deutlich auf, dass das nicht passieren wird.
Abschlieszend dazu noch ein Kommentar bezueglich den „Chances are near zero„. Das bezieht sich NICHT auf die obigen Rechnungen. Das ist also NICHT das was viele unter „Quantenmechanik“ verstehen. Es geht also NICHT darum, dass das Eintreten eines Ereignisses eine Wahrscheinlichkeiten ist und „near zero“ bedeuten wuerde, dass ein Ereignis irgendwie doch eintreten kann.
Das „near zero“ bezieht sich darauf, dass die Wissenschaftler, in typischer wissenschaftlicher Manier, es nicht ausschlieszen wollten, dass sie einen Fehler gemacht haben oder dass es nicht doch einen bisher unbekannten Mechanismus gibt, der eine fortdauernde Fusionsreaktion von Stickstoff erlaubt haette.
Mit den getroffenen extrem konservativen Annahmen waren besagte Wissenschaftler allerdings so ueberzeugt davon, dass ihr Bild von der Welt vom Universum richtig ist, dass sie dieser Møglichkeit eine „near zero“ Chance gaben.
Oder anders gesagt: das Universum sagte in Form der Physik, dass die Atmosphaere nicht entzuendet werden wird: Wahrscheinlichkeit gleich Null … aber die involvierten Menschen wollten nicht ausschlieszen, dass sich nicht vielleicht doch noch etwas (zum Thema relevantes!) hinter dem „Schleier“ versteckt von dem sie nix wissen. Letzteres kann man aber niemals in Formeln packen und deswegen auch nicht abschaetzen. Wie soll man eine Aussage ueber etwas treffen von dem man weder weisz ob es NICHT existiert noch ob es existiert? (Das geht in eine aehnliche Richtung wie Russels Teekanne.) Zu dem Zeitpunkt wusste die Menschheit allerdings bereits so viel ueber das Universum, dass die Wahrscheinlichkeit der Existenz einer solchen (zum Thema relevanten) Sache als „near zero“ eingestuft wurde.
Der Film macht da aus (nicht nur) dramaturgischen Gruenden ein viel grøszeres Buhei draus, als es in Echt wahr. Meiner Meinung nach ist es aber Christopher Nolans (filmtechnischer) Genialitaet zu verdanken, dass er diesen „Kniff“ (nicht abschaetzend gemeint) nicht nur erkannte sondern auch hervorragend (auf verschiedenen Ebenen) umzusetzen wusste.
Wie gesagt, dazu vielleicht (mglw. aber nicht) mehr an anderer Stelle. Fuer heute soll es genug sein.
Leave a Reply