Als ich mich das erste Mal mit der Verteilung der Laenge der Wikipediaartikeltitel beschaeftigte, simulierte ich sehr viele Namen um etwas genauer zu untersuchen und meinte beim letzten Mal bzgl. der Simulation:

Auch wenn ich das Programm dazu gerade nochmal neu schreibe, werde ich das hier nicht wiederholen, denn diese Simulation war von externen Daten abhaengig und wuerde heute genauso ausfallen.

Und damit lag ich zwar nicht komplett daneben … es war aber auch nicht ganz richtig, denn ich kam sehr wohl auf andere Ergebnisse. Dazu weiter unten mehr.

Zunaechst møchte ich aber nochmal darauf eingehen, wieviele Vornamen man braucht um 50 Prozent aller Babies einen Namen zu geben (wenn diese nach der Beliebtheit ihrer Vornamen sortiert werden). Das war selbst mir zu periphaer vor drei Jahren und ich hatte das deswegen in den damaligen Geburtstagsbeitrag ausgelagert (ich meine das zweite Bild). Dabei hatte ich aber nur Daten betrachtet die „ueber alle Babies gehen“ (also eine Art „Summensignal“).
Jetzt beim Neuschreiben der Programme fuegte ich eine Funktion ein, welche mir auch die zwei Teile dieses „Summensignals“ separat ausspuckt. Oder anders: ich habe jetzt auch nach Maechen und Jungs getrennte Ergebnisse und das sieht so aus:

Das „Summensignal“ (graue Punkte) ist das Selbe wie beim vor drei Jahren (auszer, dass drei weitere Jahre dazugekommen sind). Ich fand es aber erstaunlich, dass die Variation bei den Maedchennamen immer ca. 1.5 bis fast 3 Mal grøszer ist (siehe die blauen Punkte). Maedchennamen machen also den Hauptteil am Summensignal aus und deswegen bringe ich das hier doch nochmal, denn das habe ich ja damals ueberhaupt nicht gesehen.
Nun stellt sich natuerlich die Frage warum das so ist, welche ich hier aber nicht beantworten kann (einfach weil ich’s nicht weisz und nicht wuesste wie ich an entsprechende Daten kommen kønnte). Aber zwei potentielle Ursachen fallen mir ein. Zum Einen, kønnten Jungs staerker irgendwelchen Namenstraditionen unterliegen als Maedchen; der Uroppa hiesz schon so und deswegen heiszt der Enkel auch so. Zum Anderen kønnte es aber auch sein, dass es mglw. mehr Maedchennamen als Jungsnamen gibt; der „Maedchennamentopf“ ist also „grøszer“. Das wuerde nicht mal unbedingt mit dem Anstieg ab ca. Mitte der 80er Jahre im Konflikt stehen, denn das Verhaeltniss der Namen bleibt (so ungefaehr) das Gleiche. Besagter Anstieg haengt mglw. mit dem demographische Wandel in den USA zusammen, was zu einem (viel) mehr an Namen fuehrt. Aber dieses „Mehr an Namen“ verteilt sich (mehr oder weniger) gleichmaeszig ueber Jungs- als auch Maedchennamen.

Das war das Ergebnis das sich nicht aenderte. Im gleichen Geburtstagseintrag zeigte ich aber auch die Parameter der Gausskurven fuer jaehrliche Simulationen … und die haben sich geaendert. Hier sieht man das fuer die Position des Zentrums …

… welches im Mittel jetzt sogar noch besser mit dem beim letzten Mal erwaehnten „Hauptprozess“ uebereinstimmt … und hier fuer die Amplitude und Standardabweichung besagter jaehrlichen Gaussfits:

Zum Glueck liegen die Ergebnisse nicht nur in der selben Grøszenordnung, sondern auch innerhalb des selben (sehr engen) Bereichs. Auszerdem sind die allgemeinen Merkmale (wann die Kurven hoch oder runter gehen bzw. so ungefaehr gleich bleiben) im Wesentlichen auch die Gleichen. Ja es gibt Abweichungen (die ja auch der Grund sind, warum ich das hier doch nochmal bringe) aber weil sich das alles ohnehin in sehr engen (Zahlen)Bereichen befindet sind sowieso nur die grøszeren Trends von Interesse und deswegen aendert sich an meinen damaligen Aussagen nix.

Aber es machte mich natuerlich sehr stutzig, dass bei gleichen Ausgangsdaten (zur Erinnerung: fuer diese Simulationen benutzte ich externe Namensdaten und nicht die Wikipedia und an denen hat sich nix geaendert seit 2021) und eigentlich (und auch uneigentlich) gleicher Methode ueberhaupt etwas anderes raus kam.
Es stellte sich heraus, dass der Fehler bei mir lag. Zur Erinnerung: beim zufaelligen „Ziehen“ von Namen aus dem groszen Namenstopf war die Wahrscheinlichkeit einen bestimmten Namen zu ziehen davon abhaengig wie oft der (im jeweiligen Jahr) an Babies vergeben wurde. Fuer 1880 gab es also viele Marys und Johns im Namenstopf, aber nur sehr wenige Wilmas und Zachariahs.
Wie oft ein Name im Topf vorkommt berechnete ich nun so, dass ich die Anzahl der Babies mit einem gewissen Namen durch die Anzahl aller Babies teilte (so weit so gut) und dann mit der Anzahl der Namen die ich insgesamt simulieren wollte multiplizierte (immer noch so weit so gut). Aber weil ich bei meinem selbtgeschriebenen „Namen-aus-dem-Topf-zieh“-Algorithmus nur mit ganzen Zahlen arbeiten konnte, hab ich bei dezimalen Wahrscheinlichkeiten einfach alles nach der ganzen Zahl abgeschnitten. Fuer Namen die im Namenstopf oft genug vorkommen macht das keinen groszen Unterschied. 23517.5 ist nicht viel anders als 23517 … das kann man sogar fuer 10.9 noch argumentieren … mglw. sogar noch fuer 5.5 oder auch fuer 3.9 (selbst hier ist der Fehler ja nicht mal 25 %).

Aber bei all zu kleinen Zahlen kann das Abschneiden der Dezimalstellen im Groszen und Ganzen zu Problemen fuehren, denn es gibt recht viele Namen die bei meinem „selbstgestrickten“ Algorithmus nur ein- oder zweimal im Namenstopf waren und deswegen im Extramfall nur halb so oft gezogen wurden, wie sie haetten gezogen werden sollen.
Beim nochmal Neuschreiben des Programms habe ich das nicht nochmal selbst geschrieben, sondern geschaut was in den vielen umfangreichen Mathebibliotheken von Python zu finden ist und ein entsprechendes Modul benutzt. Besagtes Modul macht alles richtig und deswegen sieht es jetzt anders aus, weil die „Ziehwahrscheinlichkeit“ nun auch fuer sehr selten vorkommende Namen richtig ist.
Zum Glueck ist es aber so, dass sehr selten vorkommende Namen nur sehr selten gezogen werden (selbst wenn mein erster Algorithmus die sogar noch seltener gezogen hat) und deswegen sind die ersten Ergebnisse nicht komplett falsch sondern nur im Detail.

So, das soll jetzt dazu reichen und ich verbleibe wie beim letzten Mal:

[…] wenn ich das richtig sehe, dann gibt’s beim naechsten Mal nicht so viel zu schreiben … aber ich sollte lieber nix versprechen, was ich vermutlich nicht halten kann.

Aus Kyoto springen wir nochmals in den Norden nach Sapporo denn nicht nur sind dort einige Haeuser … nun ja, mindestens eins … mit Zahlen zum besseren Zaehlen versehen, sondern es gibt auch (mindestens eine) Treppe(n) die die verbrauchten Kalorien zaehlen:

Ich versuche ohnehin immer die Treppen zu nehmen  … mit der Einschraenkung, dass ich bei fuenf  Stockwerke die Grenze ziehe … oder wenn ich schwere Dinge bei mir habe … oder wenn es eine Rolltreppe gibt, denn die sind viel zu spassig um die nicht zu benutzen.
Im Wesentlichen mache ich das wg. des selben Hintergrunds warum hier die „verbrannten Kalorien“ angezeigt werden. Das hatte den schønen Nebeneffekt, dass ich mir das Treppensteigen waehrend der Coronapandemie nicht erst 0angewøhnen musste.

Worauf ich aber hinaus will ist, dass es selbst mich noch mehr motiviert die Treppe zu nehmen, wenn es einen Kalorienzaehler gibt und ich finde, dass es den bei allen Treppen geben sollte. Es ist naemlich voll fein sofort eine positive (wenn auch indirekte) „Bemerkung“ zu bekommen, wenn man was fuer die Gesundheit Gutes tut … und mglw. wuerde sich meine oben erwaehnte Grenze vllt. sogar ausdehnen auf sechs, sieben, oder vielleicht sogar noch mehr, Stockwerke, wenn as an allen Treppen angezeigt werden wuerde.

Und mehr gibt’s dazu auch gar nicht zu sagen :)

Ganz unabhaengig von der Linknetzwerkanalyse betrachte ich damals die Titellaengen etwas genauer. Hier von Interesse ist nur die Verteilung derselben und daran hat sich wenig geaendert:

Das Integral unter der Kurve ist jetzt etwas grøszer (entsprechend der Anzahl der dazugekommenen Artikel), aber die Form ist so sehr die Gleiche, dass es fast schon das Selbe ist … mhmm … sprachlich gesehen ist „fast das Selbe“ sowas wie „fast schwanger“ … also Quatsch … aber ihr, meine lieben Leserinnen und Leser wisst sicherlich worauf ich hinaus will … aber ich schwoff ab.

Wenn man annimmt, dass alle neuen Artikel sich im Durchschnitt wie alle bereits vorhandenen Artikel „verhalten“ (und das schlieszt die Artikeltitel ein) war das zu erwarten. Und dies ist eine sehr sinnvolle Annahme und jede andere Annahme muss SEHR gut begruendet sein! Natuerlich sind Abweichungen vom Durchschnitt denkbar. „Nichtdurchschnittlich“ ist es bspw., wenn in den drei dazwischen liegenden Jahren nur Artikel ueber chemische Verbindungen mit langen Namen neu hinzugekommen waeren. So eine Anomalie ist an sich natuerlich interessant, aber die Wahrscheinlichkeit dafuer ist gering und deswegen verteilen sich Laengen der neuen Artikeltitel im Wesentlichen so wie die alten.

Damals konnte ich die Form der Verteilung mittels dreier (gaussverteilter) Prozesse anpassen. Fuer den staerksten dieser drei Prozesse versuchte ich die (Haupt)Ursache zu finden und landete letztlich auf Namen von (mehr oder weniger) beruehmten Leuten.
Dafuer simulierte ich vor drei Jahren zunaechst sehr viele Namen und konnte tatsaechlich (innerhalb vernuenftiger Grenzen) das Zentrum und die Amplitude des ersten erwaehnten Prozesses nachempfinden. Auch wenn ich das Programm dazu gerade nochmal neu schreibe, werde ich das hier nicht wiederholen, denn diese Simulation war von externen Daten abhaengig und wuerde heute genauso ausfallen.

Danach kam ich dann drauf mal zu schauen, ob es bei der Wikipedia vielleicht eine Kategorienseite mit links zu Seiten von Leuten gibt. Die gibt es, aber leider verteilen sich die fast 2 Millionen Seiten zu Leuten auf etlichen tausend Kategorien, weil die vielen Menschen alle fuer unterschiedliche Sachen beruehmt sind.
Einen leider nur halben Ausweg war die Kategorieseite aller lebenden Menschen. Halb deswegen, weil sich dort nur ca. 60 Prozent aller Seiten zu Leuten finden lassen. Das restliche Drittel sind schon verstorbene Menschen und die entsprechende Kategorieseite listet leider nicht die Links zu den Seiten sondern wieder nur die (vielen) Kategorieseiten unter die diese Leute fallen (fielen?).
Aber mit den 2/3 konnte ich zumindest eingeschraenkt arbeiten und die Verteilung der Titellaengen von Seiten zu lebenden Menschen hatte das Zentrum auch an der richtigen Stelle (weil aber so viele fehlten war die Amplitude nur halb so grosz wie die des erwaehnten Hauptprozesses).

Als ich die entsprechenden Programme nochmal schrieb, schaute ich wieder ueber viele Kategorieseiten und stolperte letztlich ueber die Kategorien Births per year und Deaths per year. Da sind die Leute zwar auch nicht direkt aufgelistet, aber die Links zu den Unterkategorien der Leute die in den entsprechenden Jahr geboren / gestorben sind ist systematisch und mit systematischen Sachen kann ich arbeiten.
Und siehe da …

… ich konnte die allermeisten Seiten zu Leuten finden (und nicht nur ca. 60 %). Das sind sicherlich immer noch nicht alle Seiten zu Leuten, denn Autoren muessen die in den entsprechenden Kategorien eintragen, aber ich wuerde schaetzen, dass mir weniger als 5 % fehlen.
Und das Gute ist, dass sich nicht nur das Zentrum nicht verschiebt, sondern die Amplitude der neuen Daten 2/3 der Amplitude des besagten staerksten Prozesses erreicht. Damit ist das Ergebnis nahe genug dran, dass das fuer sich selber spricht und ich das so stehen lassen kann und (anders als damals) nicht rumdiskutieren muss, warum ich denke, dass die Daten (trotz merklich kleinerer Amplitude) vermutlich dennoch richtig sind.

Genug fuer heute … wenn ich das richtig sehe, dann gibt’s beim naechsten Mal nicht so viel zu schreiben … aber ich sollte lieber nix versprechen, was ich vermutlich nicht halten kann.

Ich hab ’n Kollegen der ist urspruenglich auch aus Dtschl. Dessen Vater hatte ’n Hotel und (wenn ich das richtig verstehe) war deswegen bekannt mit Artur Fischer … der mit den Duebeln. Deswegen traf mein Kollege den auch manchmal und bei einem dieser Begegnungen hat er diese Autogrammkarte mit den Originalunterschriften der Apollo 11 Astronauten geschenkt bekommen:

Klar, die sind sicherlich zu hunderten, wenn nicht sogar zu tausenden verteilt worden an alle die irgendwie mit dem Apolloprojekt zu tun hatten. … … … und es wuerde mich nicht im Geringsten wundern, wenn Artur Fischer irgendwie an einer kleinen Sache mit dem Apolloprojekt zu tun hatte. Auch ist die Widmung sicherlich von wem anders geschrieben worden und das „Gesamtkunstwerk“ wurde den Astronauten dann nur zur Unterschrift vorgelegt.

Aber dennoch, die Signaturen sind echt (also nicht nur fotokopiert oder so) und damit hatten die zwei ersten auf dem Mond wandelnden Menschen und ihr nicht minder wichtiger … vermutlich sogar wichtigerer … im Mondorbit verbliebender Mitraumfahrer das in der Hand … und da ich das Foto mit den Unterschriften in der Hand hatte, folgt aufgrund transitiver Relationen, dass ich auch auf dem Mond war dem Mond (im uebertragenen Sinne) nun ein gutes gigantisches Stueckchen naeher bin als die meisten Menschen … fetzt wa!

Beim letzten Mal wurde die letzte, mir bekannte Ursache fuer Feinstaub in der Kueche betrachtet. Zusammen mit den vorher behandelten Gruenden konnten damit im Uebersichtsdiagramm fast alle Spitzen erklaert werden. Aber eben nur fast, denn ein paar Ereignisse stehen weiterhin ohne Erklaerung da. Ich habe die hier mal mittels Zahlen gekennzeichnet und gehe die heute alle durch:

Die drei Spitzen bei der #1 muessen unerklaert bleiben. Ich habe keine Ahnung, was da zwischen nachts drei Uhr und morgens sechs Uhr passiert sein kønnte. Fluktuationen sind aber zu erwarten. Vielleicht ist ’ne Fliege vorbeigeflattert, oder der Kompressor des Kuehlschranks hat mal ungewøhnlich stark gerumpelt. Ich kann leider auch nicht sicher sagen, ob da auch immer was bei anderen Tagen (in dem selben Zeitraum) geschieht. Am Tag danach gibt’s eine kleine Spitze gegen 4 Uhr und am letzten vollstaendigen Messtag ist auch was gegen 3 Uhr (beide nicht gekennzeichnet). Aber bei allen anderen Tagen ist da entweder nix, oder wenn da was ist, dann geht das im „Reststaub“ von vorhererigen Kuechengeschehnissen unter. Ich muss also zugeben, dass ich das nicht aufklaeren kann.

Alle Spitzen von #2 bis #9 geschehen in Zeitraeumen zwischen 12 Uhr und dem Kochen des Abendmahls. Diese sind aber nicht regelmaeszig, bzw. mache ich da nix regelmaesziges in der Kueche, dem ich das zuordnen kønnte. Andererseits ist die Kueche auch ein hoch frequentierter Ort (vermutlich mehr als die Toilette); dort ist also immer was los. Und wenn ich da so mal drueber nachdenke, dann waere es eher verwunderlich, wenn in dem Zeitraum nix waere, denn wenn wer zu Hause ist, wir mal ’n Tee aufgebrueht, oder ’n Toast gemacht, oder man raeumt auf und wischt dabei den Tisch ab, oder der Einkauf wird in die Schraenke einsortiert etc. pp. Es sind aber alles so „kleine“ Sachen, dass die nicht mit einer groszen Staubentwicklung und auch mit keiner Waermeentwicklung einhergehen.
Im Gegensatz zu #1 sind das also keine mysteriøsen Geschehnisse, sondern einfach nur unterschiedliche aber gewøhnliche Kuechenaktivitaeten.

Die #10 ist ganz einfach, denn das sieht mir nach einer „Brotschmieraktivitaet“ aus und ich hatte das nur vergessen einzutragen, als ich solche Ereignisse besprach.

So … das war’s mit den Feinstaubmessungen in der Kueche, aber das war’s noch nicht insgesamt. Beim naechsten Mal gehe ich noch auf ein Merkmal der Temperturentwicklung ein, bevor ich mich kurz drauszen durchgefuehrten Feinstaubmessungen widme.

Wie erwaehnt fehlt in diesem Projekt noch eine grosze und wichtige Sache: sind die Ergebnisse reproduzierbar?

Diese Frage konnte natuerlich nicht mit den selben Daten beantwortet werden und deshalb lud ich mir Ende November 2023 die Wikipedia nochmal runter. Der Prozess war wie beim ersten Mal, nur dass drei Jahre mehr Daten drin waren. Deswegen ist die entpackte Datei nun ca. 90 GB grosz (die drei Jahre juengeren Daten sind „nur“ 75 GB grosz).

Alles was ich damals tat um die relevanten Daten aus der riesigen Datei zu popeln und diese fuer die eigentliche Linknetzwerkanalyse vorzubereiten, machte ich nochmal. Die Programme dazu liesz ich im Wesentlichen unveraendert (die sind jetzt nur besser strukturiert und der Code ist besser kommentiert).
Vor drei Jahren konnte ich die urspruenglichen 75 GB letztlich auf eine nur 1.4 GB grosze (Text)Datei reduzieren. Die Zahl gab ich damals nicht an und mit der Wikipedia vom November 2023 erhøhte sich die Grøsze dieser Datei nur auf 1.6 GB

Damals verblieb ich mit 5,798,312 Wikipediaseiten und 165,913,569 Links. Die neuen Daten enthalten 6,269,403 Seiten und 198,870,985 Links.
Das kønnen wir mit der beim letzten Mal vorgestellten Information vergleichen. Am Ende der Untersuchungsperiode kamen bei der Wikipedia ca. 13-tausend neue Seiten pro Monat dazu. Drei Jahre entsprechen 36 Monaten und somit ca. 468-tausend neuen Seiten. An den Zahlen oben sieht man, das es in echt 471,091 neue Seiten waren … das ist fast schon erschreckend, wie genau die relativ grobe Abschaetzung das abbildet.

Damit fuehrte ich vom Konzept die selbe Linknetzwerkanalyse durch. Im entsprechenden Code veraenderte ich an den Analysestellen nichts. Aber zu den technische interessanten Details fuegte ich noch eine (gar nicht mal so) kleine coole Sache hinzu: die Anzahl der an der Berechnung teilnehmenden Kerne ist nun mittels der Angabe nur einer Zahl einstellbar und nicht mehr hartgecoded … cool wa. Auszerdem schrieb ich ein paar kleine Helferprogramme, welche eine (mehr oder weniger … ehrlich gesagt eher in die Richtung mehr als in die Richtung weniger) automatische Analyse erlauben. Und weil die Hardware sich in den letzten drei Jahren auch „verdoppelte“ (ich habe nun 8 anstatt nur vier Cores) waren diese Aenderungen extra cool, denn ohne weiteres Brimborium, konnte die Linknetzwerkanalyse auf noch mehr Cores gleichzeitig laufen und war noch schneller fertig.

Damit ist das was ich vor drei Jahren ueber mehrere Beitraege und Monate abhandelte auch schon fertig. Trotz der wenigen Zeilen hier war’s fuer mich ein ziemlicher Brocken Arbeit, denn ich musste habe den Code der Programme die all diese Aufgaben uebernehmen besser strukturiert, kommentiert und dokumentiert (und zum Teil auch mit ein paar kleinen Funktionalitaeten erweitert; s.o.). Prinzipiell haette ich das nicht machen brauchen, aber fuer mich zaehlt das zum Abschluss eines Projekts dazu … das muss _meinen_ aesthtetischen Beduerfnissen und allgemein _meinen_ Anspruechen genuegen.
Das ist dann auch der Grund, warum diese Teilaufgabe so schleppend voran geht, denn der Analysecode den ich ueber die drei Jahre schrieb ist katastrophal. Ich dachte doch urspruenglich, dass das nur ein paar wenige Wochen dauert. Und deswegen programmierte ich viele kleine Programme die kleine Aufgaben machen und kommentierte das oft nicht gut genug und ’ne Dokumentation hatte ich schon gar nicht. Zum Glueck habe ich die Angewohnheit schon beim coden Kommentare zu schreiben (weil ich (sicher zurecht) befuerchte, dass ich vergesse warum ich bestimmte Sachen so gecoded habe wie ich sie gecoded habe). Das kommt mir jetzt zu Gute, denn ansonsten waere ich komplett verloren in dem Codedurcheinander. Aber das geht viel besser und deswegen møchte ich das auch viel besser haben (s.o.) und beim wieder drueber gucken sehe ich auch, dass viele Programme in allgemeineren Programmen zusammengefasst werden kønnen.

Waehrend also der Code fuer die erste beiden Teile (relevante Daten sammeln und die Linknetzwerkanalyse) beinahe unveraendert blieb, schreibe ich (bin immer noch dabei) fuer die Analyse der Resultate der Linknetzwerkanalyse im Wesentlichen alles komplett neu. Klar, das was die Programme ausspucken ist das Selbe … MUSS das Selbe sein, denn ansonsten habe ich was falsch gemacht (was uebrigens auch nochmal Zeit kostet zu kontrollieren, denn ich muss die neuen Programme mit den Daten von Ende 2020 laufen lassen und dann mit den damaligen Ergebnissen vergleichen) … aber ich bin VIEL mehr zufrieden mit dem Code an sich.

Das soll reichen fuer heute. Beim naechsten Mal gibt’s dann wieder (mindestens) ein Diagramm.

Neulich stolperte ich ueber ein Kommentar (in Artikellaenge … spaeter wird klar, warum es nur zu einem Kommentar reichte) von Shizuyo Sutou in Genes and Environment, 40 (article number 26), 2018 mit dem Titel „Low-dose radiation from A-bombs elongated lifespan and reduced cancer mortality relative to un-irradiated individuals„. … … … Bei so einem Titel konnte ich das natuerlich nicht einfach liegen lassen und musste das selber lesen, denn das hørte sich doch zu sehr nach „Fischen im Trueben kleiner Fallzahlen“ und „Propaganda fuer die ueblichen Verdaechtigen an“.

Bis hierhin war meine Meinung, dass jedwede erhøhte Strahlung schlecht fuer (die allermeisten) Lebewesen ist. In meinem einfach Weltmodell natuerlich deswegen, weil Strahlung die Erbinformation zerstørt und prinzipiell Krebs oder sowas ausløsen kann. Bei leicht erhøhter Strahlung passiert das nur manchmal, bei stark erhøhter Strahlung, passiert es oft. Meine „Voreingenommenheit“ fuer diese Meinung war SEHR stark bedingt durch alles was ich wusste und den Experten die viel mehr als ich wissen folgend.

Ich habe meine Meinung diesbezueglich nicht komplett geaendert, aber nach der Lektuere des Artikels (und ich muss sagen, dass ich mich auch ’n guten Teil abseits des Artikels informiert habe) aenderte ich die „Richtung und Staerke“ meiner vorherigen Meinung signifikant (aber NICHT komplett!).
Noch waehrend des Lesens geschah die Meinungsaenderung eher widerstrebend. Die Daten und Modelle (auch abseits des Artikels!) sehen aber alle vernuenftig aus (soweit ich das beurteilen kann). Nachdem die neue Information sich etwas „setzen“ konnte stimmte ich dieser fuer mich neuen Sicht auf die Dinge dann durchaus zu, mit einem groszen ABER (worauf ich weiter unten zu sprechen komme). Spaeter setzte dann Freude ueber die Meinungsaenderung ein … so ’nem  alten Menschen wie mir faellts nicht immer leicht (vor allem vor sich selbst … mhmmmm … wenn ich Hannah Arendt richtig interpretiere mglw. sogar ausschlieszlich vor sich selbst) zuzugeben, dass man jahrelang nicht richtig (Achtung: aber auch nicht falsch!) gelegen hat.

… … … Aber der Reihe nach … … …

Zunachst zum oben verlinkten Kommentar in Artikelform. Ich empfehle das durchaus zu lesen denn der Autor hat gut Daten gesammelt und macht auf ein sehr interessantes Thema aufmerksam. In ganz kurz: die Leute die in Hiroshima und Nagasaki nur (sehr) wenig Strahlung (was immer das auch heiszen mag!) abbekommen haben, hatten in spaeteren Jahren eine geringere Wahrscheinlichkeit an Krebs zu erkranken.
Aber ACHTUNG: die Aenderungen waren selbst auch nur gering. Wenn ich mich richtig erinnere war der grøszte Effekt um die 20 Prozent und eher im einstelligen Prozentbereich. Das bedeutet also, dass im Schnitt von 10 Leuten die Krebs bekommen haetten, 9 immer noch Krebs bekommen. In meiner Let’s talk about … Krebs Reihe gehe ich auf den (umgekehrten) Aspekt im Detail ein.
Leider entspricht der Artikel nicht dem (was meiner Meinung nach der) wissenschaftlichen Standard (sein sollte), weswegen es vermutlich auch nur zu einem Kommentar gereicht hat. Und darauf møchte ich etwas naeher eingehen, denn wenn der Artikel gelesen wird, dann sollte mindestens das Folgende im Hinterkopf behalten werden.

Gleich als Ersteres ist mir unangenehm aufgefallen, dass bei Zitierungen verschiedene Einheiten bunt durcheinander gewuerfelt werden. Das ist natuerlich OK wenn man zitiert, aber wenn man ueber mehrere Artikel etwas vergleichen will, dann muss man alles in eine Einheit umrechnen. Das geht natuerlich nicht immer, denn diese haben subtil (und manchmal auch nicht so subtil) andere Bedeutungen. Das ist aber ein schlechter Stil das einfach so zu lassen, denn es verwirrt den Leser und macht die (eigene) Evaluation des Geschriebenen schwerer. Oder anders: ich hatte etwas den Eindruck, dass hier ein „Newton gepulled“ wurde, anstatt eines Leibniz … Verschleierung und nur dem Eingeweihten Verstaendliches anstatt Erhellung fuer alle … Letzteres ist wissenschaftlich, Ersteres nicht.
Ich gebe aber auch zu, dass ich nach einer Weile zu dem eher wohlwollenden Schluss kam, dass der Autor das nicht mit Absicht gemacht hat, sondern die Umrechnung mglw. nicht auf sich nehmen konnte … vllt. weil ihm das entsprechende (Hintergrund)Wissen fehlt, weil das in dem von ihm gewaehlten Spezialgebiet nicht so wichtig ist, oder weil das prinzipiell nicht geht, wenn ungefaehre Distanz vom Hypozentrum als ein Indikator fuer die Strahlenbelastung genommen wird.

Zum anderen wird in dem Artikel mit statistischen Modellen hantiert die ich nicht nachpruefen kann, die aber zu unterschiedlichen Interpretationen fuehren. Das ist an und fuer sich nicht so schlimm und ist ganz normal in der Wissenschaft; neue und mglw. bessere Modelle muessen ja auch erstmal irgendwo herkommen. Hier aber sind die Fehlerbalken der Messdaten so grosz, dass man da sonstwas fuer Modelle „durchlegen“ kønnte. Und wenn das der Fall ist, dann sollte das einfachere Modell (siehe oben: linear und gleichmaeszig) gewaehlt werden.
Aber wie gesagt, in der Gesamtheit kam ich am Ende zu dem Schluss, dass da mglw. was dran ist und das bei kleinen Strahlendosen nicht linear ist.

Was mich auch gleich zum dritten Punkt bringt: wir sprechen hier von ziemlich kleinen Strahlendosen … die zwar im Labor leicht zu messen, „in der Natur“ aber schwer zuverlaessig zu ermitteln sind. Die Fehlerbalken sind nun aber nie an dieser Grøsze (der Strahlungsdosis) … was mglw. an dem eben Besprochenen liegt und deswegen erst gar nicht gemacht wird. Interessanterweise wird bei vielen statistischen Modelle ein Fehler fuer nur eine Grøsze (in einem Diagramm) angenommen.
Wenn man nun Fehlerbalken in beide Richtungen (Strahlungsdosis und Krebsraten) hat, dann wird das „durch die Daten kønnte man alles møgliche an Modellen durchlegen“-Dilemma nur verstaerkt.
Das wird nicht richtig besprochen … ich gebe aber zu, dass das Kommentar vermutlich nicht der richtige Platz dafuer ist.

Viertens (und das ist selbst mir als Laie sofort aufgefallen): hier werden verschiedene Strahlungsformen (Alpha, Beta, Gamma, Røntgen, Neutronen) einfach alle unter dem Begriff „Strahlung“ zusammengewuerfelt. Ich als Laie wuerde aber erstmal sagen, dass die Folgen der (vor allem) Neutronenstrahlung bei der unmittelbaren Explosion eine Atombombe anders „hantiert“ werden sollte als die (ich vermute) (vor allem) Alphastrahlung des Fallouts. Dieser Aspekt wird spaeter nochmal wichtig.

Fuenftens hatte ich den Eindruck, dass der Autor gegen die etablierte Theorie „zu Felde“ zieht und versucht alles was den wissenschaftlichen Konsensus hat zu Stande kommen lassen in ein schlechtes Licht zu ziehen. Das aeuszert sich in Sprache die sich gut fuer Schlagzeilen macht die aber nicht in einen wissenschaftlichen Artikel (oder Kommentar) gehøren. Ein Beispiel:

[t]remendous human, social, and economic losses caused by obstinate application of the linear no-threshold mode

Ich bin mir sicher, dass seine Kritikpunkte nicht unberechtigt sind und dass das Zustandekommen eines Konsensus mit echten „arbeitsfaehigen“ Folgen (wie bspw. Arbeitsplatzsicherheit) viel „politisches Hinterzimmerspiel“ und notwendiges „ueberbuegeln“ ueber akademisch wichtige Details mit sich fuehrt. Aber das ist nicht unbedingt grundsaetzlich und immer falsch und schlecht denn …

… sechstens, sprechen wir hier von SEHR geringen Dosen (siehe wieder der dritte Punkt). Die sind so klein, dass es (siehe oben) schwer ist das in den entsprechenden Umgebungen in denen Strahlung vorkommt zu kontrollieren. Hingegen ist es auch fuer weniger versierte Menschen leicht zu verstehen ist, dass Strahlung schlecht ist und da ’ne dicke Abschirmung hin muss … selbst wenn das fuer (sehr) kleine Strahlungsdosen nicht gilt.
Das ist um so wichtiger, weil der Vorteil (sehr) kleiner Strahlungsdosen sich eher in Grenzen haelt (siehe oben), waehrend aus kleinen Strahlungsdosen schnell mal moderate Strahlungsdosen werden kønnen und dann ist’s dumm, wenn da keine dicke Abschirmung ist.

Siebtens habe ich, im Gegensatz zum fuenften Punkt, den Eindruck, dass die „Lieblingstheorie“ des Verfassers als „geschnitten Brot“ dargestellt wird. Auch dies wieder leicht in der Sprache zu erkennen (mit der selben Kritik wie oben):

The sanctuary zone of a 30 km radius in Chernobyl is a paradise for animals and birds.

Das stimmt zwar, wuerde ich aber eher auf die Abwesenheit von Menschen zurueck verfolgen und erstmal vermuten, dass eventuell vorhandene positive Effekte durch (sehr) leicht erhøhte Strahlung im eben genannten viel grøszeren Effekt „untergehen“.

So, das soll jetzt reichen und ich gebe zu, dass das alles als „akademische Erbsenzaehlerei“ angesehen werden kønnte, insb. weil das Kommentar sich ja an Fachpersonen richten soll, die das alles (hoffentlich) einordnen kønnen.

Umso besser ist natuerlich, dass es sich dennoch lohnt den Artikel  (kritisch) zu lesen. Nicht des Artikels selber wegen, sondern weil er (wie schon erwaehnt) in seiner Gesamtheit auf eine Sache aufmerksam macht, die man so sonst gar nicht auf dem Schirm hat. Letzteres natuerlich deswegen, weil es dann doch ein relativ komplexes Thema ist und eigentlich auch nichts im normalen Leben zu suchen hat … das ist ’ne Sache die ehrlich gesagt den Experten ueberlassen werden sollte … aber ich als Laie kann mich ja drueber informieren, damit ich das zumindest ein klein bisschen besser selber einschaetzen kann.

Nun ist der Beitrag schon wieder so lang … ich verschiebe den Rest auf’s naechste Mal.

Auf den Rot- und Weiszkohl und dem Wirsing vom letzten Mal folgt heute (nur) der Rosenkohl.

Rosenkohl fand ich frueher immer urst _UN_lecker und konnte nicht verstehen, warum die Erwachsenen den so toll fanden. Heute weisz ich, dass meine Reaktion ganz normal und verstaendlich war, denn Kinder schmecken Bitterstoffe viel mehr als Erwachsene, deren Sinn fuer’s Bittere abgestumpft ist.
Dieses Phaenomen hat natuerlich einen evolutionaeren Hintergrund, denn viel giftiges Zeug ist bitter und ein kleiner Mensch muss fuer eine tødliche Dosis weniger von so einem Stoff zu sich nehmen als ein groszer Mensch. Gene die also die Empfaenglichkeit fuer Bitteres in jungen Jahren hoch halten ueberleben eher bis zum Fortpflanzungsalter. Andere (?) Gene welche die Empfindlichkeit fuer Bitteres in spaeteren Jahren runter setzen erøffnet zusaetzliche Nahrungsquelle (nicht nur) in schlechten Zeiten. Menschen mit solchen Genen ueberleben im Durchschnitt laenger und haben dann mitunter mehr Nachfahren. Beide Mechanismen fuehren dazu, dass sich die Gene durchsetzen.

Damit bin ich aber noch nicht fertig mit dem Rosenkohl, denn mittlerweile find ich den voll lecker. Das hat nun einen ganz anderen genetischen Hintergrund als der eben erwaehnte. Zuechter in den Niederlanden (so weit ich weisz) haben sich irgendwann im letzten Jahrhundert daran gesetzt, die Bitterkeit systematisch aus dem Rosenkohl raus zu zuechten. Das ist ihnen gelungen und ab ca. kurz nach der Jahrtausendwende hat sich die neue Rosenkohlsorte angefangen weltweit durchzusetzen. Da wurden also die Gene im Rosenkohl veraendert (und nicht meine).
Das fetzt voll, denn halbierte Rosenkohlkugeln, leicht angebraten in der Pfanne sind ja wohl mal URST lecker. Fuer mich war das die kulinarische Entdeckung der letzten paar Jahre und darueber freue ich mich sehr … ich esse doch so gerne (was man mir ja auch ansieht).

Auch heute halte ich mich wieder nur kurz und beim naechsten Mal schliesze ich diese Miniserie dann mit einem definitiv nicht leckeren Gemuese ab.

Es ist ja bekannt, dass Japan in einem Erbebengebiet liegt. Wenn ich das richtig verstehe ist es sogar das Land, in dem die meisten Erdbeben registriert (!) werden. Das liegt aber an der relativ geringen Flaeche des Landes. In der diesbezueglichen Laenderliste liegt es genau zwischen Norwegen (mit etwas mehr …) und Dtschl. (… weniger Flaeche) … was fuer ein Zufall, waehrend es gleichzeitig (Stand 2024) die elftmeisten Einwohner hat. Entsprechend hoch ist sicherlich die Anzahl an Bodenwackelmessstationen fuer ein (soweit ich das beurteilen kann) relativ gut funktionierendes Erdbebenfruehwarnsystem … auch wenn es nur ein paar wenige Minuten sind … wobei sich das vielleicht in der Zukunft zumindest fuer starke Erdbeben auf bis zu zwei Stunden (!) erhøhen kønnte … was ’ne Sensation und technische Revolution waere, die sehr viele Menschenleben retten wird!

Wieauchimmer, andere Laender haben dennoch mehr Erbeben, einfach weil die flaechenmaeszig grøszer sind und da mehr auftreten kønnen. Ein Beispiel waere Indonesien. Weil die Leute da aber nicht so dicht aufeinander hocken (auf’s ganze Land gesehen) … und sicher auch, weil es da infrastrukturtechnisch nicht so weit ist wie in Japan … werden dort weniger Erdbeben (offiziell) registriert.
Desweiteren hat Japan auch nicht die meisten Erdbeben pro Flaeche, denn das wird sicher fuer ein Land mit (deutlich) kleinerer Flaeche zutreffen … oder auch wieder Indonesien, falls es da deutlich mehr Erdbeben gibt als Flaeche (im Vergleich zu Japan) … aber wieder gilt, dass wir das nicht genau wissen, weil die allermeisten kleineren Beben gar nicht registriert werden.
Aber schwere Erdbeben werden ja anscheinend ueberall gemessen (einfach weil die so stark sind, dass da auch weit entfernt liegende Seismometer wackeln). Hier gibt’s was zum rumspielen und wenn ich fuer Erdbeben der Staerke sechs (oder høher) … ACHTUNG: obligatorischer Zusatz folgt … auf der Richter-Skala seit 1990 schaue, liegt auch da wieder Indonesien vor Japan (dicht gefolgt von China).

Bzgl. der meisten schweren Schaeden oder Tote und Verletzte durch Erdbeben habe ich gar nicht erst geschaut. Ich denke einfach, dass:
– Japan sich da wirklich um das Thema kuemmert,
– Japan technisch diesbezueglich sicherlich weltweit fuehrend ist,
– in Japan im Vergleich zu sehr sehr vielen anderen Laendern allein schon aufgrund des allgemeinen Entwicklungsstandes des Landes die Korruption (nicht nur zu dem Thema) verdammt gering und deswegen erdbebenresistente Infrastruktur auch wirklich vorhanden ist,
– es in Japan eine tatsaechlich vorhandene, geplante, entwickelte, ausgebaute und geuebte (nicht nur) zivile Hilfsinfrastruktur gibt anstatt (eher schlechten als rechten) ad hoc Hilfen im Katastrophenfall wie in so vielen anderen Laendern.

Wieauchimmer, vor der Abreise war es das erste Mal, dass ich mich tatsaechlich ueber allgemeine (wenn auch Japan spezifische) Notfallmasznahmen informierte. Leider vergasz ich jedes Mal denen zu Folgen (bspw. die Schuhe immer vor dem Bett bereit zu haben damit man nicht in Scherben tritt), einfach weil das meiner normalen Erlebniswelt so fern und deswegen bei mir nicht „drin“ ist.
Mit einer Ausnahme: als wir am Meer waren habe ich Hugo (und mir) erstmal genau klar gemacht was zu tun ist im Falle eines Tsunami (und woran man den erkennt) und geschaut wo das høchste Terrain ist.

Aber selbst wenn all das bei mir nicht „drin“ ist, so ist es dennoch auch fuer Touristen (semi-)allgegenwaertig, denn in jedem Hotelzimmer fand ich solche, meist vom Bett aus leicht zu erreichende, Notfalltaschenlampen …

… und die haben sogar funktioniert. Diese hier habe ich im Hotel in Kyoto fotografiert … … … und mehr gibt’s dazu auch nicht zu sagen.

Dem Kohlrabi vom letzten Mal folgt heute leckerer Rotkohl … den ich in der Form von Apfelrotkohl sehr gerne esse. Erstaunlicherweise brauchte ich fast 20 Jahre nach dem Auszug aus dem Kindheitszuhause bevor ich mir mal beibrachte den selber zuzubereiten. Relativ fix lernte ich, dass der Rotkohl noch besser schmeckt, wenn man den ’n paar Studen stehen laeszt und auch noch voll toll ist am naechsten Tag. Zwei Tage spaeter schmeckts auch noch sehr fein, aber da wirds dann schon ein bisschen matschig.
Leider ist der junge Mann der bei mir wohnt nicht so’n Freund von Apfelrotkohl … nicht mal (mglw. insb. nicht) in Form von Mansche mit Kartoffeln und Sosze … mhmmmmm … lecker. Naja … wundert mich nicht. Letzteres ist vermutlich insb. fuer juengere Kinder von Interesse und die gewøhnen sich dann sofort dran und freuen sich drauf. Junge (fast schon) Erwachsene wollen dann doch lieber richtiges Essen … Banausen!

Zwei weitere Blumenkohlkultivare sind Weiszkohl und Wirsing. Letzteres kenn ich eigtl. nur als das Einwickelgemuese um Kohlrouladen und die waren (zusammen mit leckerer Sosze und Kartoffeln) vermutlich mein allerliebstes Lieblingsessen. Leider steht das hier im Praeteritum, denn die hatte ich nicht mehr seit dem oben erwaehnten Auszug … *seufz*.
Also ich denke, dass ich danach schon nochmal Kohlrouladen hatte, aber oft werden die mit Weiszkohl gemacht. Das ist auch lecker, aber nicht das Selbe. Frueher kannte ich den nur als nicht so leckeren Bestandteil in (Kohl?)Suppe beim Schulessen … *buærgs*. Mit den Jahren legte ich meine Aversion aber ab und kann Weiszkohl mittlerweile auch wert schaetzen.

Vielmehr faellt mir zu den drei Gemuesen nicht ein … aber ist ja auch mal schøn, dass ich mich kurz halte.