Beim letzten Mal wurde die letzte, mir bekannte Ursache fuer Feinstaub in der Kueche betrachtet. Zusammen mit den vorher behandelten Gruenden konnten damit im Uebersichtsdiagramm fast alle Spitzen erklaert werden. Aber eben nur fast, denn ein paar Ereignisse stehen weiterhin ohne Erklaerung da. Ich habe die hier mal mittels Zahlen gekennzeichnet und gehe die heute alle durch:

Die drei Spitzen bei der #1 muessen unerklaert bleiben. Ich habe keine Ahnung, was da zwischen nachts drei Uhr und morgens sechs Uhr passiert sein kønnte. Fluktuationen sind aber zu erwarten. Vielleicht ist ’ne Fliege vorbeigeflattert, oder der Kompressor des Kuehlschranks hat mal ungewøhnlich stark gerumpelt. Ich kann leider auch nicht sicher sagen, ob da auch immer was bei anderen Tagen (in dem selben Zeitraum) geschieht. Am Tag danach gibt’s eine kleine Spitze gegen 4 Uhr und am letzten vollstaendigen Messtag ist auch was gegen 3 Uhr (beide nicht gekennzeichnet). Aber bei allen anderen Tagen ist da entweder nix, oder wenn da was ist, dann geht das im „Reststaub“ von vorhererigen Kuechengeschehnissen unter. Ich muss also zugeben, dass ich das nicht aufklaeren kann.

Alle Spitzen von #2 bis #9 geschehen in Zeitraeumen zwischen 12 Uhr und dem Kochen des Abendmahls. Diese sind aber nicht regelmaeszig, bzw. mache ich da nix regelmaesziges in der Kueche, dem ich das zuordnen kønnte. Andererseits ist die Kueche auch ein hoch frequentierter Ort (vermutlich mehr als die Toilette); dort ist also immer was los. Und wenn ich da so mal drueber nachdenke, dann waere es eher verwunderlich, wenn in dem Zeitraum nix waere, denn wenn wer zu Hause ist, wir mal ’n Tee aufgebrueht, oder ’n Toast gemacht, oder man raeumt auf und wischt dabei den Tisch ab, oder der Einkauf wird in die Schraenke einsortiert etc. pp. Es sind aber alles so „kleine“ Sachen, dass die nicht mit einer groszen Staubentwicklung und auch mit keiner Waermeentwicklung einhergehen.
Im Gegensatz zu #1 sind das also keine mysteriøsen Geschehnisse, sondern einfach nur unterschiedliche aber gewøhnliche Kuechenaktivitaeten.

Die #10 ist ganz einfach, denn das sieht mir nach einer „Brotschmieraktivitaet“ aus und ich hatte das nur vergessen einzutragen, als ich solche Ereignisse besprach.

So … das war’s mit den Feinstaubmessungen in der Kueche, aber das war’s noch nicht insgesamt. Beim naechsten Mal gehe ich noch auf ein Merkmal der Temperturentwicklung ein, bevor ich mich kurz drauszen durchgefuehrten Feinstaubmessungen widme.

Wie erwaehnt fehlt in diesem Projekt noch eine grosze und wichtige Sache: sind die Ergebnisse reproduzierbar?

Diese Frage konnte natuerlich nicht mit den selben Daten beantwortet werden und deshalb lud ich mir Ende November 2023 die Wikipedia nochmal runter. Der Prozess war wie beim ersten Mal, nur dass drei Jahre mehr Daten drin waren. Deswegen ist die entpackte Datei nun ca. 90 GB grosz (die drei Jahre juengeren Daten sind „nur“ 75 GB grosz).

Alles was ich damals tat um die relevanten Daten aus der riesigen Datei zu popeln und diese fuer die eigentliche Linknetzwerkanalyse vorzubereiten, machte ich nochmal. Die Programme dazu liesz ich im Wesentlichen unveraendert (die sind jetzt nur besser strukturiert und der Code ist besser kommentiert).
Vor drei Jahren konnte ich die urspruenglichen 75 GB letztlich auf eine nur 1.4 GB grosze (Text)Datei reduzieren. Die Zahl gab ich damals nicht an und mit der Wikipedia vom November 2023 erhøhte sich die Grøsze dieser Datei nur auf 1.6 GB

Damals verblieb ich mit 5,798,312 Wikipediaseiten und 165,913,569 Links. Die neuen Daten enthalten 6,269,403 Seiten und 198,870,985 Links.
Das kønnen wir mit der beim letzten Mal vorgestellten Information vergleichen. Am Ende der Untersuchungsperiode kamen bei der Wikipedia ca. 13-tausend neue Seiten pro Monat dazu. Drei Jahre entsprechen 36 Monaten und somit ca. 468-tausend neuen Seiten. An den Zahlen oben sieht man, das es in echt 471,091 neue Seiten waren … das ist fast schon erschreckend, wie genau die relativ grobe Abschaetzung das abbildet.

Damit fuehrte ich vom Konzept die selbe Linknetzwerkanalyse durch. Im entsprechenden Code veraenderte ich an den Analysestellen nichts. Aber zu den technische interessanten Details fuegte ich noch eine (gar nicht mal so) kleine coole Sache hinzu: die Anzahl der an der Berechnung teilnehmenden Kerne ist nun mittels der Angabe nur einer Zahl einstellbar und nicht mehr hartgecoded … cool wa. Auszerdem schrieb ich ein paar kleine Helferprogramme, welche eine (mehr oder weniger … ehrlich gesagt eher in die Richtung mehr als in die Richtung weniger) automatische Analyse erlauben. Und weil die Hardware sich in den letzten drei Jahren auch „verdoppelte“ (ich habe nun 8 anstatt nur vier Cores) waren diese Aenderungen extra cool, denn ohne weiteres Brimborium, konnte die Linknetzwerkanalyse auf noch mehr Cores gleichzeitig laufen und war noch schneller fertig.

Damit ist das was ich vor drei Jahren ueber mehrere Beitraege und Monate abhandelte auch schon fertig. Trotz der wenigen Zeilen hier war’s fuer mich ein ziemlicher Brocken Arbeit, denn ich musste habe den Code der Programme die all diese Aufgaben uebernehmen besser strukturiert, kommentiert und dokumentiert (und zum Teil auch mit ein paar kleinen Funktionalitaeten erweitert; s.o.). Prinzipiell haette ich das nicht machen brauchen, aber fuer mich zaehlt das zum Abschluss eines Projekts dazu … das muss _meinen_ aesthtetischen Beduerfnissen und allgemein _meinen_ Anspruechen genuegen.
Das ist dann auch der Grund, warum diese Teilaufgabe so schleppend voran geht, denn der Analysecode den ich ueber die drei Jahre schrieb ist katastrophal. Ich dachte doch urspruenglich, dass das nur ein paar wenige Wochen dauert. Und deswegen programmierte ich viele kleine Programme die kleine Aufgaben machen und kommentierte das oft nicht gut genug und ’ne Dokumentation hatte ich schon gar nicht. Zum Glueck habe ich die Angewohnheit schon beim coden Kommentare zu schreiben (weil ich (sicher zurecht) befuerchte, dass ich vergesse warum ich bestimmte Sachen so gecoded habe wie ich sie gecoded habe). Das kommt mir jetzt zu Gute, denn ansonsten waere ich komplett verloren in dem Codedurcheinander. Aber das geht viel besser und deswegen møchte ich das auch viel besser haben (s.o.) und beim wieder drueber gucken sehe ich auch, dass viele Programme in allgemeineren Programmen zusammengefasst werden kønnen.

Waehrend also der Code fuer die erste beiden Teile (relevante Daten sammeln und die Linknetzwerkanalyse) beinahe unveraendert blieb, schreibe ich (bin immer noch dabei) fuer die Analyse der Resultate der Linknetzwerkanalyse im Wesentlichen alles komplett neu. Klar, das was die Programme ausspucken ist das Selbe … MUSS das Selbe sein, denn ansonsten habe ich was falsch gemacht (was uebrigens auch nochmal Zeit kostet zu kontrollieren, denn ich muss die neuen Programme mit den Daten von Ende 2020 laufen lassen und dann mit den damaligen Ergebnissen vergleichen) … aber ich bin VIEL mehr zufrieden mit dem Code an sich.

Das soll reichen fuer heute. Beim naechsten Mal gibt’s dann wieder (mindestens) ein Diagramm.

Neulich stolperte ich ueber ein Kommentar (in Artikellaenge … spaeter wird klar, warum es nur zu einem Kommentar reichte) von Shizuyo Sutou in Genes and Environment, 40 (article number 26), 2018 mit dem Titel „Low-dose radiation from A-bombs elongated lifespan and reduced cancer mortality relative to un-irradiated individuals„. … … … Bei so einem Titel konnte ich das natuerlich nicht einfach liegen lassen und musste das selber lesen, denn das hørte sich doch zu sehr nach „Fischen im Trueben kleiner Fallzahlen“ und „Propaganda fuer die ueblichen Verdaechtigen an“.

Bis hierhin war meine Meinung, dass jedwede erhøhte Strahlung schlecht fuer (die allermeisten) Lebewesen ist. In meinem einfach Weltmodell natuerlich deswegen, weil Strahlung die Erbinformation zerstørt und prinzipiell Krebs oder sowas ausløsen kann. Bei leicht erhøhter Strahlung passiert das nur manchmal, bei stark erhøhter Strahlung, passiert es oft. Meine „Voreingenommenheit“ fuer diese Meinung war SEHR stark bedingt durch alles was ich wusste und den Experten die viel mehr als ich wissen folgend.

Ich habe meine Meinung diesbezueglich nicht komplett geaendert, aber nach der Lektuere des Artikels (und ich muss sagen, dass ich mich auch ’n guten Teil abseits des Artikels informiert habe) aenderte ich die „Richtung und Staerke“ meiner vorherigen Meinung signifikant (aber NICHT komplett!).
Noch waehrend des Lesens geschah die Meinungsaenderung eher widerstrebend. Die Daten und Modelle (auch abseits des Artikels!) sehen aber alle vernuenftig aus (soweit ich das beurteilen kann). Nachdem die neue Information sich etwas „setzen“ konnte stimmte ich dieser fuer mich neuen Sicht auf die Dinge dann durchaus zu, mit einem groszen ABER (worauf ich weiter unten zu sprechen komme). Spaeter setzte dann Freude ueber die Meinungsaenderung ein … so ’nem  alten Menschen wie mir faellts nicht immer leicht (vor allem vor sich selbst … mhmmmm … wenn ich Hannah Arendt richtig interpretiere mglw. sogar ausschlieszlich vor sich selbst) zuzugeben, dass man jahrelang nicht richtig (Achtung: aber auch nicht falsch!) gelegen hat.

… … … Aber der Reihe nach … … …

Zunachst zum oben verlinkten Kommentar in Artikelform. Ich empfehle das durchaus zu lesen denn der Autor hat gut Daten gesammelt und macht auf ein sehr interessantes Thema aufmerksam. In ganz kurz: die Leute die in Hiroshima und Nagasaki nur (sehr) wenig Strahlung (was immer das auch heiszen mag!) abbekommen haben, hatten in spaeteren Jahren eine geringere Wahrscheinlichkeit an Krebs zu erkranken.
Aber ACHTUNG: die Aenderungen waren selbst auch nur gering. Wenn ich mich richtig erinnere war der grøszte Effekt um die 20 Prozent und eher im einstelligen Prozentbereich. Das bedeutet also, dass im Schnitt von 10 Leuten die Krebs bekommen haetten, 9 immer noch Krebs bekommen. In meiner Let’s talk about … Krebs Reihe gehe ich auf den (umgekehrten) Aspekt im Detail ein.
Leider entspricht der Artikel nicht dem (was meiner Meinung nach der) wissenschaftlichen Standard (sein sollte), weswegen es vermutlich auch nur zu einem Kommentar gereicht hat. Und darauf møchte ich etwas naeher eingehen, denn wenn der Artikel gelesen wird, dann sollte mindestens das Folgende im Hinterkopf behalten werden.

Gleich als Ersteres ist mir unangenehm aufgefallen, dass bei Zitierungen verschiedene Einheiten bunt durcheinander gewuerfelt werden. Das ist natuerlich OK wenn man zitiert, aber wenn man ueber mehrere Artikel etwas vergleichen will, dann muss man alles in eine Einheit umrechnen. Das geht natuerlich nicht immer, denn diese haben subtil (und manchmal auch nicht so subtil) andere Bedeutungen. Das ist aber ein schlechter Stil das einfach so zu lassen, denn es verwirrt den Leser und macht die (eigene) Evaluation des Geschriebenen schwerer. Oder anders: ich hatte etwas den Eindruck, dass hier ein „Newton gepulled“ wurde, anstatt eines Leibniz … Verschleierung und nur dem Eingeweihten Verstaendliches anstatt Erhellung fuer alle … Letzteres ist wissenschaftlich, Ersteres nicht.
Ich gebe aber auch zu, dass ich nach einer Weile zu dem eher wohlwollenden Schluss kam, dass der Autor das nicht mit Absicht gemacht hat, sondern die Umrechnung mglw. nicht auf sich nehmen konnte … vllt. weil ihm das entsprechende (Hintergrund)Wissen fehlt, weil das in dem von ihm gewaehlten Spezialgebiet nicht so wichtig ist, oder weil das prinzipiell nicht geht, wenn ungefaehre Distanz vom Hypozentrum als ein Indikator fuer die Strahlenbelastung genommen wird.

Zum anderen wird in dem Artikel mit statistischen Modellen hantiert die ich nicht nachpruefen kann, die aber zu unterschiedlichen Interpretationen fuehren. Das ist an und fuer sich nicht so schlimm und ist ganz normal in der Wissenschaft; neue und mglw. bessere Modelle muessen ja auch erstmal irgendwo herkommen. Hier aber sind die Fehlerbalken der Messdaten so grosz, dass man da sonstwas fuer Modelle „durchlegen“ kønnte. Und wenn das der Fall ist, dann sollte das einfachere Modell (siehe oben: linear und gleichmaeszig) gewaehlt werden.
Aber wie gesagt, in der Gesamtheit kam ich am Ende zu dem Schluss, dass da mglw. was dran ist und das bei kleinen Strahlendosen nicht linear ist.

Was mich auch gleich zum dritten Punkt bringt: wir sprechen hier von ziemlich kleinen Strahlendosen … die zwar im Labor leicht zu messen, „in der Natur“ aber schwer zuverlaessig zu ermitteln sind. Die Fehlerbalken sind nun aber nie an dieser Grøsze (der Strahlungsdosis) … was mglw. an dem eben Besprochenen liegt und deswegen erst gar nicht gemacht wird. Interessanterweise wird bei vielen statistischen Modelle ein Fehler fuer nur eine Grøsze (in einem Diagramm) angenommen.
Wenn man nun Fehlerbalken in beide Richtungen (Strahlungsdosis und Krebsraten) hat, dann wird das „durch die Daten kønnte man alles møgliche an Modellen durchlegen“-Dilemma nur verstaerkt.
Das wird nicht richtig besprochen … ich gebe aber zu, dass das Kommentar vermutlich nicht der richtige Platz dafuer ist.

Viertens (und das ist selbst mir als Laie sofort aufgefallen): hier werden verschiedene Strahlungsformen (Alpha, Beta, Gamma, Røntgen, Neutronen) einfach alle unter dem Begriff „Strahlung“ zusammengewuerfelt. Ich als Laie wuerde aber erstmal sagen, dass die Folgen der (vor allem) Neutronenstrahlung bei der unmittelbaren Explosion eine Atombombe anders „hantiert“ werden sollte als die (ich vermute) (vor allem) Alphastrahlung des Fallouts. Dieser Aspekt wird spaeter nochmal wichtig.

Fuenftens hatte ich den Eindruck, dass der Autor gegen die etablierte Theorie „zu Felde“ zieht und versucht alles was den wissenschaftlichen Konsensus hat zu Stande kommen lassen in ein schlechtes Licht zu ziehen. Das aeuszert sich in Sprache die sich gut fuer Schlagzeilen macht die aber nicht in einen wissenschaftlichen Artikel (oder Kommentar) gehøren. Ein Beispiel:

[t]remendous human, social, and economic losses caused by obstinate application of the linear no-threshold mode

Ich bin mir sicher, dass seine Kritikpunkte nicht unberechtigt sind und dass das Zustandekommen eines Konsensus mit echten „arbeitsfaehigen“ Folgen (wie bspw. Arbeitsplatzsicherheit) viel „politisches Hinterzimmerspiel“ und notwendiges „ueberbuegeln“ ueber akademisch wichtige Details mit sich fuehrt. Aber das ist nicht unbedingt grundsaetzlich und immer falsch und schlecht denn …

… sechstens, sprechen wir hier von SEHR geringen Dosen (siehe wieder der dritte Punkt). Die sind so klein, dass es (siehe oben) schwer ist das in den entsprechenden Umgebungen in denen Strahlung vorkommt zu kontrollieren. Hingegen ist es auch fuer weniger versierte Menschen leicht zu verstehen ist, dass Strahlung schlecht ist und da ’ne dicke Abschirmung hin muss … selbst wenn das fuer (sehr) kleine Strahlungsdosen nicht gilt.
Das ist um so wichtiger, weil der Vorteil (sehr) kleiner Strahlungsdosen sich eher in Grenzen haelt (siehe oben), waehrend aus kleinen Strahlungsdosen schnell mal moderate Strahlungsdosen werden kønnen und dann ist’s dumm, wenn da keine dicke Abschirmung ist.

Siebtens habe ich, im Gegensatz zum fuenften Punkt, den Eindruck, dass die „Lieblingstheorie“ des Verfassers als „geschnitten Brot“ dargestellt wird. Auch dies wieder leicht in der Sprache zu erkennen (mit der selben Kritik wie oben):

The sanctuary zone of a 30 km radius in Chernobyl is a paradise for animals and birds.

Das stimmt zwar, wuerde ich aber eher auf die Abwesenheit von Menschen zurueck verfolgen und erstmal vermuten, dass eventuell vorhandene positive Effekte durch (sehr) leicht erhøhte Strahlung im eben genannten viel grøszeren Effekt „untergehen“.

So, das soll jetzt reichen und ich gebe zu, dass das alles als „akademische Erbsenzaehlerei“ angesehen werden kønnte, insb. weil das Kommentar sich ja an Fachpersonen richten soll, die das alles (hoffentlich) einordnen kønnen.

Umso besser ist natuerlich, dass es sich dennoch lohnt den Artikel  (kritisch) zu lesen. Nicht des Artikels selber wegen, sondern weil er (wie schon erwaehnt) in seiner Gesamtheit auf eine Sache aufmerksam macht, die man so sonst gar nicht auf dem Schirm hat. Letzteres natuerlich deswegen, weil es dann doch ein relativ komplexes Thema ist und eigentlich auch nichts im normalen Leben zu suchen hat … das ist ’ne Sache die ehrlich gesagt den Experten ueberlassen werden sollte … aber ich als Laie kann mich ja drueber informieren, damit ich das zumindest ein klein bisschen besser selber einschaetzen kann.

Nun ist der Beitrag schon wieder so lang … ich verschiebe den Rest auf’s naechste Mal.

Auf den Rot- und Weiszkohl und dem Wirsing vom letzten Mal folgt heute (nur) der Rosenkohl.

Rosenkohl fand ich frueher immer urst _UN_lecker und konnte nicht verstehen, warum die Erwachsenen den so toll fanden. Heute weisz ich, dass meine Reaktion ganz normal und verstaendlich war, denn Kinder schmecken Bitterstoffe viel mehr als Erwachsene, deren Sinn fuer’s Bittere abgestumpft ist.
Dieses Phaenomen hat natuerlich einen evolutionaeren Hintergrund, denn viel giftiges Zeug ist bitter und ein kleiner Mensch muss fuer eine tødliche Dosis weniger von so einem Stoff zu sich nehmen als ein groszer Mensch. Gene die also die Empfaenglichkeit fuer Bitteres in jungen Jahren hoch halten ueberleben eher bis zum Fortpflanzungsalter. Andere (?) Gene welche die Empfindlichkeit fuer Bitteres in spaeteren Jahren runter setzen erøffnet zusaetzliche Nahrungsquelle (nicht nur) in schlechten Zeiten. Menschen mit solchen Genen ueberleben im Durchschnitt laenger und haben dann mitunter mehr Nachfahren. Beide Mechanismen fuehren dazu, dass sich die Gene durchsetzen.

Damit bin ich aber noch nicht fertig mit dem Rosenkohl, denn mittlerweile find ich den voll lecker. Das hat nun einen ganz anderen genetischen Hintergrund als der eben erwaehnte. Zuechter in den Niederlanden (so weit ich weisz) haben sich irgendwann im letzten Jahrhundert daran gesetzt, die Bitterkeit systematisch aus dem Rosenkohl raus zu zuechten. Das ist ihnen gelungen und ab ca. kurz nach der Jahrtausendwende hat sich die neue Rosenkohlsorte angefangen weltweit durchzusetzen. Da wurden also die Gene im Rosenkohl veraendert (und nicht meine).
Das fetzt voll, denn halbierte Rosenkohlkugeln, leicht angebraten in der Pfanne sind ja wohl mal URST lecker. Fuer mich war das die kulinarische Entdeckung der letzten paar Jahre und darueber freue ich mich sehr … ich esse doch so gerne (was man mir ja auch ansieht).

Auch heute halte ich mich wieder nur kurz und beim naechsten Mal schliesze ich diese Miniserie dann mit einem definitiv nicht leckeren Gemuese ab.

Es ist ja bekannt, dass Japan in einem Erbebengebiet liegt. Wenn ich das richtig verstehe ist es sogar das Land, in dem die meisten Erdbeben registriert (!) werden. Das liegt aber an der relativ geringen Flaeche des Landes. In der diesbezueglichen Laenderliste liegt es genau zwischen Norwegen (mit etwas mehr …) und Dtschl. (… weniger Flaeche) … was fuer ein Zufall, waehrend es gleichzeitig (Stand 2024) die elftmeisten Einwohner hat. Entsprechend hoch ist sicherlich die Anzahl an Bodenwackelmessstationen fuer ein (soweit ich das beurteilen kann) relativ gut funktionierendes Erdbebenfruehwarnsystem … auch wenn es nur ein paar wenige Minuten sind … wobei sich das vielleicht in der Zukunft zumindest fuer starke Erdbeben auf bis zu zwei Stunden (!) erhøhen kønnte … was ’ne Sensation und technische Revolution waere, die sehr viele Menschenleben retten wird!

Wieauchimmer, andere Laender haben dennoch mehr Erbeben, einfach weil die flaechenmaeszig grøszer sind und da mehr auftreten kønnen. Ein Beispiel waere Indonesien. Weil die Leute da aber nicht so dicht aufeinander hocken (auf’s ganze Land gesehen) … und sicher auch, weil es da infrastrukturtechnisch nicht so weit ist wie in Japan … werden dort weniger Erdbeben (offiziell) registriert.
Desweiteren hat Japan auch nicht die meisten Erdbeben pro Flaeche, denn das wird sicher fuer ein Land mit (deutlich) kleinerer Flaeche zutreffen … oder auch wieder Indonesien, falls es da deutlich mehr Erdbeben gibt als Flaeche (im Vergleich zu Japan) … aber wieder gilt, dass wir das nicht genau wissen, weil die allermeisten kleineren Beben gar nicht registriert werden.
Aber schwere Erdbeben werden ja anscheinend ueberall gemessen (einfach weil die so stark sind, dass da auch weit entfernt liegende Seismometer wackeln). Hier gibt’s was zum rumspielen und wenn ich fuer Erdbeben der Staerke sechs (oder høher) … ACHTUNG: obligatorischer Zusatz folgt … auf der Richter-Skala seit 1990 schaue, liegt auch da wieder Indonesien vor Japan (dicht gefolgt von China).

Bzgl. der meisten schweren Schaeden oder Tote und Verletzte durch Erdbeben habe ich gar nicht erst geschaut. Ich denke einfach, dass:
– Japan sich da wirklich um das Thema kuemmert,
– Japan technisch diesbezueglich sicherlich weltweit fuehrend ist,
– in Japan im Vergleich zu sehr sehr vielen anderen Laendern allein schon aufgrund des allgemeinen Entwicklungsstandes des Landes die Korruption (nicht nur zu dem Thema) verdammt gering und deswegen erdbebenresistente Infrastruktur auch wirklich vorhanden ist,
– es in Japan eine tatsaechlich vorhandene, geplante, entwickelte, ausgebaute und geuebte (nicht nur) zivile Hilfsinfrastruktur gibt anstatt (eher schlechten als rechten) ad hoc Hilfen im Katastrophenfall wie in so vielen anderen Laendern.

Wieauchimmer, vor der Abreise war es das erste Mal, dass ich mich tatsaechlich ueber allgemeine (wenn auch Japan spezifische) Notfallmasznahmen informierte. Leider vergasz ich jedes Mal denen zu Folgen (bspw. die Schuhe immer vor dem Bett bereit zu haben damit man nicht in Scherben tritt), einfach weil das meiner normalen Erlebniswelt so fern und deswegen bei mir nicht „drin“ ist.
Mit einer Ausnahme: als wir am Meer waren habe ich Hugo (und mir) erstmal genau klar gemacht was zu tun ist im Falle eines Tsunami (und woran man den erkennt) und geschaut wo das høchste Terrain ist.

Aber selbst wenn all das bei mir nicht „drin“ ist, so ist es dennoch auch fuer Touristen (semi-)allgegenwaertig, denn in jedem Hotelzimmer fand ich solche, meist vom Bett aus leicht zu erreichende, Notfalltaschenlampen …

… und die haben sogar funktioniert. Diese hier habe ich im Hotel in Kyoto fotografiert … … … und mehr gibt’s dazu auch nicht zu sagen.

Dem Kohlrabi vom letzten Mal folgt heute leckerer Rotkohl … den ich in der Form von Apfelrotkohl sehr gerne esse. Erstaunlicherweise brauchte ich fast 20 Jahre nach dem Auszug aus dem Kindheitszuhause bevor ich mir mal beibrachte den selber zuzubereiten. Relativ fix lernte ich, dass der Rotkohl noch besser schmeckt, wenn man den ’n paar Studen stehen laeszt und auch noch voll toll ist am naechsten Tag. Zwei Tage spaeter schmeckts auch noch sehr fein, aber da wirds dann schon ein bisschen matschig.
Leider ist der junge Mann der bei mir wohnt nicht so’n Freund von Apfelrotkohl … nicht mal (mglw. insb. nicht) in Form von Mansche mit Kartoffeln und Sosze … mhmmmmm … lecker. Naja … wundert mich nicht. Letzteres ist vermutlich insb. fuer juengere Kinder von Interesse und die gewøhnen sich dann sofort dran und freuen sich drauf. Junge (fast schon) Erwachsene wollen dann doch lieber richtiges Essen … Banausen!

Zwei weitere Blumenkohlkultivare sind Weiszkohl und Wirsing. Letzteres kenn ich eigtl. nur als das Einwickelgemuese um Kohlrouladen und die waren (zusammen mit leckerer Sosze und Kartoffeln) vermutlich mein allerliebstes Lieblingsessen. Leider steht das hier im Praeteritum, denn die hatte ich nicht mehr seit dem oben erwaehnten Auszug … *seufz*.
Also ich denke, dass ich danach schon nochmal Kohlrouladen hatte, aber oft werden die mit Weiszkohl gemacht. Das ist auch lecker, aber nicht das Selbe. Frueher kannte ich den nur als nicht so leckeren Bestandteil in (Kohl?)Suppe beim Schulessen … *buærgs*. Mit den Jahren legte ich meine Aversion aber ab und kann Weiszkohl mittlerweile auch wert schaetzen.

Vielmehr faellt mir zu den drei Gemuesen nicht ein … aber ist ja auch mal schøn, dass ich mich kurz halte.

In meinem letztjaehrigen Geburtstagsbeitrag sprach ich an lamentierte ich im Detail darueber, dass mir das Material und die Ideen ausgehen. Als Konsequenz dessen zog ich in Erwaehnung, diesen Weblog mglw. ganz einzustellen. Ich schrieb aber auch, dass mir das nicht so richtig passt, weil ich sehr gerne schreibe und mir das alles sehr am Herzen liegt.

Als Kompromiss bin ich neulich drauf gekommen, dass ich auch einfach nur noch einen Beitraeg pro Woche schreiben kønnte. Das haette eine drastische Reduzierung der Artikelanzahl zur Folge; anstatt an jedem Primzahltag (also bis zu 12 Artikel pro Monat) nur noch an einem Primzahltag der Woche.
Bisher unterschied ich auch zwischen kurzen und langen Artikeln (wobei das seeeeeeehr flexible Kategorien sind), je nachdem wieviele Tage bis zum naechsten Artikel vergehen. Das faellt dann auch weg. Ich publiziere was vorliegt, egal ob das jetzt trivial und kurz oder komplizierter und lang ist.

Im Allgemeinen løst es das Problem, dass mir die Ideen ausgehen, nicht. Das gibt mir aber einen gewaltigen Aufschub, denn es laufen ja noch ein paar Miniserien und ebenso gibt’s beim Anhang von Kevin Bacon noch ein paar Dinge die getan werden muessen.
Das løst aber mglw. (vllt.? hoffentlich?) das spezielle Problem, dass ich nicht (mehr) genug Ideen fuer die bisherige Beitragsfrequenz habe. Ab und zu hab ich ja doch was worueber ich schreiben møchte, weil ich’s interessant finde und mir Gedanken drueber gemacht habe. Und wenn ich nur vier Sachen pro Monat „brauche“, dann bleibt mein Weblog unter Umstaenden noch eine Weile bestehen :)

Jetzt noch ein Kommentar zum Titel: der ist naemlich doppelt nicht (ganz) richtig.
Zunaechst einmal geschehen die Veraenderungen einmalig und das ist dann ein fortlaufender (wenn auch zunaechst neuer) Modus Operandi fuer meinen Weblog. Das Wørtchen „Ab“ ist also fehl am Platz.
Desweiteren ist das Wørtchen „Ab“ ein zweites Mal fehl am Platz in Verbindung mit dem Wørtchen „heute“. Der letzte Beitrag war bereits vor 10 Tagen. Nach dem alten, viele Jahre geltenden Verøffentlichungsplan haetten zwischem diesem und dem letzten Beitrag zwei weitere Artikel erscheinen muessen. Oder anders: die Veraenderungen haben laengst stattgefunden, heute ist nur der erste Tag, an dem ich drauf aufmerksam machen kann.
Ich gebe zu, dass ich das so schrieb, weil es eine høhere aufmerksamkeitsheischende Wirkung hat.

Damit verbleibe ich bis … naechste Woche … tihihi.

Beim letzten Mal stellte ich eine neue Datenquelle vor, welche die Anzahl der Seitenaufrufe pro Tag fuer jede Wikipediaseite hat. Das ist von Interesse, denn in den Analysen der vorhergehenden Jahre behauptete ich oft, dass i.A. Seiten mit mehr Zitaten populaerer sind. Das ist durchaus eine plausible Behauptung, allein schon weil oefter zitierte Seiten eine grøszere Chance haben angeklickt zu werden, einfach weil die øfter von Nutzern gesehen werden. Der Quelltext enthaelt allerdings keine Information darueber, dass das auch „in Echt“ (also extern und nicht nur via internen Zitaten von einer Seite zur naechsten) gilt.

Die neuen Daten erlauben mir das nun direkt zu testen indem man sich die Aufrufe einer Seite in Abhaengigkeit von der Anzahl der (Wikipedia internen) Zitate (oder Links) anschaut.
Das ist das Prinzip, aber natuerlich ist das nicht ganz so einfach. Zunaechst einmal muss man die beim letzten Mal erwaehnten natuerlichen und unnatuerliche Artefakte in den Daten „rausmitteln“. Das ist einfach, denn dafuer muss nur die durchschnittliche Anzahl an Seitenaufrufen pro Monat berechnet werden (fuer jede Seite). Es ist leicht einzusehen, dass das nix am allgemeinen Prinzip aendert, die Interpretierbarkeit des Diagramms hingegen deutlich erleichtert.

Ich vermutete aber, dass das immer noch nicht ausreicht, denn ich ging davon aus, dass selbst die durchschnittlichen monatlichen Seitenaufrufe massiv streuen. Oder anders: ich erwartete eine dichte Punktwolke ohne viel Struktur, wie schon bei der Abhaengigkeit der Anzahl der Links von der Anzahl der Zitate von „damals“. Die Løsung lag (wieder) in einer gruppenweise Mittelung der durchschnittlichen Seitenaufrufe. „Gruppenweise“ bedeutet hier (wieder), dass alle Seiten die eine gegebene Anzahl an Zitaten / Links haben eine Gruppe ausmachen. Die durchschnittlichen Seitenaufrufe aller Mitglieder der Gruppe wurden dann gemittelt.
Das sagt nicht mehr unbedingt viel ueber einzelne Seiten aus, denn die Information die in der Streuung der Werte liegt geht komplett verloren. Aber individuelle Seiten interessieren mich ohnehin nicht wirklich. Diese Herangehensweise erhøht die Interpretierbarkeit allerdings deutlich, wenn man auf allgemeine Erwartungen (oder Verhalten) bei einer gegebenen Situation (die Anzahl der Zitate / Link) aus ist.

Und hier ist nun endlich das Diagramm:

Voll super wa! Fuer bis zu ca. 1000 Zitate / 500 Links verhaelt sich die Anzahl der durchschnittlichen monatlichen Seitenaufrufe nach einem maechtigen Gesetz. Danach gilt das nicht mehr i.A. denn die Punkte streuen zu sehr. Letzteres liegt daran, weil ich bei sehr vielen Zitaten / Links nicht mehr genuegend Seiten fuer eine gute Statistik habe. Die obige Behauptung ist aber weiterhin i.A. gueltig, denn Seiten mit mehr als ca. 1000 Zitaten / 500 Links halten sich eher im oberen, als im unteren Teil des Diagrams auf (und bei logarithmischer Achse „haut das doppelt rein“ … streng genommen zehnfach, denn es ist ja ’ne logarithmische Achse).

Natuerlich haette ich die blauen Punkte gar nicht einzeichnen muessen, denn wir wissen ja, dass die Anzahl der Links nach einem maechtigen Gesetz von der Anzahl der Zitate abhaengt. Ich wollte das aber zeigen, denn besagte Abhaengigkeit fuehrt zu unterschiedlichen Anstiegen der blauen und roten „Kurve“.

So … viel mehr gibt’s dazu nicht zu sagen. Es ist fein zu sehen, dass die plausible Behauptung tatsaechlich stimmt.

Damit werde ich dann ab dem naechsten Mal die Reproduzierbarkeit der Ergebnisse angehen … nach ueber drei Jahren wird das dann aber zu einem unregelmaeszigeren Publikationsrhytmus fuehren, denn das mache ich zusammen mit dem neu schreiben der Analyseprogramme und das dauert ’ne Weile.

Bei hohen Sachen møchte man ja gerne wissen, wie hoch die sind. Bei besonderen Dingen gibt man das in Meter an … der Fernsehturm, der Berg, die Statue. Bei den allermeisten Gebaueden ist es hingegen von grøszerem Interesse zu wissen wie viele Stockwerke das hat. Ja klar, Gebaeude mit gleicher Anzahl an Stockwerken sind oft unterschiedlich hoch, aber mir geht es um eine „Essenz der Sache“ die ich mit dem folgenden Beispiel versuche zu illustrieren.

Auf dem Dorf (bzw. auch in der kleinen Stadt) erschien mir damals, als junger Mensch, der drei- oder mglw. sogar fuenf(!)støckige Plattenbau als ziemlich hoch. Dann kam ich als (sehr) junger Erwachsener in ’ne richtige Stadt und dort waren dann die 10-støckigen Bauten ziemlich hoch. (Von heute aus gesehen) Nicht sehr viel spaeter ging’s ab und zu mal in die Hauptstadt und dort hielt ich mich dann in einem 17-Støcker auf; dieser schien mir als ziemlich hoch. Nun als mittelalterlicher Mann kam ich nach Japan und die wirklich hohen Gebaude dort machten im Wesentlichen den gleichen Eindruck auf mich: ziemlich hoch … die hatten aber viel mehr als 17 Stockwerke … nur „fuehlte“ es sich nicht als soooo viel mehr an.
Worauf ich hinaus will ist, dass all diese Gebaeude in Metern zwar immer høher werden, aber deren „gefuehlte Grøsze“ nimmt irgendwie nicht im selben Masze zu.

Ein Ausweg aus dem Dilemma bietet die oben erwaehnte (und im vorigen Paragraph verwendete) Zaehlweise in Stockwerken. Mir „sagt“ 17 Stockwerke mehr als 50 Meter. Wie hoch sind eigentlich 50 Meter (ziemlich hoch wuerde ich mal sagen) und was ist der Unterschied zu 30 Metern (was ja immer noch ziemlich hoch ist)?

Da stellte sich dann in Japan aber ein Problem: das sind so viele Stockwerke, dass man zwar auf die Idee die zu zaehlen kommt, sich aber schnell beim Zaehlen mit den Augen auf der Fassade „verirrt“, denn es gibt keine „Anheftungspunkte“ die anders aussehen als die anderen, immer gleichen Fenster. Dieses Problem tritt bei einem 17 Stockwerken (noch) nicht (so stark) auf.

Damit komme ich zum heutigen Bild, denn als wir in Sapporo aus dem Bahnhof traten und unser Hotel suchten, tauchte dort dieses (ziemlich hohe) Hochhaus auf …

… und zu meiner Freude waren die Stockwerke nummeriert. Toll wa!

Und mit der Stockwerknummer 49 macht das schon ’nen ganz anderen Eindruck, als der ziemlich hohe 17-Støcker in Berlin.
Wie viel høher das ist, wird einem auch insb. dann etwas bewusster, wenn man bedenkt, dass Letzterer gar nicht mit im Bild gewesen waere (weil ich bei 19 Stockwerken abschneide). Das ist dann eine andere „Perspektive“, die man durch die blosze Angabe der Høhenmeter nicht wirklich bekommen haette.

Auszerdem ist es ebenso eine gute Visualisierung gewisser, kleiner Eindruecke (Wortspielkasse!) meiner Japanreise.

Ich war schon dabei zusammen zu packen, als ich ueber diese Seite (mglw. muss man nach dem klicken auf den Link die Seite nochmal refreshen um das zu sehen, was man sehen sollte) stolperte, auf der man fuer jede Wikipediaseite schauen kann, wie oft die pro Tag angeschaut wurde. Mein erster Gedanke war: das fetzt ja! Mein zweiter Gedanke war: moment Mal, damit kann ich doch direkt schauen, ob meine Annahme, dass Seiten mit mehr (Wikipedia internen) Zitaten populaerer sind, stimmt. Das konnte ich vorher naemlich nicht, weil diese Information nicht Teil des Wikipedia Quelltextes ist.

Das dortige Interface ist zwar fein, wenn man mal mit ein paar wenigen Seiten rumspielen will, aber ich wollte natuerlich die Daten fuer alle Seiten haben. Dies brachte mich (wieder) zu einer Seite, die ich bereits gaaaaanz am Anfang dieses Projekts vorstellte und dort gibt es einen Direktlink zu den Analytics data files. Von dort geht es dann weiter zu „Pageview complete“ … um dort dann mit zwei verschiedenen Rohdatenquellen konfrontiert zu werden: alte Daten und neue Daten.
Um eine etwas kompliziertere Angelegenheit kurz zu machen: es dauerte eine kleine Weile, bis ich da durchgeschaut hatte und die Datenlage ist etwas uneinheitlich und von Artefakten geplagt.

Dies hier ist ein Beispiel fuer ein unnatuerliches Artefakt (und indirekt eine Mthodenaenderung), in dem man die Klickzahlen fuer Cat und Dog fuer Juli und August 2017 sehen kann. Bei den Hunden ist alles knorke; eine im wesentlichen flach verlaufende Kurve mit ein paar Spitzen in denen ca. 2 1/2 mal so viele Leute sich fuer Hunde interessieren. Letzteres erregt mein Misstrauen erstmal nicht, denn ein Faktor von 2.5 passiert schon mal, gerne auch mehrfach. Das lohnt sich meistens nicht weiter zu untersuchen, denn vllt. gab’s da ’n Artikel ueber ’n Hund in ’ner Lokalzeitung irgendwo, oder eine Netflix-Dokumentation und solche Sachen.
Bei den Katzen hingegen sieht man einen massiven Ansteig um 1 1/2 Grøszenordnungen (!) an nur einem einzigen Tag. Es stellte sich heraus, dass Bots regelmaeszig die Wikipedia durchqueren und dann sowas verursachen. Mal mit mehr, mal mit weniger starken (aber immer deutlich herausstechenden) Klickzahlen.
Solche unnatuerlichen Peaks sind also im Wesentlichen bei allen Seiten dabei … … … bis die Wikipedia eine Methode gefunden hat die Bots zu erkennen und seitdem sind die NICHT mehr mit dabei.

Ein Beispiel fuer ein natuerliches (!) Artefakt ist der Film Tenet. Heutzutage liegt der taegliche Zaehler bei ein paar Tausend Klicks. Als der Film rauskam zeigt dieser aber bis zu ca. 50 Mal so viel an. Ist ja ganz natuerlich (insb. fuer diesen Film) und logisch, beschreibt aber nicht das normale Verhalten.

Ein weiteres Beispiel einer Methodenaenderung sind Nutzer von unterschiedlichen Hardwareplattformen. Am Anfang gab’s keine Mobilfunkversion, dann wurde das nicht unterschieden und alles nur in eine Zahl gepackt und in den neuesten Daten haben Nutzer der „mobilen Wikipedia“ ihre eigenen Klickzaehler.

Ich versuchte Artefakte in den Daten zu erkennen und „rauszurechnen“ … aber das ist alles nicht so eindeutig und fuer das was ich damit erreichen will war es mir zu viel Aufwand. Deswegen beschloss ich davon auszugehen, dass die unnatuerlichen Artefakte sich im Mittel gleich ueber alle Seiten verteilen bzw. im Groszen und Ganzen nicht weiter auffallen.
Ersteres ist durchaus eine plausible Annahme, muesste streng genommen aber nachgewiesen werden. Letzteres ergibt sich daraus, dass unnatuerliche Artefakte selten auftreten (eine weitere Annahme, die eigtl. geprueft werden muesste, aber wenn die oft auftreten wuerden, dann waeren die Statistiken prinzipiell unbrauchbar) und sich ueber’s Jahr gesehen im Mittel … øhm … herausmitteln … bzw. im „Fehler verschwinden“. Im Wesentlichen gilt das Gleiche (das Selbe?) auch fuer natuerliche Artefakte.
Probleme gibt es nur bei Seiten die erst seit kurzem existieren, denn da stellen potentielle (natuerliche) Artefakte einen signifikanten Anteil der Daten und hatten noch keine Zeit sich „rauszumitteln“. Andererseits habe ich ca. 6 Millionen Seiten insgesamt und pro Monat gibt’s nur … … … ja wie viele neue Seiten gibt’s denn eigentlich pro Monat?

Zum Glueck kann man das aus diesen Daten extrahieren, wenn man die zwei folgenden (wieder: durchaus plausiblen) Dinge annimmt. Eine neue Seite hat vor dem Tag ihrer „Geburt“ null Klicks. Am Erstverøffentlichungstag wird die Seite mindestens ein Mal angeklickt; naemlich vom Schøpfer selbst. Ersteres muss man nicht mal nachpruefen, denn das geht nicht anders. Bei Letzterem bin ich mir unsicher, es fuehlt sich aber richtig an; die Wikipedia ist ja nicht mein Weblog, bei dem Artikel im Voraus geschrieben um dann am Tag der Verøffentlichung nicht gelesen zu werden. Falls nicht, dann kønnte man argumentieren, dass ’ne Seite eben erst dann „wirklich geboren“ wird, wenn der erste Leser drauf klickt.
Und hier sieht man die Anzahl der neuen Seiten pro Monat seit Beginn der verfuegbaren Daten (minus ein Monat, denn als Ende 2007 die allerersten Klickzahlen registriert wurden, gab es bereits ca. 3.5 Millionen Seiten):

Die groszen Abszissenstriche kennzeichnen den Januar eines Jahres und die kleinen Abzsissenstriche liegen genau in der Mitte (also zwischen Juni und Juli). Die Jahreszahl ist auf die Mitte eines Jahres zentriert. Auszerdem habe ich natuerlich NUR die Seiten betrachtet, welche in die Kevin Bacon Analysen der letzten Jahre eingeflossen sind.

Was man im Diagramm sieht ist, dass die Anzahl neuer Seiten pro Monat _drastisch_ abgenommen hat. Die Gerade habe ich nur zum Vergleich reingelegt und bei logarithmischer Ordinate entspraeche die einem exponentiellen Abstieg … und wenn man genau hinschaut, ist das tatsaechliche Gefaelle schneller! An dem laengerfristigen Trend konnten auch die Schreibspurts (die pløtzlich auftretenden Spitzen) nur relativ kurzfristig was aendern. Bis Mitte ca. 2015 setzte sich der Trend fort und stabilisierte sich dann auf ca. zehntausend neue Seiten pro Monat, mit _ganz_ leicht steigender Tendenz (ca. 13k pro Monat Ende 2020).

Mit Blick auf Artefakte in neuen Seiten ist im Wesentlichen nur das letzte Jahr relevant. Wir reden hier also von nicht mehr als ca. 150-tausend Seiten oder ungefaehr 2.5 Prozent der ca. 6 Millionen Seiten die in meine Betrachtungen eingflossen sind. Jut … muss ich mir also keine Sorgen deswegen machen.

Das soll reichen fuer heute. Beim naechsten Mal zeig ich dann das, was ich eigtl. zeigen wollte.