Es ist ja eine alte Weisheit, dass in Japan alles supermodern ist. Ein Aspekt davon ist, dass ich mir ’ne lokale (!) „Piepskarte“ fuer den øffentlichen Nahverkehr in Tokyo kaufen kann und die dann auch in Sapporo funktioniert … und in Kyoto … und in Hiroshim … und auch in Ishinomaki … (hab’s nicht probiert in Nagasaki).

In Dtschl. ist das so unvorstellbar, sich in Berlin BVG-Ticket zu kaufen und dass das dann auch in Hamburg zu gebrauchen ist, dass ich mich nicht erinnern kann, dass eine derartig futuristische Idee in all meinen Jahren auf diesem Planeten jemals in der øffentlichen Diskussion vorgekommen ist. Denn das geht ja gar nicht! Das waere ja der Untergang des Abendlandes, wenn sowas funktionieren wuerde. Und in Norwegen ist das nicht anders.

Aber darum soll es heute gar nicht gehen. Vielmehr geht es mir um diese, auf den ersten Blick furchterregenden Maschinen:

Das ist eine Busbeførderungsentgeldbezahlmaschine und ich sage es mal sofort: da piepst nix. Aber der Reihe nach.

Ich habe versucht so viele Aspekte der Reise wie møglich im Vorraus zu planen. Einfach um „logistische Probleme“ zu minimieren. Fuer die meisten Reiseziele (ob nun ganze Staedte oder ein Museum) schaute ich mir die drei W’s im Voraus an — wann / wie / womit (das wie bezieht sich auf die Reiseroute, nicht das Beførderungsmittel) komme ich da hin wo ich hin will. Das nahm mir meine Befuerchtungen und funktioniert ganz hervorragend, denn meistens faehrt ’ne U-Bahn … oder ’ne Straszenbahn.

Doch in Totorri wollten wir in die Wueste und da muss man ’nen Bus nehmen. Die obigen drei W’s sind auch bei Busfahrten schnell beantwortet und ich dachte zunaechst, dass ja dann wohl alles klar ist. Doch dann stolperte ich darueber, dass so ’ne Busfahrt ja auch bezahlt werden muss und meine „Piepskarte“ da nicht funktioniert.
Vielmehr ist es so, dass man, wenn man aussteigt, auf die Anzeigentafel schauen muss, wie teuer das dann wird. Das sind aber keine 90-Minuten-in-alle-Richtungen Tickets … sondern die Kombination aus Einsteige- und Aussteigehaltestelle bestimmen den Preis.
Das hørt sich kompliziert an (ich kann doch keine Japanisch lesen) … aber es wird noch besser, denn in die rot umrandete Box oben drauf auf der Maschine, muss man den Betrag PASSEND reinwerfen … und wo soll ich als Tourist denn MUENZEN herbekommen? Ich bezahle doch ueberall mit (Pieps)Karte bzw. bekommt man am Geldautomaten nur Zettel.

Es stellte sich dann heraus, dass die Anzeigentafeln auch und Englisch und somit fuer Leute wie mich lesbar sind. Auszerdem ist das Haltestellenpreisinformationssystem voll gut durchdacht, man findet sich also schnell zurecht. Ebenso voll gut ist die Løsung des Ich-hab-doch-nur-nen-zehntausend-Yen-Schein-Problems, denn den steckt man nur in den Schlitz am unteren Ende des grauen Kastens und die Maschine spuckt die richtige Anzahl an Muenzen aus.

Aber das wusste ich ja alles bei der ersten Busfahrt noch nicht. Entsprechend nervøs war ich und stellte mich ganz vorne an, um zu sehen wie die Anwohner das machen … dann wechselte ich nervøs mein Geld, zaehlte nervøs die Muenzen ab, liesz es nervøs in die rot umrandete Box fallen … und alles lief wie am Schnuerchen … so scheint das in Japan nunmal zu sein (fuer Touristen zumindest) … selbst mit so alter Technik.
Bei der naechsten Busfahrt war dann alles klar und ich war nicht mehr so nervøs, weil ich wusste wie gut das funktioniert.

Zum Abschluss sei noch dies gesagt: wenn ich das richtig verstanden habe, dann sind die Maschinen rein mechanisch, auch das interne Muenzensortiersystem, cool wa … selbst wenn es nicht aus Lego gemacht ist.

Beim letzten Mal stoppte ich die Zusammenfassung genau vor dem Beginn zu den Untersuchungen bzgl. der sog. Selbstzitierungen (pro Linklevel) … also auf welchem Linklevel die Ursprungsseite einer Linknetzwerkanalyse (von anderen Seiten) wie oft zitiert wird. Bevor ich damit anfing dachte ich nicht, dass da all zu viel zu holen sei und Kapitel XXVIII und XXIX schienen das zunaechst zu bestaetigen.
Doch dann schaute ich mir in Kapitel XXX ein relativ kleines Detail genauer an; buchstaeblich nur ein einziger Balken in einem Balkendiagramm voll mit Balken, der etwas høher war als erwartet … und das war der Anfang eines (intellektuell) wunderbaren Abstechers, denn dadurch wurde ich auf ein komplett neues, bisher vøllig verstecktes Phaenomen im Linknetzwerk der Wikipedia aufmarksam: Wissensarchipelen.

Ich wollte die Diskrepanz in der Høhe des oben erwaehnten Balkens erklaeren kønnen und den Mechanismus der dazu fuehrt aufklaeren. Ich begann die Entdeckungsreise mit der einfachsten Idee, dass es Seiten gibt die nicht vom Rest der Wikipediaseiten zitiert werden. Diese allererste „Insel“ des „Archipels“ erfuhr unmittelbar eine Erweiterung um solche Seiten, die zwar auch nicht von „auszen“ zitiert werden, aber sehr wohl von besagter ersten Insel.
Mit diesem einfachen Mechanismus konnte ich ueber 95 % der Diskrepanz des Balkens erklaeren. Ich ueberlegte ernsthaft, ob ich mich dem Rest widmen sollte, denn das faellt doch alles in den 10-Prozent-Fehler. Aber da packte mich die Entdeckerlust noch mehr und ich erweiterte das einfach Archipelmodell erheblich.
Ich bin bis heute stolz auf die Ideen und auch (wieder) die Diagramme, denn noch einmal sind diese eine so schøne Illustration, wie wissenschaftlicher Erkentnissgewinn zustande kommt: eine kleinen Diskrepanz weckt die Kuriositaet der Forscherin welche sich das mal genau anschaut um dann zunaechst einfache Ideen „daran“ auszuprobieren, welche im Verlauf der Untersuchungen weiterentwickelt werden. Und am Ende ist die Diskrepanz erklaert, aber das eigentlich coole ist nicht die Erklaerung an sich, sondern dass man etwas vøllig Neues und Unerwartetes entdeckt hat, von dessen Existenz man vorher nichts ahnte.

Ich baute dann noch ein schøn rekursives Programm, mit dem ich alle Inseln des Archipels finden konnte und schwuppdiwupp … war nicht nur die Gueltigkeit des erheblich erweiterten Archipelmodells nachgewiesen, sondern (nach ein paar weiteren, einfacheren Ueberlegungen) die Diskrepanz zu 99.996788 % erklaert … Hurrah … Wait! What? … 15 Seiten die zur Diskrepanz beitragen entzogen sich den Erklaerungen und ich benøtigte einen Spaziergang um eine Idee zu bekommen was das fuer Seiten sein kønnten … die Idee stellte sich zum Glueck als richtig heraus … Spaziergaenge sind voll fetzig und regen mein Gehirn oft an :) .

Das war’s dann mit der Aufklaerung des Diskrepanz in der Høhe eines Balkens und das einzige Mal, bei dem ich mich nicht nur mit einer Erklaerung zufrieden gab die gut genug ist, sonder alles bis auf die letzte Zahl genau untersuchte.
Aber das das war’s noch nicht mit den Archipeln. Denn nach deren Entdeckung habe ich natuerlich deren Eigenschaften untersucht und mir eine zugehørige Kuriositaet angeschaut.

Dies alles zaehlt definitiv zu den schønsten Dingen die mir im Laufe des Kevin Bacon Projektes passiert sind … und der Besprechung dieser Erfahrung widmete ich einen eigenen Weihnachtsbeitrag :) .

Zu den Selbstreferenzen schloss ich in Kapitel XXXII ein paar lose Enden ab und dachte das war’s dann … um genau dort festzustellen, dass die einzelnen, linklevelabhaengigen Verteilungen der Selbstreferenzen sich vøllig anders verhalten als bei den totalen (oder neuen) Links.

Das fuehrte mich auf eine weitere laaange Abschweifung, denn ich hatte deswegen die Idee, dass man dieses Verhalten ja mglw. mittels relativ einfacher Formeln und nur ein paar wenigen Parametern simulieren kønnte.
Deswegen untersuchte ich zunaechst ab Kapitel XXXIII die Eigenschaften dieser Verteilungen um besagte Parameter naeher zu bestimmen. Dabei entdeckte ich, dass das Sprichwort „Vom Hundertsten ins Tausendste kommen“ eine empirische Grundlage hat und sogar quantifizierbar ist … und erstellte das vllt. schønste Diagramm der ganzen Maxiserie.
In Kapitel XXXVI Teil 3 und Teil 4 fand dann endlich die Simulation statt, die eigtl. recht ordentlich ist. Gruende fuer Abweichungen von den Messungen diskutierte ich in den Kapiteln XXXVII und XXXVIII.
Das war zwar alles ganz nett und ich habe viel Zeit damit verbracht, aber ich bin selber nicht so richtig zufrieden mit dem Ganzen. Das ist aber nicht falsch zu verstehen. Ich bin zufrieden, dass das klappte und die Ergebnisse ganz gut sind. Aber es stellte sich kein so supertolles Entdeckergefuehl ein wie bei den Archipelen zuvor. Aber so ist das ja oft, man kann nicht immer nur und jederzeit das Allerfetzigste machen.

Die Selbstreferenzen schloss ich in Kapitel XXXIX mit dem Blick auf (mehr) Kuriositaten ab um in Kapitel XL nochmal kurz auf die totalen (und neuen) Links zurueck zu kommen. Letzteres geschah, weil ich im Zuge der vorherigen Betrachtungen eine Untersuchung der Daten durchfuehrte, die mir vorher nicht in den Sinn kam. Das ist ja nur natuerlich und sollte noch øfter passieren. Dabei kam aber nicht viel raus … bis auf Kapitel XLI, in dem ich wieder einmal (die Ursache von) Fehler(n) genauer betrachtete.

So … nun ist auch dieser Beitrag schon wieder so lang … ich dachte, dass ich die Zusammenfassung in nur einem (wenn auch etwas laengeren) Beitrag packen kønnte … aber das ist fuer Herr Bacon ja nix Neues, dass es mal (deutlich) laenger als erwartet dauert und laenger wird. Deswegen geht’s beim naechsten Mal mit den Untersuchungen zur letzten Grøsze, der sog. Linkfrequenz weiter. Und vielleicht bin ich dann ja auch beim naechsten Mal mit der Zusammenfassung fertig.

Beim letzten Mal war die eigentliche Sache noch offen und ich knuepfe ohne weitere Umschweife direkt daran an. Zur Erinnerung nochmal das Paradebeispiel eines Duschereignisses:

Die Diskussion der PM10 Werte steht noch aus und wenn man genauer hinschaut sieht man zwei Dinge die geschehen.

Das Erste ist eine ca. halbstuendige, leicht erhøhte PM10 „Aktivitaet“ ca. 20 Minuten vor dem groszen Signal. Die Aktivitaet ist immer da; manchmal etwas kuerzer, manchmal etwas laenger, und ich denke, dass es sich dabei um mein taegliches „Brote fuer den naechsten Tag schmieren und Kueche aufraeumen bevor es in die Dusche geht“ handelt.
An Tagen in denen ich nicht Dusche mache ich das auch, aber das sieht man dann nur in den Daten, wenn man danach sucht. Das liegt daran, weil dieses kleine Signal „unter geht“  im immer noch vorhandenen, viel grøszeren „Rauchsignal“ (NICHT RauSchsignal! … denn das ist definitv aus dem Rauschen raus) des Kochens … es ist aber da.

Die Pause von ca. 20 Minuten erklaert sich dadurch, dass da Ruhe in der Kueche ist und die ganze „Action“ hinter verschlossener Tuer im Badezimmer stattfindet.

Nach dem Øffnen der Tuer kommen die Wasserdampfpartikel mit einem Schlag an … und deren Konzentration nimmt auch ziemlich schnell wieder ab um dann fuer ein paar Stunden auf einer Art „Plateau“ um ca. 7 µg pro Kubikzentimeter zu „verharren“.
Diese Entwicklung laeszt sich leicht erklaeren: nach der „Freilassung“ (Spitze in der schwarzen Kurve), kondensiert der warme Wasserdampf an ALLEN Oberflaechen (Signal geht schnell runter). Gleichzeitig kuehlt besagter Dampf in der Stubenluft ab und tritt schnell in ein thermisches Gleichgewicht mit der Umgebung. Deswegen kommt es zu keiner weiteren Kondensation und die Konzentration bleibt gleich. Bzw. nimmt diese nur langsam ab, indem die Partikel (langsam) zu „Luftfeuchtigkeit“ werden bzw. weitere Kondensation an den kalten Fenstern stattfindet, deren Oberflaeche aber viel kleiner ist, als der aller Gegenstaende (und Waende) im Hauptraum.
Im obigen Diagramm ist das alles sehr ausgepraegt und ich nahm das mit Absicht eben als Paradebeispiel. So eine tolle „Anfangsspitze“ muss aber nicht auftreten. Die Erhøhung und „Plateaubildung“ gibt es aber immer.

Damit sind die Brotschmier- (B … an Tagen an denen ich mich nur gruendlich wasche, aber nicht dusche) und Duschereignisse (D … welches auch IMMER B enthaelt, aber nicht umgekehrt) betrachtet und das Ganze kann in der Gesamtuebersicht gekennzeichnet werden:

Es gibt ein D mit Fragezeichen (am 2020-11-04) und das hat das Fragezeichen deswegen, weil ich da dann drei Tage hintereinander dusche. Das kann schon sein und passiert ab und zu … ich erinnere mich nicht mehr und meine Notizen der Messkampagne sind mir abhanden gekommen *schaem*.
Ebenso ist das B am 2020-10-31 nur deswegen (relativ) gut erkennen weil ich ganz kurz vorher den ganzen, noch vorhandenen Rauch „weg lueftete“. Wenn ich mich richtig erinnere liegt der Grund darin, dass ich an dem Tag mit Absicht den Luefter beim Kochen nicht an machte. Diese deswegen, um zu schauen, wie sich das auswirkt (und es gab definitiv etwas in der Pfanne gebrutzeltes an dem Tag, daran erinnere ich mich sicher). Vor’m zu Bett gehen wollte ich dann aber doch fuer reine Luft sorgen.
Alle anderen B’s sieht man in der Gesamtuebersicht nur, weil ich das ran schreibe. Wie gesagt muss man da reinzoomen, genau hinschauen und wissen was man an der Stelle erwartet, um die B’s als „leichte Schultern“ im „Rauch“ zu sehen.

Das reicht bzgl. des Duschens. Wie man im Gesamtdiagramm ueber alle Tage aber sieht, ist noch nicht alles identifiziert … mehr dazu beim naechsten Mal.

Beim letzten Mal fasste ich die Geschehnisse in der Kevin Bacon Maxiserie bis dahin zusammen, dass alles am Platz war um mich der eigentlichen Aufgabe zu widmen, mit der das hier alles startete: wie entwickelt sich das Wikipedialinknetzwerk, gesehen ueber ALLE Wikipediaseiten.

Zunaechst widme ich in den Kapitel XVIII bix XXV meine Aufmerksamkeit der Entwicklung der Anzahl aller Links die eine Seite (pro Linklevel) sieht. Dabei stiesz ich unmittelbar auf die Beobachtung, dass sich das ueberhaupt nicht so verhaelt, wie ich das mit „durchschnittlichen Ueberschlagsrechnungen“ erwartet haette. Die genauere Untersuchung førderte letztlich ganz klar zu Tage, wie krass ein paar wenige Seiten die anfaengliche Dynamik ganz massiv beherrscht. Wie bereits beim letzten Mal geschrieben, konnte dieser Fakt …

[…] im weiteren Verlauf der Maxiserie immer wieder zur Erklaerung anderer Phaenomene herangezogen [werden].

Ebenso erhielt ich im Zuge dieser Untersuchungen eins der schønsten Resultate insgesamt: ein maechtiges Gesetz an einer Stelle an der ich das nicht erwartete. Das musste (sehr viel) spaeter etwas modifiziert werden … aber auf logische Weise und letztlich wurde besagtes schøne Resultat damit sogar ueber die urspruenglich sicheren Grenzen bestaetigt.

Kapitel XXI widmete ich dann zum Ersten Mal einer detaillierten Fehlerbetrachtung. Dort (also allgemein bei allen Fehlerbetrachtungen, nicht nur in diesem konkreten Kapitel)  ging ich insb. auch auf von „mir verursachte“ Unzulaenglichkeiten in den Erklaerungen ein bzw. inwiefern meine Erklaerungen unzulaenglich sind. Von „mir verursacht“ ist in Anfuehrungszeichen, weil ich gewisse Dinge in den Daten nicht mit Absicht herbeifuehrte. Diese kamen aber durch die von mir durchgefuehrte Vorbereitung der Daten vor der Linknetzwerkanalyse zustande (bzw. den Code der dieser Vorbereitung zugrunde liegt). In allen Faellen haette ich dagegen gar nichts unternehmen kønnen, da ich von den Umstaenden die letztlich zu den Unzulaenglichkeiten fuehrten nix wissen konnte. Das deswegen, weil die dazugehørenden Phaenomene nicht oft genug auftreten, als dass es mir bei den wenigen tausend Wikipediaseiten die ich mir im Detail anschaute untergekommen waere. Sollte das nochmal gemacht werden, sind das aber natuerlich vermeidbare Fehlerquellen; ein weiterer (und wichtiger) Grund Fehlerbetrachtungen durchzufuehren und (intellektuell / wissenschaftlich) ehrlich zu bleiben.
Solche Fehlerbetrachtungen kamen im Laufe der Maxiserie ein paar Mal vor und liegen mir durchaus am Herzen. Dies nicht weil ich so toll bin, sondern viel mehr im Gegenteil, weil ich’s nicht bin. So ziemlich jedes Mal wenn ich die durchfuehrte haderte ich zunaechst mit mir ob ich das jetzt wirklich aufschreiben soll. Zum Einen, weil ich ungern Fehler zugebe. Zum Zweiten, weil die diskutierten Dinge in Bezug auf die Gesamtheit aller Daten ohnehin in den „10-Prozent-Fehler“ fallen. Und zum Dritten, weil das vermutlich niemandem aufgefallen waere, ich diese Niemandin aber mit der extra Betrachtung drauf aufmerksam mache.
Weil ich es aber schaffte meine (intellektuellen / emotionalen) Unsicherheiten zu ueberwinden liegen mir diese Betrachtungen so nah am Herzen … mal davon abgesehen, dass es (nicht nur) aufgrund der oben genannten Gruende sehr wichtig ist, dass man sowas macht.

In Kapitel XXII schaute ich mir „Kuriositaeten“ an … viel zu holen gab’s bei denen weder hier, noch wenn ich das spaeter fuer andere Grøszen machte. Letztlich sind es Einzelfaelle deren Besonderheiten sich zwar individuell erklaeren lassen, die aber (deutlich) aus dem allgemeinen Muster (und damit meinem Interesse) heraus fallen.

Kuriositaten stehen im Gegensatz zu (wenn auch oft seltenen, aber) systematisch auftretenden Diskrepanzen. Auf eine gewisse Art und Weise trifft dies auf die Untersuchungen zum Ende des Linknetzwerks aller Seiten in Kapitel XXIII zu. Ich schreibe das deswegen, weil ich durch diese zum allerersten Mal ueber das (erst viel spaeter wichtig werdende) “ São-Paulo-FC-Artefakt“ stolperte.
Doch zunaechst bemuehte ich mich in Kapitel XXIV darum, eine Zustandsaenderung in den Daten zu sehen, weil das die Beobachtungen auf coole und interessante Weise erklaert haette. Auch diese Idee wurde spaeter nochmal wichtig, aber zu dem Zeitpunkt stellte sich noch waehrend des Schreibens und Untersuchens heraus, dass ich das beobachtete Phaenomen streng (und auch weniger streng) genommen so nicht erklaeren sollte. Das Kapitel endete also mit einer „Negierung“ all dessen worueber es handelte.
Letzteres war aber nicht so schlimm, denn zum Ersten verdeutlichte es doch meinen obigen, allgemeinen Punkt (zur Fehlerbetrachtung). Zum Zweiten bin ich immer voll zufrieden mit mir, wenn ich nach langen, detaillierten und durchaus muehsamen Untersuchungen eine bessere Erklaerung fuer eine Beobachtung finde. Zum Dritten hatte es einige der fetzigsten Diagramme (eins davon sogar bewegt!) in der ganzen Maxiserie zur Folge. Auf die bin ich bis heute stolz. Natuerlich sehen sie cool aus und es steckt ’ne Menge Arbeit drin, aber viel mehr verdeutlichen sie so schøn den ganzen Weg von einer Beobachtung, ueber die Realisierung (und Visualisierung) zum Teil sehr abstrakter Ideen, hin zum Erkentnissgewinn. Auch das wird innerhalb der Serie mehrfach geschehen und voll fetzige Erkentnisse zur Folge haben.
Ach ja, besagte abstrakte Ideen konnten (sehr viel) spaeter mittels einer anderen Betrachtung der Daten deutlich weniger abstrakt verallgemeinert werden.

In Kapitel XV beendete ich denn (endlich) die Untersuchungen zur Anzahl aller Links pro Linklevel und begann mit der Untersuchung der Entwicklung der neuen Links pro Linklevel. Das ging bis Kapitel XXVIII und war eher „unfruchtbar“. Das ist auch nicht zuletzt darin sichtbar, dass es fuer diese Kapitel keine Unterkapitel gibt. Ich sah eben nix Neues, musste nix wirklich Unerwartetes erklaeren und die Beobachtungen benøtigten keine intellektuell reizenden (wenn auch mglw. eher abstrakten) Ideen zur Erklaerung.

Fuer mich war zu dem Zeitpunkt ziemlich genau ein Jahr vergangen, seit ich mit dem ganzen Projekt angefangen hatte. Aufgrund der enttaeuschenden Ergebnisse bzgl. der neuen Links dachte ich, dass ich wohl bald zum Ende kommen werde. Ich konnte ja nicht ahnen, dass sich diese Einschaetzung mit der Analyse der Selbstzitierungen als fulminant falsch heraus stellen sollte … aber darin steckt so viel Tolles, dass es den Rahmen dieses Beitrags sprengen wuerde und ich es auf’s naechste Mal verschiebe.

Beim letzten Mal identifizierte ich das abendliche Kochen des Mittags als Ursache der offensichtlichsten Ereignisse (und solche die von der gleichen „Art“ sind). Heute behandle ich andere Ereignisse, welche jeden zweiten Tag auftreten. Der Titel verraet es schon (aber nur zur Haelfte): es geht um Dampf der beim Duschen entsteht (aber nicht beim gruendlichen Waschen die anderen Tage). In der Gesamtuebersicht ist die Zeitaufløsung der Abzisse zu grob, weswegen ich hier mal in ein Paradebeispiel „reinzoome“:

Zur Diskussion nehme man als Orientierung die Spitze um ca. 1:15 Uhr in den PM10 Werten. Bevor ich zu denen komme, handle ich erstmal die anderen beiden Kurven ab, denn das geht schneller.

Man sieht, dass die PM2.5 Werte sich im Wesentlichen nicht aendern. Es gibt ein bisschen „Aktivitaet“ aber das kommt gerade so vom Nullwert weg. Das wunderte mich zunaechst, wuerde ich doch vermuten, dass auch kleinere Wassertropfen beim Duschen produziert werden. Dem ist tatsaechlich so, aber ungefaehr ’ne halbe Grøszenordnung weniger als PM10 (siehe Fig. 5 in diesem Artikel … nicht im Detail gelesen, weil ich nur Messdaten brauchte um eine Idee zu bekommen).
Auszerdem ist der Sensor ziemlich weit weg von der Dusche. Die Partikel muessen da also erst durch Diffusion hingelangen und dabei verduennen die sich. Obwohl ich immer ziemlich heiszes Wasser benutze und das Badezimmer eine regelrechte Waschkueche wird, ist das anscheinend nicht ausreichend die Konzentration der PM2.5 in der Kueche hoch zu halten. Da ist also nix zu holen.
Eine Ausnahme sieht man in der Gesamtuebersicht am 2020-11-03. Wenn ich mich richtig erinnere, habe ich da die Badezimmertuer extra aufgelassen (und mglw. auch nicht gelueftet), weil ich mal sehen wollte wie sich das in den Messungen bemerkbar macht.

Bei der Temperaturentwicklung kønnte man meinen, dass eine langfristige Abkuehlung um den Zeitraum der Spitze eingeleitet wird. Das ist sogar richtig, hat aber nix mit dem zur Diskussion Stehenden zu tun. Die laengerfristige Abkuehlung ist der Waermeverlust durch die Auszenwaende, weil ich in der Nacht nicht so „aktiv“ heize, es im November aber doch schon relativ kuehl ist.
Vielmehr ist es so, dass man oft (aber nicht immer … wie bspw. hier) auch eine (ganz) leichte, aber nur kurz anhaltende Temperaturerhøhung beobachten kann. Ich nehme an, dass der Wasserdampt anfangs noch ziemlich viel Waerme „in sich traegt“, das aber sehr fix an die relativ kalte Luft abgibt. Das geht sehr schnell, weil das Volumen des Hauptraumes sehr viel grøszer als das des Badezimmers ist.
Beim Kochen ist der Temperaturanstieg bemerkbarer, weil der Sensor viel naeher an der Waermequelle ist und Letztere viel mehr Waerme produziert. Ebenso faellt die Temperatur nicht ab, weil ich Abends immer noch aktiv heize und die Kochwaerme da nur mit zu beitraegt.
Auch hier gibt es wieder eine Ausnahme, naemlich am 2020-11-05. Da gibt es ein kleine Spitze nach unten in der Temperaturkurve, die verdaechtig nach einer Lueftung aussieht. Das ist durchaus møglich, denn allermeistens mache ich das kleine Badfenster sofort zu, wenn ich aus dem Badezimmer und direkt ins Bett gehe. Deswegen sieht man in Verbindung mit der hier besprochenen „Affaere“ normalerweise kein Lueftungsereignis. Wenn ich aber an dem Tag noch ein paar Minuten was in der Stube oder Kueche rumgewurschtelt habe, dann war die Tuer schon auf, der Dampf kam also schon raus, aber das Fenster war noch nicht geschlossen (denn ich ging ja nicht sofort ins Bett) und der kalte „Novemberwind“ ist in den Daten zu sehen.

So … nun ist das doch schon so viel, dass ich den Rest auf das naechste Mal verschiebe.

Die folgende Situation ist euch, meinen lieben Leserinnen und Lesern mglw. bekannt: ein Beispiel aus dem eigenen Leben wird gegeben um eine allgemeinere Beobachtung (mglw. gar ein Modell welches (besagte) Beobachtungen erklaert) zu illustrieren, mit dem Hinweis darauf, dass andere Menschen das in der gleichen Situation auch bemerkt / beobachtet / gemacht / erlebt haben.

Die ueblichen (oft genug pseudointellektuellen) Verdaechtigen sagen dann sowas wie „Die Mehrzahl von Anekdote ist nicht mit Daten gleichzusetzen“ … und ich gebe zu, dass ich verstehe, worauf diese Leute hinaus wollen und ich gebe denen damit eigtl. Recht. Nur weil ’ne Gruppe von Mønchen gnostische Erfahrungen beim Fasten haben, heiszt das noch lange nicht, dass das als Datengrundlage ausreicht um deswegen auf eine allgemeine Existenz einer Gøttin zu schlieszen.

Aber wenn man sich mal die vielen Millionen Datenpunkte die bspw. am CERN „produziert“ werden im einzelnen anschaut, dann sind das auch alles nur „Anekdoten“. In dem Sinne, dass der Detektor zu dem bestimmten Zeitpunkt ein „Erlebnis“ hatte in Form eines registrierten Teilchens. Und dann erzaehlt ein anderer Detektor eine aehnliche „Anekdote“.
Der Vergleich einzelner Datenpunkte mit einer Anekdote ist gar nicht so weit hergeholt. Messerereignisse sind nie identisch, denn die „zappeln“ alle ein bisschen um den sog. „wahren Wert“. Aus der (gewaltigen) Mehrzahl all dieser „Anekdoten“ werden dann aber Daten (mit Fehlerbalken).

Ein anderes Beispiel sind die (Neben)Wirkungen neuer Medikamente. Beim Testen werden die Erlebnisse (vulgo: Anekdoten) von vielen (aber nicht super mega vielen) Menschen betrachtet und in ihrer Mehrzahl als Daten fuer eine statistische Beurteilung besagter (Neben)Wirkungen genommen. Das bedeutet dann aber noch lange nicht, dass andere Individuen welche die gleichen Medikamente nehmen aehnliche „Anekdoten“ erzaehlen kønnen. Die Medizin ist voll von Beispielen, wo das eine Medikament bei vielen Menschen gut funktioniert, aber bei manchen (oder gar gleich vielen … oder gar viel mehr) Menschen ueberhaupt nicht. Das ist also die „Umkehrung“ der obigen Aussage: trotz guter Daten(grundlage) sind die eigenen „Anekdoten“ ganz anders.

Ja man braucht nichtmal eine Mehrzahl von Anekdoten um ordentliche (und wichtige!) Wissenschaft zu machen. Paul Martin Neuraths Doktorarbeit …

… ist (all zu) nuechtern (und viel zu verkuerzend) betrachtet nur eine Aneinanderreihung von (furchtbaren) „Anekdoten“. Aber die Bewertung, Einordnung und Analyse der gesamten Umstaende macht es zu einem wichtigen, wissenschaftlichen Werk.
Ersteres war damals, als er all dies schrieb, leider ein riesiges Problem fuer ihn, das als Doktorarbeit  anerkannt zu bekommen. Letztlich (mit)begruendete er damit aber eine neue wissenschaftliche Herangehens- und Arbeitsweise, in der selbst erlebte „Anekdoten“ eben die DATENgrundlage fuer wissenschaftliche Erkenntnisse dienen.
Worauf ich hinaus will ist, dass Wissenschaft erstaunlich gut mit Anekdoten funktioniert.

Nota bene: Das ist uebrigens ein Buch, dass man wegen (und nicht trotz) des schwer zu verdauenden Inhalts mal lesen sollte.

Das soll ausreichen, um meinen Punkt klar zu machen. JA, die Mehrzahl von Anekdoten (meist (aber nicht nur) von den ueblichen Verdaechtigen wie bspw. Impf- oder Klimaspinner) sind oft genug laengst keine Daten und man muss darauf aufpassen … aber alle Daten sind streng genommen eine Mehrzahl von Anekdoten.

Hier in Japan gibt’s sie noch, die Monchichis … aber nicht nur irgendwelche, sondern ich habe „The mother of all Monchichis“ gesehen:

Krass wa!

Mindestens genauso krass (aus heutiger Perspektive) ist das Monchichilied … o.O

Ich esse Blumenkohl sehr gerne. Aber die mglw. grøszte Freude bereitet es mir, beim Schnippeln die rohen Stueckchen zu futtern.
Vor ein paar Jahren ging ich gar so weit, dass ich mir einen ganzen Kopf kaufte um den als Snack zu verspeisen. … Ich gebe zu, das war zu viel des Guten. Zum Glueck habe ich mich nicht derart ueberfressen wie an Bananen kurz nach der Wende, denen ich seitdem eher abgeneigt bin … naja … alle paar Jahre esse ich mal eine … aber das waere sehr schade, wenn mir das mit Blumenkohl passiert waere.

Brokkoli esse ich mittlerweile auch ganz gerne (bevorzuge aber Blumenkohl). Dem war aber nicht immer so, denn Brokkoli gab’s in dem Haushalt in dem ich aufwuchs nicht … bzw. so selten, dass ich mich nicht dran erinnere. Wenn mir dieses Gemuese dann ab dem Studium ueber den Weg lief, hab ich’s immer gemieden, denn man kann den Jungen zwar aus dem Dorf treiben, aber das Dorf nicht aus dem Jungen … bzw. was der Bauer nicht kennt, frisst er nicht.
Es dauerte noch ein paar Jahre laenger, bevor ich mehr oder weniger gezwungen wurde Stockholm Syndrom bzgl. Brokkoli zu entwickeln … wobei das natuerlich auch ohne Zwang recht lecker ist … was aber natuerlich jemand mit Stockholm Syndrom auch sagen wuerde.

Das letzte Blumenkohlding das mir bekannt ist, ist Romanesco. Mit der fraktalen Anordnung der Knospen sieht’s definitiv am schicksten aus … sozusagen piekfein … tihihi … Wortspielkasse … wg. spitz = pieksen … okok, ich gebe zu, dass ist etwas weit hergeholt. Mich duenkt, ich habe das nur ein oder zwei Mal (oder so ungefaehr und definitiv nicht deutlich øfter) gegessen. Das liegt daran, weil ich Gerichte wo das „dazu gehørt“ nicht in meinem Repertoir habe und wenn ich traditionell eher ’n Blumenkohl fuer den gleichen Zweck (als Gemuesebeilage) nehmen kann, dann wird’s der Blumenkohl … weil ich schon beim Einkaufauf das schnabulieren waehrend des Schnippelns freue.
Auszerdem liegt Romanesco auch im „Spezialgemuese(kuehl)regal“ im Supermarkt und da geh ich nur sehr selten hin … man sieht, da beiszt sich die Katze in den Schwanz.

Ich erzaehle das alles, denn ich finde es interessant, dass diese Gemuese alle von der selben Art sind — Brassica Oleracea. Die Pflanzen kønnen also „Kinder“ miteinander haben die NICHT unfruchtbar sind (also anders als bei Nachkommen von Pferd und Esel, die ja beide unterschiedlichen Arten angehøren)  … da frag ich mich doch, was ein Blumescoli ist … tihihi.
Fuer mich als Mensch, dem eine gewisse Ess(en)kultur anerzogen, wurde sind diese drei Kultivare aber so unterschiedlich, dass ich deutlich unterschiedliche Esserlebnisse mit diesen verbinde.

Beim naechstem Mal wird’s bleibt’s lecker, wird aber zum Teil etwas „verrueckt“.

Im Diagramm vom letzten Mal finden sich viele Partikelereignisse, die ueber die Nullinie hinaus gehen. Um euch, meine lieben Leserinnen und Leser nicht all zu lange warten zu lassen, geht’s heute sofort um die offensichtlichsten Ererignisse. Hier ist gleich das Erste im Detail:

In den Partikelkurven zeichnen sich solche Ereignisse durch die sprunghaft ansteigende Partikeldichte aus, welche dann ueber viele Stunden exponentiell abfaellt. Der sprunghafte Anstieg geschieht innerhalb von ca. fuenf bis zehn Minuten. Die rote rote Kurve ist „kleiner“, aber davon abgesehen im Wesentlichen nicht „andersgeartet“ als die schwarze Kurve. Ich stelle das so heraus, weil das ein Unterscheidungsmerkmal zu einem anderen Ereignis wird.
Weiterhin finden diese Ereignisse immer nur Abends oder in der Nacht statt und sind begleitet durch einen (ebenso) sprunghaften Anstieg der Temperatur.
Letzteres ist hier ueberlagert durch das „Lueftungsereigniss“ (ausgezeichnet durch die abrupte Spitze nach unten, wie beim letzten Mal erklaert). Der Anstieg ist nicht riesig und man muss das vom Wert vor’m Lueften betrachten. Auf das Lueften komme ich gleich nochmal zurueck.

Weil der Sensor auf dem Kuechentisch lag, liegt eine Erklaerung fuer diese Ereignisse nahe (und der Titel dieses Beitrags hat’s eigtl. schon verraten): da hab ich wohl was in der Pfanne gebraten. Von der Zeit haut das hin (auch wenn das manchmal sehr viel spaeter als halb sieben stattfindet) und das erklaert auch den Sprung in der Temperatur, denn Ofen und Herd sind heisz.
Nun ist das erste derartige Ereignis etwas Besonderes, ist es doch ein „Paradebeispiel“. Das lag nicht zuletzt daran, dass ich VOR dem Kochen lueftete … eben weil ich sehen wollte, wie stark die Luft in der Wohnung durch’s kochen verschmutzt wird.

Meistens luefte ich jedoch NACH dem Kochen, was den Temperatureinbruch entsprechend verschiebt (hier nochmal ganz kurz nach Mitternacht) … und manchmal gar nicht (wenn nicht so viel Rauch entsteht).

„Richtig“ kochen tue ich nur jeden zweiten Tag (zumindest, wenn der junge Mann nicht bei mir ist). Die Tage dazwischen waerme ich die Reste vom Tag zuvor auf. Das hat (zum Teil gewaltig) geringere Partikelbildung zur Folge, insbesondere bei Teilchen kleiner als 2.5 µm (das meine ich mit „andersgeartet“ weiter oben). Aber die Temperatur steigt in der Kueche natuerlich dennoch an … auch wenn das oft nicht ganz so eindeutig zu erkennen ist. Beides ist hier natuerlich nicht zu sehen, weil der 28. Oktober 2020 ein „richtiger“ Kochtag war.

Mit diesem Wissen kann man das Kochen (K) und Aufwaermen (A) im Diagramm vom letzten Mal kennzeichnen:

Man sieht, dass nicht alles Kochen mit gewaltigen Rauchmengen verbunden ist … aber der Temperaturanstieg (und die ungefaehre Zeit) verraten solche Ereignisse. Das Aufwaermen ist schwerer zu identifizieren, geschieht aber im Wesentlichen auch durch die Kombination aus erhøhtem Partikelsignal, Temperatur und Uhrzeit (i.A. etwas spaeter als „richtiges“ kochen).
Und ja am 01. November 2020 hab ich erst ’ne Stunde vor Mitternacht mit dem Essen machen angefangen … manchmal wird’s nicht nur etwas spaeter (wie man an ein paar Tagen sieht), sondern viel spaeter.

Zwei deutliche Ereignisse habe ich mit Fragezeichen versehen. Auf den ersten Blick sehen die wie eben besprochen aus … aber … oh … ich eile voraus … das decke ich beim naechsten Mal auf.

Mit dem vorigen Beitrag møchte ich die „formalen“ Betrachtungen in der Kevin Bacon Maxiserie nach (heute auf den Tag genau) zwei Jahren und elf Monaten abschlieszen. Aber keine Sorge, die drei Jahre kriege ich sicherlich noch voll, denn zwei zu Kevin Bacon gehørende Sachen habe ich noch. Die kommen aber in den „Anhang“, denn bzgl. des Wikipedialinknetzwerkes werde ich nix Neues anfangen.

Zum Einen bin ich vor kurzem auf eine Datenquelle gestoszen, in der fuer jede Seite die tatsaechlichen „so-oft-wurde-ich-angeschaut“-Zahlen zu finden sind. Damit kann ich schauen ob meine Vermutung, dass die Anzahl der (internen) Zitate die eine Seite erhaelt (wie oft diese also auf andenen Seiten verlinkt ist), mit der „Beliebtheit“ (oder auch „Wichtigkeit“) korreliert, stimmt.

Zum Anderen muss ich schauen, ob die Resultate i.A. reproduzierbar sind. Dafuer habe ich mir zum Einen die Wikipedia nochmal beschafft (das war schon im Dezember, also ziemlich genau drei Jahre spaeter). Auszerdem gehe ich gerade durch die vielen (Analyse)Programme welche ich im Zuge dieses Projektes schuf durch und schreibe die nochmal neu aber (hoffentlich) klarer, strukturierter und allgemeiner (oder spezifischer, falls gegeben) … also i.A: besser (hoffentlich). Ebenso verpasse ich den Programmen eine ausfuerhliche Dokumentation. Damit ich das dann auch mal der Welt zur Verfuegung stellen kann.
Beides zusammen genommen ist also eine gute Gelegenheit den neuen Code auf seine Richtigkeit und die vorherigen Ergebnisse auf ihre Reproduzierbarkeit zu ueberpruefen. Das werde ich dann aber i.A. nur noch kurz zeigen à la „Hier ist alt, hier ist neu, passt schon“.

Wieauchimmer, das ist Zukunftsmusik. Der heutige Beitrag soll die Serie „im Geiste“ abschlieszen mittels eines zusammenfassenden Rueckblicks.

Los ging alles mit einer fixen (und definitiv NICHT konkreten) Idee und ich dachte damals, dass das Ganze in sechs Beitraegen fertig wird … HAHA!
Die fuer die Realisierung der Idee nøtigen Rohdaten waren schnell gefunden und in den Beitragen III bis VII sortierte ich all den Kram raus, der fuer die Analyse irrelevant war. Am Ende blieben 5,798,312 Seiten zur Analyse uebrig und so schnell ging’s (mehr als) sechs Beitraege zu schreiben. Dabei hatte ich noch nicht mal angefangen mich damit zu beschaeftigen, womit ich mich urspruenglich beschaeftigen wollte. Auszerdem konnte hier zum ersten Mal ein Phaenomen beobachtet werden, welches im weiteren Verlauf der Maxiserie mit schøner Regelmaeszigkeit auftauchte: eine weitere Unterteilung der „Kapitel“, wenn ein Thema zu viel wurde fuer einen einzigen Beitrag.

Aber dann ging’s endlich richtig los … ich „sprang“ in die Daten um zu schauen, was die mir so erzaehlen … und wurde sofort abgelenkt vom urspruenglichen Ziel, denn ich schaute mir zunaechst an, was man machen kann ohne dass man das Linknetzwerk aller Seiten „abschreitet“.

Die Analyse der Laenge der Titel fand zwar alles unter dem selben rømischen Numeral statt, umfasste aber sechs Beitraege … und brachte mir sogar eine „Superabschweifung“ in Form eines Geburtstagsbeitrags ein :) .

Bei der Analyse wie oft eine Seite (intern) von anderen Seiten zitiert machte mich sofort auf zwei Phaenomene aufmerksam, welche im weiteren Verlauf der Maxiserie immer wieder zur Erklaerung anderer Phaenomene herangezogen wurden. Zum Einen, dass ein paar wenige Seiten urst krass viel øfter zitiert werden als die „durchschnittliche Seite“. Zum Anderen, dass es Seiten gibt die kuenstlich aufgeblaeht sind, einfach weil jemand bspw. zu allen „Dørfern“ eines Landes eine Wikipediaseite mit zwei Saetzen erstellt hat, welche dann immer das lokale Wort fuer „Dorf“ verlinken. Die Wichtigkeit dieser Beobachtungen war mir zu dem Zeitpunkt aber natuerlich noch nicht bewusst.
Desweiteren traten bereits hier doppelllogarithmischer Diagramme und (ein) maechtige(s) Gesetz(e) auf … deren Bedeutsamkeit sich durch die ganze Serie zog und nicht unterschaetzt werden darf!
Unter rømisch zehn tat ich das Gleiche fuer die Anzahl der Links und sehr aehnliche Resultate.

Was mich auf die Idee brachte dies „zusammen zu ziehen“ und die „Relevanzdiskussion“ mal mit Zahlen anzugehen weisz ich nicht mehr. Dabei traten aber zwei Dinge zutage, welche sich ebenso mehr als ein Mal bemerkbar machen sollten.
Zum Einen, dass die Analyse und das Verstaendniss der Daten oft relativ grosze Abstraktionsgrade erfordert. Der Sprung von der Anzahl der Zitate einer Seite zum (lueckenlosen) „Relevanzwert“ einer Seite war da noch recht einfach … was mglw. fuer die kurz darauf folgende „komprimierte Relevanz“ nicht mehr gesagt werden kann.
Zum Anderen, dass es Anomalien in den Daten gibt, die gesonderte, detaillierte Betrachtungen erfordern um sie erklaeren zu kønnen. Zum Glueck bin ich so „gestrickt“, dass mir sowas keine Ruhe laeszt und derartige, oft (eigtl. immer) zeitaufwaendige „Abschweifungen“ von der Masse der Daten hin zu „Minoritaeten“, sollte mir im Weiteren Verlauf der Serie die besten Erlebnisse und Entdeckungen bescheren … wenn auch oftmals nach vielem Haareraufen.

Dann ging es aber endlich weiter … naja … nicht so richtig, denn das Linknetzwerk musste ja erstmal „abgeschritten“ werden, bevor ich mich der urspruenglichen Idee widmen konnte. Dafuer „mathematisierte“ ich von „Kapitel“ XII bis XV das Problem und der einzige „technische“ Artikel der ganzen Serie ist dem „Geniestreich“ gewidmet, der das „Abschreiten“ (und damit die Realisierung der Idee) ueberhaupt erst møglich machte.

Das wahrhaft technische habe ich euch, meinen lieben Leserinnen und Lesern, gar nicht „angetan“ und „versteckte“ es in nur einem einzigen Beitrag. Ich wollte aber wenigstens einen Beitrag haben bzgl. der tatsaechlichen Umsetzung des „Geniestreichs“ in funktionierenden Code, war es doch das, was mir in diesem langen Projekt die grøszte Zufriedenheit brachte. Ich musste naemlich so viele Sachen lernen, von denen ich vorher nicht die geringste Ahnung hatte um sehr spezifische, sehr technische Probleme zu løsen von denen ich vorher noch nicht mal wusste, dass es die gibt. Der Weg zum besagten, nicht nur funktionierenden, sondern auch praktikabel schnellen (!) Code war so befriedigend, dass ich ernsthaft ueberlegte, das Projekt an der Stelle zur Ruhe zu legen … dachte ich doch, dass das nicht getoppt werden kønnte … damit lag ich zwar richtig, aber zu dem Zeitpunkt konnte ich natuerlich noch nichts von den Entdeckungen (und weiteren, zu ueberkommenden Problemen) ahnen, welche mir fast genausoviele intellektuelle Orgasmen bescheren sollten :) .

Ach ja, an der Stelle sollte ich nochmal erwaehnen, dass erst dieser Code die praktische Durchfuehrbarkeit des Projektes ermøglichte. Der „Geniestreich“ machte es prinzipiell møglich, aber erste Implementierungen haetten ein halbes Jahrhundert gebraucht um zu Ergebnissen zu gelangen. Durch besagten Code konnte das auf ca. vier Monate Gesamtrechenzeit reduziert werden (und ca. 2 Monte tatsaechliche Rechenzeit, weil ich mehr als einen Laptop 24/7 damit beschaeftigt hielt).
Und ja, ich bin da bis heute maechtig stolz auf mich … meiner Meinung nach durchaus berechtigt denn bevor ich damit anfing dachte ich immer, dass ich gewisse erwartete Probleme nie im Leben løsen kønnte, weil ich dafuer nicht genug Kompetenz habe … und dann hab ich mir die Kompetenz zu eigen gemacht und das doch geschafft … toll wa :) .

Bevor es dann mit den Untersuchungen der Resultate des „Abschreitens“ des Linknetzwerks aller Wikipediaseiten los gehen konnte, stellte ich in Kapitel XVII die Grøszen vor, deren Entwicklung bei besagter Linknetzwerkanalyse ueberhaupt untersucht wurden. Am schwierigsten … oder eher abstraktesten war dabei die Grøsze, die ich „Linkfrequenz“ nannte. Spaeter stellte sich heraus, dass es sehr gut war, dass ich das mit untersuchte, denn war diese doch sehr sehr „fruchtbar“.

An dieser Stelle breche ich fuer heute ab und fuege dem (urspruenglichen) Titel ein „rømische I“ hinzu. Wie so oft gibt’s mehr zu erzaehlen als in einen Artikel passt … aber es war ja auch (bzw. ist immer noch) eine sehr langanhaltende Serie.