Damals wurde mir ziemlich spaet erst bewusst, dass ich zwar fuer ein gegebenes Linklevel (und eine gegebene Grøsze von Interesse) die Summe ueber alle Seiten untersucht hatte, es mir bis dahin aber nie in den Sinn gekommen ist, mir mal die Summe ueber alle Linklevel einer gegebene Seite (und einer gegebenen Grøsze von Interesse) anzuschauen. Eine einzelne Summe ist natuerlich nicht von Interesse, aber die Verteilung aller Summenwerte aller Seiten schon.

Das hab ich nochmal gemacht und hier sieht man den Vergleich dieser Verteilungen bzgl. der totalen Links fuer die 2020-Daten und die 2023 Daten:

Bei doppellogarithmischer Darstellung (linkes Diagramm) sieht das gleich aus. Bei linearer Abzsisse sind die „Balken“ bei hohen Summenwerten gewaltig verschoben. Der Grund liegt natuerlich mal wieder daran, weil die 2023 Wikipedia mehr Seiten enthaelt.
Bereits damals hatte ich mir besagten „Balken“ genauer angeschaut und es stellte sich heraus, dass das gar kein Balken ist. In diesem Diagramm …

… hab ich nicht nur in die „Balken“ „reingezoomt“, sondern auch den 2023-Daten eine von den 2020-Daten unabhaengige Abzsisse gegeben (die obere). Das sieht dann wie eine „Verschiebung“ aus und erleichtert den Vergleich der Daten. Siehe da: die „Dynamik“ ist die Gleiche (gar die Selbe wuerd ich sagen), sowohl bei kleinen, als auch bei hohen Summwerten.

Obacht: bei den hohen Summen handelt es sich um weniger als 2000 Datenpunkte, die nicht mal 10 % aller Wikipediaseiten repraesentieren! Wie zu erwarten ist, haben die allerallerallermeisten Seiten die selbe Anzahl an totalen Links (das ist der eine Datenpunkt, welcher der oberen Abzsisse am naehsten kommt). Das besprach ich damals detailliert (siehe der Beitrag hinter dem obigen Link) und werde das an dieser Stelle nicht nochmal wiederholen.

Fuer die neuen Links hatte ich mir das damals nie angeschaut, aber da gibt es keine Ueberraschungen (wenn man sich schonmal die totalen Links angeschaut hat):

Die „Dynamik“ bei hohen Summenwerten scheint (deutlich?) schneller runter zu gehen als bei den totalen Links und das sollte vielleicht mal wer anders genauer untersuchen. Wie schon oben, gibt es auch hier wieder keinen echten Unterschied zwischen den beiden Datensaetzen.

Ebenso nicht angeschaut hatte ich mir die Verteilung der Summe(n) ueber die Linklevel fuer die Selbstreferenzen. Die sind hier im linken Diagramm zu sehen:

Høh? Das sieht ja (fast) so aus wie die Summer ueber alle Seiten auf einem gegebenen niedrigen Linklevel (siehe bspw. hier). Das stimmt, das sieht so aus, aber wenn man sich das mal genauer anschaut, dann ist dem nicht so. Die Aehnlichkeit kommt durch die starke „Begrenztheit“ der Selbstreferenzen zustande. Zum Einen gibt es ohnehin nicht sehr viele Selbstreferenzen und zum Anderen nimmt das „Selbstreferenzensignal“ sehr schnell ab. Ab LL23 ist da (fast) nix mehr (man kønnte argumentieren, dass ab LL10 praktisch nix mehr ist. Im Gegensatz zu den totalen (oder neuen) Links wo das Signal immer irgendwie hoch-ish ist, dominiert fuer diese Summe bei den Selbstreferenzen das Signal der ersten paar Linklevels und deswegen sehen sich die Verteilungen dieser zwei, konzeptionell vøllig unterschiedlichen (!), Summen so aehnlich.

Ansonsten ist nur zu sagen, dass die 2023-Daten den 2020-Daten so aehnlich sind, dass man beinahe von „deckungsgleich“ sprechen kønnte.

Als Letztes ist dann die Verteilung dieser Summenwerte fuer die Linkfrequenz im rechten Diagramm zu sehen. Das war damals der „Aufhaenger“, wie ich auf diese (andere) Summer ueberhaupt erst aufmerksam geworden bin, weil man damit ganz leicht „Archipelagoseiten“ identifizieren kann.
Wie man sieht, reproduzieren auch hier die 2023-Daten die 2020-Daten … mehr hatte ich damals dazu gesagt, was ich hier aber nicht wiederholen werde.

Beim naechsten Mal: die „Archipelagos“ an sich.

Da dies der Silvesterbeitrag ist, konnte ich beim Titel nicht widerstehen … ansonsten hat das Thema dieses Beitrags herzlich wenig damit zu tun.

Wir verbleiben fuer einen weiteren Beitrag in Kagoshima. Und die heutige Kuriositaet faellt in ein Themengebiet, was auch hier bereits auftauchte — immer und ueberall praesenter Katastrophenschutz. „Kuriositaet“ ist natuerlich nicht als „komisch“ oder gar „lustig“, sondern im Sinne von „verblueffend“ bzw. „Neugier ausløsend“ gemeint. Was es fuer uns Mitteleuropaer, die wir in einer gelogisch ziemlich stabilen Region leben, tatsaechlich der Fall ist. Denn das Aufschieben der Alpen scheint z.Z. nicht so kraeftig vonstatten zu gehen … und ich hier in Norwegen lebe ja sowieso in einer der geologisch aeltesten, an der Oberflaeche befindlichen (!), leicht zugaenglichen (!) und ausgedehnten (!), geologischen Formationen. Bei mir zu Hause ist das also schon per definitionem geologisch stabil, denn ansonsten gaeb’s das hier alles gar nicht mehr. Jaja, es gibt noch sehr (!) viel aeltere Gesteinsformationen, manche davon sogar aus dem Hadaikum (!), aber das faellt dann alles aufgrund der zusaetzlich angegebenen Qualifikationen raus … das hab ich geschickt eingefaedelt, wa!

Aber ich schwoff ab. Denn eigtl. wollte ich sagen, dass Japan (geologisch gesehen ein Baby) nicht nur von Erdbeben, sondern auch von Vulkanen geplagt ist — liegt es doch im pazifischen Feuerring. Und weil Kagoshima direkt neben einem aktiven Vulkan liegt, versucht unser Planet diese Stadt (menschlich gesehen) langsam aber (geologisch gesehen) stetig zu begraben.
Besagte Menschen muessen die aus den Tiefen der guten alten Erde ausgespuckten Materialien dann wieder wegraeumen, denn wenn Mitglieder unserer Spezies erstmal ’n Platz gefunden haben, an dem es fetzt, lassen wir uns nicht so leicht vertreiben.
Oder anders: jede(r) muss die auf sein (oder ihr) Haupt gefallene Asche zwar selber auffegen, aber damit das dann nicht alle ins Meer kippen, wird das von den Steuerzahlern dafuer bezahlten Diensten an gekennzeichneten Sammelstellen abgeholt. Letztere sind durch solcherart Schilder …

… gekennzeichnet … und beim Spaziergang durch die Stadt, sind die mir altem Europaer sofort ins Auge gefallen, eben weil solche Zustaende fuer uns so unbekannt sind … OKOK … ich gebe zu, dass lag auch daran, weil da der Vulkan so prominent drauf abgebildet ist … wobei ich denke, dass ich auch ohne diese visuelle Hilfe nach ein paar Schildern versucht haette herauszufinden, was die bedeuten.

Ich lasse euch, meine lieben Leserinnen und Leser, damit natuerlich nicht alleine, deswegen hier die Uebersetzung:

So, genug dazu … ich wuensche einen guten Rutsch und ein fantastisches 2026.

Heute etwas ganz Besonderes, passend zur Weihnachtszeit und den herrschenden Temperaturen; naemlich das wirklich und wahrhaftig allererste Thermometer mit einer Celsiusskala:

Das kann man im Gustavianum (durchaus einen Besuch wert) in Uppsala (dito) anschauen.

Links ist noch der originale Draht mit dem Celsius (mit Vornamen Anders, nicht wie man mglw. denken mag „Grad“ … *kicher*) das damals, in der ersten Haelfte des 18. Jahrhunderts, an Sachen gehangen hat.

Aber das wirklich Interessante ist, natuerlich die Skala. Ihr, meine lieben Leserinnen und Leser, solltet mal auf das Bild klicken und reinzoomen; die Skala ist naemlich falsch herum. Oder anders gesagt: zu Celsius Zeiten hat man sich im Winter verbrueht, wenn man raus gegangen ist … waren schon heftige Zeiten damals.

Celsius hat die Skala bis zu seinem Tode „falsch herum“ (fuer ihn natuerlich richtig rum) benutzt. Aber schon ein Jahr nach seinem (fruehen … 44 Jahre wurde Anders nur alt) Tod, hat Carl (ausnahmsweise nicht Marx, sondern Linneus) es nicht mehr ausgehalten und das ganze richtig rum gedreht.

Abschlieszend eine Sache, die man wohl nur Ironie des Schicksals nennen kann. Ich erwaehnte vor laengerer Zeit, wie schwer es vormals war Temperatur richtig zu messen. Entsprechend viele kluge Køpfe haben sich dran versucht. Und jeder hat sich natuerlich eine eigene Skala, mit anderen Referenzpunkten fuer Null und Einhundert (oder so) erdacht. Einer davon war Delisle (der hiesz auch nicht „Grad“ mit Vornamen sondern Joseph-Nicolas) und der hat die von ihm gebauten Thermomter an andere Natuerforscher geschickt, damit die das benutzen.
Eigentlich voll geschicktes Marketing, wenn man seinen Namen in Geschichtsbuechern sehen will … Anders nun dachte sich (wie alle anderen … Wortspielkasse), dass er auch seine eigene Skala will. Das ist natuerlich die Skala, die es bis in unsere heutige Zeit geschafft hat und die wir mit Celsius‘ Namen versehen haben … ganz ohne „Marketing“ und obwohl Joseph-Nicolas deutlich laenger lebte und eigtl. mehr Zeit hatte seine Temperatureinteilung zu verbreiten.

Ich wuensche ein frohe Weihnacht, mit hoffentlich viel Schnee, sodass ich zeitnah Slalom fahren kann.

Puuuh … jetzt ist deutlich ueber ein Jahr vergangen seitdem ich den abschlieszenden Beitrag dieser Miniserie versprach. Ich kann mich erstmal nur wiederholen:

Es waren dann erstmal andere Sachen zu tun und auch keine Lust vorhanden das hier zu schreiben.

Das ist halt ein Nachteil an der deutlich verminderten Beitragsfrequenz. Und dann kann ich mich gleich nochmal wiederholen:

Nun sitze ich aber gerade (und noch eine Weile) im Zug und habe zwar immer noch keine Lust … aber auch nix anderes zu tun. Selbstueberredung sei dank folgt dem ersten [zweiten] Teil endlich mal der zweite [abschlieszende] Teil.

Zur Erinnerung: bei der hier besprochenen Hormesis ging es darum, dass SEHR (!) niedrig dosierte radioaktive Strahlung mglw. (!), auf ganze Bevølkerungsgruppen gesehen (!), GANZ (!) leichte, krebsvorbeugende Wirkung haben kønnte (!).
Ich hatte einen møglichen Mechansmus vorgeschlagen (und lese gerade, dass ich in den groben Zuegen damit gar nicht mal so falsch lag). Ehrlich gesagt, nachdem ich jetzt ’n paar Artikel darueber gesichtet habe, bin ich ziemlich ueberzeugt, dass der Effekt echt ist.

Und hier geht’s dann los mit dem was ich eigtl. sagen will. Die potentiellen positiven Effekte sind so klein gemessen am nøtigen Aufwand, dass das praktisch einfach nicht umsetzbar ist. Wie zum Teufel soll man denn die gesamte Menschheit (sehr) leichter Strahlung aussetzen? Das Problem ist naemlich technischer (und damit menschlicher) Natur, denn man darf dabei zu KEINER Zeit Fehler machen, denn relativ wenige Fehler wuerden die recht kleinen positiven Effekte im Gesamtbild ziemlich schnell zunichte machen.
Oder anders (an einem Beispiel): leiche Strahlung muss ja irgendwo herkommen, ich sag jetzt mal aus ’nem Kasten aus Blei. Die Abschwaechung kommt im einfachsten Fall vom Abstand zur Quelle zustande … UND davon wie weit die Klappe des Kastens auf ist.
Und da geht’s schon los, denn wieviele Leute bekommen nicht mal die Heizung richtig reguliert? Das ist sicherlich zu machen, wenn man technisch geschultes Personal in speziellen, dafuer vorgesehenen Einrichtungen hat. Sowas gibt’s ja heutzutage laengst, wir nennen das nur radiologische Abteilung und benutzen es aus anderen Gruenden. Aber wir wollen das auf der Ebene ganzer Bevølkerungen machen. Das muss also in den Schulen und Bueros oder Wohnhaeusern sein. Und da obliegt das alles unter der Kontrolle von deutlich weniger gut geschultem Personal.
Ein Beispiel aus einem anderen Sektor sind Flugzeuge und Autos. Erstere sind „spezielle Einrichtungen“ (weniger als 10 % des Personentransports (Figure 2) in der EU geschieht mit dem Flugzeug) mit gut geschultem Personal auf allen Ebenen und entsprechend wenige Unfaelle gibt es. Jeder Depp darf hingegen Auto fahren (fast 80 %) und die Kompetenzen sowohl der Fahrer als auch der Konstrukteure und Instandhalter ist … ich sag jetzt mal: durchwachsen. Entsprechend gab es 2019 weltweit ueber eine Million Verkehrstote. Niemand wuerde mit dem Flugzeug fliegen, wenn dabei so viele Menschen umkommen wuerden. Und das sind nur die Todesfaelle. Die Zahl der (oft schwer) Verletzten bzw. die Zahl der Unfaelle ist deutlich høher.

Und wie kommt da jetzt der Kapitalismus rein … nun ja … eben habe ich die Flugzeugindustrie als gutes Beispiel angefuehrt. Das ist als das „Best Case Scenario“ anzusehen und deswegen nehme ich das her und verweise nur auf das Boing 737 Max Debakel (und dort weiterfuehrende Links). Viele der in diesem Fall begangenen Fehler (mit hundertfacher Todesfolge!)  haetten vermieden werden kønnen, haetten die haesslichen Seiten des Kapitalismus dem nicht entgegen gestanden … und nun stelle man sich das mit ueberall auf der Welt verteilten Kaesten vor, die radioaktives Material enthalten.

Nun habe ich schon wieder viel dazu geschrieben und noch nicht das gesagt, was ich sagen wollte. Denn eigtl. wollte ich den Artikel, der zu dieser Miniserie fuehrte, an sich kritisieren … oder vielmehr einen guten Anteil der Artikel die ich zu dem Thema gesichtet (aber nicht alle vollstaendig und im Detail gelesen) habe. Denn selbst wenn ich mittlerweile davon ausgehe, dass die Behauptung wahr ist, so liest der (die) Artikel sich an viel zu vielen Stellen wie Lobbyarbeit fuer die Nuklearindustrie, weil die einfach keine Lust haben ihren „Dreck“ ordentlich weg zu machen (Kapitalismus eben).
Oder anders: eigentlich ist die ganze Sache ja etwas voll Tolles und Interessantes und etwas das sich lohnt weiter zu untersuchen. Aber aufgrund der Komplexitaet des Sachverhalts (nicht nur technisch) kann (und meiner Meinung nach wird) eine all zu breites bekannt werden dieser Sache, all zu leicht missbraucht werden … *seufz*

Oder noch anders: man hørt all zu oft von den Atomspinnern, das Folgende: „die Deutschen fuerchten sich vor Strahlung, dabei haben wir doch ueberall Hintergrundstrahlung“. Damit sollen natuerlich die meiner Meinung nach (sehr!) berechtigten Bedenken bzgl. der Gefahren der Atomkraft laecherlich gemacht werden … Propaganda der Kapitalisten ueblichen Verdaechtigen eben. Der fetzige Sachverhalt spielt der besagten Propaganda dabei leider in die Haende und hilft keineswegs, dass so subtile „kleine (!) Strahlungseffekte“ vernuenftig diskutiert werden kønnten.

Lange Rede kurzer Sinn: meiner Meinung nach sind die positiven Effekte sehr leichter Strahlung echt. ABER diese Effekte sind ziemlich klein und auch diffizil zu betrachten und das ist alles so kompliziert, dass das nicht sinnvoll umsetzbar ist und wir als Gesellschaft beim linearen Modell (jedwede Strahlung ist schlecht) bleiben sollten. Und so wuenschenswert ich auch eine ordentliche und breite Diskussion dieser Sache finden wuerde, so denke ich, dass dies viel eher eine Buechse der Pandora ist, die unter den derzeitigen gesellschaftlichen Umstaende zum Wohle aller besser geschlossen bleiben sollte.

Und damit hab ich diese Miniserie endlich abgeschlossen.

Ich wollte doch eigentlich die Simulation der Entwicklung der Selbstreferenzen von einem Linklevel zum naechsten NICHT nochmal schreiben. Ich frage mich, warum ich solche Sachen immer noch behaupte? Am Ende mach ich’s doch sowieso.
Ein Grund fuer die Meinungsaenderung waren die zwei Programme, die mir grosze Teile der Diagrammerstellung abnehmen. Das reduzierte die „Hemmschwelle“ deutlich. Der andere Grund war, dass ich den zugehørigen Code dann doch ordentlich machen wollte … ein Projekt ordentlich abzuschlieszen (auch wenn das bei diesem Projekt dauert und dauert und dauert und dauert …) motiviert mich gewaltig, auch nicht ganz so spannende Sachen gruendlich zu machen.

Wieauchimmer, ich habe das dazu gehørende Programm nochmal neu geschrieben und dabei „entruempelt“. Letzteres bezieht sich vor allem auf den Anfangszustand, von dem die Simulation starten soll.
Damals hatte ich mir dazu viele Gedanken gemacht und mehr oder weniger viel (aber sicher unnøtig) komplexen Code geschrieben. So richtig zufrieden war ich damit nicht, denn mein Ansatz fuehlte sich zu sehr ad hoc an (was erstmal nicht schlimm ist), und gleichzeitig nicht aus „einem Guss“. Beides zusammen ist schon „schlimmer“, denn das heiszt im Prinzip, dass sich ein beliebiger anderer Ansatz haette „vom Haken“ nehmen lassen.
Auszerdem løste der Ansatz das Randproblem der „wenige Daten im langen Schwanz“ auch nicht, was sich dann natuerlich durch alle Simulationsergebnisse zog.

Die erste grosze Neuerung im neuen Code ist jetzt, dass ich einfach das erste passende „Messergebnis“ als Ausgangspunkt nehme. Das løst alle oben genannten Probleme auf einen Schlag.

Die zweite grosze Neuerung ist, dass ich jetzt fuer jede „Seite“ einzeln simuliere (vulgo: zufaellig zuordne), wieviele Selbstreferenzen die auf dem naechsten Linklevel hat. Vorher hatte ich das anteilsweise fest zugeteilt.

Am Ende habe ich das dann mit den selben relevanten Parametern und den 2020 Daten (NICHT die 2023 Daten, deswegen in dem Sinne KEINE Reproduktion) alles nochmal simuliert und das ist das Ergebnis:

Die blauen Punkte sind die Ergebnisse der neuen Simulation, die roten Quadrate sind die Resultate der alten Simulation, und die grauen Diamanten sind die 2020 „Messergebnisse“. Man sieht (hoffe ich, wenn nicht schaue man sich die originalen Artikel nochmal an), dass der lange Schwanz bei den blauen Punkten nicht mehr abgeschnitten wird. Damit „passt“ das diesbezueglich deutlich besser zu den „Messergebnissen“ als die alte Simulation.

Andernfalls sind die alte und die neue Simulation gleich in allen wichtigen Punkten — Amplitude und (zunehmender) Anstieg — und teilen auch die bereits damals diskutierten Unzulaenglichkeiten.

Da es nicht Ziel dieser „Uebung“ war alles besser zu machen, bin ich sehr zufrieden und froh, dass das jetzt auch endlich fertig ist.

Ich habe einen witzigen Nachtrag zum Spielverderber, der aber meinen dort hervorgehobenen Punkt doppelt unterstreicht:

Quelle … ich habe nicht versucht rauszufinden, wo das Original herkam und wer der originale Autor ist … das ist vermutlich ohnehin wenig erfolgsversrpechend.

Aber echt mal! … tihihi

Bei der Quelle denke ich zwar mittlerweile all zu oft, dass solche Interaktionen nicht echt, sondern gestellt sind, weil irgendwer damit „Internetpunkte ernten“ will.
Aber selbst wenn, so tut das der Witzigkeit in diesem Fall keinen Abbruch und wie oben gesagt, illustriert’s selbst im solch einem Fall sehr schøn mein Spielverderberargument.

In meinen Kopf nehm ich das aber als echt, einfach weil das Universum dadurch etwas lustiger wird :).

Zur Simulation der Selbstreferenzen via „atomistischer Naeherung“ (die ich an sich eigtl. nicht nochmal machen will, weil ich das Gefuehl hatte, dass das nicht viel gebracht hat) benøtigte ich auch die Abhaengigkeit der Anzahl der Selbstreferenzen die eine Seite auf einem gegebenen Linklevel hat, von der Anzahl der Selbstreferenzen dieser Seite auf dem vorherigen Linklevel. Oder anders und an einem konkreten Beispiel: hat eine Seite mit vielen Selbstreferenzen auf LL5 auch viele Selbstreferenzen auf LL6?

Nachdem ich das „Konzept“ „entwickelt“ hatte, wandte ich das dann auch auf  die totalen und neuen Links und die Linkfrequenz an. Viel ist dabei nicht rumgekommen … aber ich habe den Code dafuer neu geschrieben und deshalb liegen die Ergebnisse jetzt auch fuer die 2023 Daten vor.
Hinzu kommt, dass ich fuer’s letzte und vorletzte Mal ein Werkzeug schrieb, mit welchem ich ([deutlich mehr als] halb-)automatisiert Diagramme erstellen und schøn machen kann. Anstatt also nur ein paar repraesentative Beispiele zu zeigen, kann ich nun ohne all zu viel arbeite ALLES diagrammisieren … was in diesem Falle hiesz, deutlich ueber 200 Bilder zu erstellen. Zugegeben, die meisten davon sind nur „Zwischenschritte“ im automatischen Prozess und nicht direkt im Endergebnis zu sehen … aber erstellt werden mussten die trotzdem. Das Endergebnis sind dann nur vier bewegte Bilder; eins pro Messgrøsze. Die enthalten jeweils zwei Diagramme („Rohdaten“ und Durschnittswerte … macht schonmal acht Diagramme) und laufen ueber jedes Linklevel. Bei ungefaehr 80 zu zeigenden Linkleveln macht das ueber 600 Bilder die ihr, meine lieben Leserinnen und Leser gleich sehen werdet.

Ich schreibe das hier nochmal ausfuehrlich, weil es so ein schønes Beispiel fuer einen wichtigen Teil des wissenschaftlichen Prozesses ist: hier habe ich keine „neue“ Methode entwickelt, sondern ein effektives Werkzeug geschaffen, mit dem man viel mehr abstrakte Daten (in der Form langer Zahlenreihen) in verstaendlichere Information (in Form von „bewegten“ Diagrammen) bringen kann. Das aendert nichts an den urspruenglichen Schlussfolgerungen und Ergebnissen, erøffnet aber die „Dynamik“ eines Systems im Detail zu untersuchen … was ich aber nicht mehr machen werden.

Damit genug der langen Vorrede. Hier ist die Entwicklung der totalen Links auf einem gegebenen Linklevel in Abhaengigkeit der totalen Links auf dem vorherigen Linklevel dargestellt:

Im linken Diagramm sind die „Rohdaten“ zu sehen. Im Wesentlichen entspricht jeder Punkt einer Seite … und hier geht’s auch schon los. Nicht nur wird einem gegebenen Wert auf der Abzsisse oft mehr als einen Wert auf der Ordinate zugeordnet. Viele (in spaeteren Linkleveln alle) zu sehende Datenpunkte sind „degeneriert“. Das heiszt, dass mehrere (viele) Seiten das selbe (Anzahl-Links-auf-LLi-1, Anzahl-Links-auf-LLi)-Paar haben. Ich komme darauf gleich nochmal zurueck.

Desweiteren ist zu sagen, dass ich alle „Nullwerte“ weglasse. Also alle Daten die entweder keine (in diesem Fall) Links auf diesem oder dem vorherigen Level hatten. Ersters entspricht einem „Nullwert“ auf der Abzsisse, Letzteres einem „Nullwert“ auf der Ordinate. Bei den totalen Links kann Letzteres nur in der Form einer „Doppelnull“ auftreten (deswegen ist das allerletzte Diagramm auf LL84 leer), aber bei den Selbstreferenzen weiter unten sind beide Faelle møglich.
Ich habe mich zu diesem Schritt aus der Not heraus entschlossen, denn die Nullen bei logarithmischen Achsen mit reinzubringen ist in der Kombination meines Diagrammerstell- und Diagrammschønmachprogramms ziemlich umstaendlich. Das ist der wirkliche Grund. Ich kønnte natuerlich auch darauf zeigen, dass die Achsen bei einem Wert von jeweils 0.5 aufhøren und ein Wert von Null darunter liegt … aber das hat mich frueher ja auch nicht gestørt … als noch keine drei Grøszenordnungen weniger Diagramme zu erstellen waren.

Beim rechten Diagramm sieht man den Durchschnittswert der totalen Links zu einem gegebenen Wert auf der Abzisse. Ein Beispiel: die (totalen) Links ALLER Seiten die auf LL23 fuenf Links haben werden aufsummiert und das wird durch die Anzahl dieser Seiten dividiert. Die dabei entstehende Zahl wird im Diagramm fuer LL24 genommen und auf der Abzsisse ueber dem Wert fuenf als Punkt dargestellt. Wichtig: auch die „Nullwerte“ zaehlen dazu, zwar nicht wenn die Summe gebildet wird (plus Null macht ja nix) aber sehr wohl bei der Anzahl der Seiten durch die dividiert werden muss.

Das Feine ist nun, dass damit (zwangslaeufig) jedem Wert auf der Abzsisse nur ein Wert auf der Ordinate zugeordnet wird. Auszerdem gibt es (zwanslaeufig) auch keine „degenerierten“ Punkte mehr im Diagramm.

Als naechstes das gleiche fuer die Anzahl der neuen Links:

Die Achsen reichen nicht so lang (war zu erwarten) und zum Ende hin Ende zappelts nicht mehr so doll, ja steht gar still (war auch zu erwarten, wg. der „Ketten“). Kurios ist die „Verzweigung“ zwischen LL7 und LL10. Ich weise da aber nur drauf hin, ich habe das nicht weiter untersucht und werde es auch nicht tun. Das ist aber ein schønes Beispiel fuer den oben erwaehnten Prozess, dass man mittels neuer Werkzeuge (bspw.) die „Dynamik“ eines Systems besser untersuchen kann. Das ist beim Zeigen repraesentativer Datensaetze nicht aufgetaucht (denn es ist definitiv nicht repraesentativ), aber gleichzeitig aendert es auch nichts an den wesentlichen Aussagen.

Wieder gilt: die 2023-Daten reproduzieren die 2020-Daten gut.

Auf zu den Selbstreferenzen:

Hier wird im rechten Diagramm wichtig, was ich oben zu den „Nullwerten“ sagte … und dass die Grenze eigtl. schon bei 0.5 liegt. Denn hier sieht man øfter Punkte die gerade so ueber der Abzsisse „herumduempeln“, weil die einem Durchschnittswert von gerade mal ein kleines bisschen ueber 0.5 Selbstreferenzen entsprechen. Man sieht nicht, dass manchmal einige Punkte auch unter dem Wert von 0.5 liegen … denn die werden ja „unterdrueckt“.
Oben bei den neuen Links sieht man aber einen Hinweis auf die unterdrueckten Punkte „indirekt“, wenn man ganz schnell hinschaut. Denn das LL80 Durchschnittsdiagramm ist leer (die Rohdaten sind aber noch zu sehen); das erklaert sich natuerlich aus dem eben Gesagten.

Mehr gibt’s nicht zu sagen … ach doch: und nocheinmal reproduzieren die 2023-Daten die 2020-Daten gut.

Als Letztes dann die Linkfrequenz:

Auch wenn ab ca. LL15 deutlicher als bei den anderen Diagrammen zu sehen ist, dass die schwarzen und roten Punkte nicht mehr (beinahe) deckungsgleich sind, so bleiben alle Merkmale (Form, Verlauf und „Merkwuerdigkeiten“) erhalten. Deswegen bleibt mir nix weiter als zu sagen: auch hier ist die Reproduktion der 2020-Daten in den 2023-Daten gelungen.

Ach doch, eine Sache noch: waehrend der Durchschnittswert fuer die Links und Selbstreferenzen durchaus sinnvoll ist, gilt das fuer die Linkfrequenz mitnichten. Da kommt einfach keine (mehr oder weniger) gerade Linie bei raus, sondern die Ellipse bleibt bestehen. Man muss also immer die Sinnhaftigkeit und Interpretation der angewandten (nicht notwendigerweise nur mathematischen) „Umformungen“ der Daten gut durchdenken, damit man keinen Mist publiziert.

Und damit soll’s gut sein damit. Etwas wehmuetig habe ich das alles in nur einen Beitrag gepackt. Wehmuetig deswegen, weil trotz der (mehr oder weniger) automatisierten Bilderstellung, es noch fast ’ne Woche dauerte bis die hier zu sehenden Endresultate fertig waren … und die ganze Arbeit ist mit nur einem Beitrag „abgegessen“ … Uff! … Aber letztlich gibt’s nicht wirklich viel mehr dazu zu sagen und das ist auch gut so, denn um es muss noch mehr reproduziert werden … und ich will wirklich auch mal mit dem ganzen Projekt abschlieszen.

Ich gebe zu, dass ich mich davor gedrueckt habe, diesen „Revisited“-Neitrag zu schreiben … aus mehreren Gruenden.

Der Hauptgrund: Witchblade ist ein typisches Image Comic (eigtl. Top Cow, aber das ist ja nur ein Image Imprint) aus der Mitte der 90’er Jahre des letzen Jahrhunderts ist. Oder anders: leichtbekleidete Damen (und manchmal auch Herren), mit unrealistischen Kørperproportionen. Aber anstatt vieler Worte lasse ich gleich mal das Cover der 2. US-Ausgabe fuer sich sprechen:

Der Hintergrund ist natuerlich „Sex sells„, insb. dann, wenn die Leserschaft vor allem jungendliche Maenner sind. Der ich ja nunmal war Mitte der 90’er und Anfang der Nullerjahre. Ich habe mich dann entschieden das einzugestehen und nicht unter den Teppich zu kehren. Die Cover sind ein Teil der (Comic)Geschichte (und somit auch meiner) und wir schauen uns im Louvre ja auch die Akte alter Meister an. Das heiszt natuerlich nicht, dass ich das immer noch so sehe!

Desweiteren war Witchblade auch mein Lieblingscomic. Zu groszen Teilen aus obigen Gruenden, aber nicht nur, denn irgendwie steckte auch in der Geschichte viel mehr Potential als ich sonst in Comics realisiert sah. Damals haette ich das sicherlich nicht so ausgedrueckt. Nun habe ich aber innerhalb relativ kurzer Zeit einen betraechtlichen Teil meiner Sammlung nochmals gelesen. Das hat mir einen guten Ueberblick ueber die erfolgreichen (mehr oder weniger) US Superheldencomics dieser Jahre gegeben und deswegen kann ich da jetzt „den Finger draufpacken“. Leider hat sich das relativ schnell ins Gegenteil verkehrt … *seufz*.

Die interessanten Handlungsstraenge wurden relativ schnell mehr und mehr in die Laenge gezogen und mit mehr oder weniger (oft weniger) interessanten „Detektivgeschichten“ „verduennt“. Wichtige Handlungen wurden in anderen Comics (also NICHT Witchblade) weiter erzaehlt, erweitert oder zum Ende gebracht. Es half auch nicht gerade, dass mindestens eine wirklich wichtige Hauptfigur „off screen“ (also in ’ner anderen Serie) abgemurkst wurde. Der tauchte dann halt nie wieder auf und ich fragte mich was aus dem wurde.

Aber da war ja immer noch Sara Pezzini

… die Traegerin der Witchblade in unserer Zeit. Nicht nur sah sie nett aus, sondern die Charakterentwicklung haette durchaus interessant werden kønnen. Selbst wenn’s am Ende nur ’ne typische „widerwillige Heldengeschichte“ geworden waere. Leider wurde auch das in den Sand gesetzt. Zweifel sind gut fuer die besagte Charakterentwicklung … aber nicht wenn Sara jetzt schon seit Jahren all diese mystisch komischen Sachen sieht und die Witchblade traegt.
Noch viel schlimmer: sie ist ’ne coole Heldin! Die Schreiber nehmen ihr aber immer und immer wieder die „Butter vom Brot“ und machen sie dann eher zu einer „Jungfrau in Nøten“ die gerettet werden muss, als die Traegerin einer maechtigen Zauberwaffe … schade eigentlich.

Irgendwann hab ich’s nicht mehr ausgehalten. Ich sagte mir dann: ich schau’s mir noch bis zur Jubilaeumsausgabe #50 an … zumal in Dtschl. da dann immer schon ein neues Kreativteam angepriesen wurde. Ich gebe zu, Letzteres hat tatsaechlich wieder etwas mehr Qualitaet in die Serie gebracht … aber nicht viel … und als dann auch #51 …

… nicht besser wurde, bin ich schweren Herzens ausgestiegen. Wobei „schweren Herzens“ das nur zur Haelfte beschreibt; ich hing (sicher vor allem aus nostalgischen Gruenden) an Witchblade. Die andere Haelfte war dann Erleichterung (dass es nicht besser wurde) denn zu dem Zeitpunkt war das „Loslassen“ eigtl. nur noch eine „Formalitaet“, weil besagtes Herz zu dem Zeitpunkt schon seit deutlich laengerer Zeit nicht mehr wirklich an Witchblade hing.

Eine Sache sei noch gesagt: Witchblade ist die einzige Serie, bei der irgendwie alles an einem einzigen Zeichner hing. Dies war Michael Turner (bis auf das Letzte, sind alle hier gezeigten Cover von ihm) und er war auch Co-Creator. Was den „Niedergang“ der Serie erklaert, nachdem er ging. Es ging dann zwar noch weiter bis #185, aber dazu kann ich nix mehr sagen … ich kønnte natuerlich Vermutungen anstellen, insb. unter dem Gesichtspunkt, dass nicht mal comics.org detaillierte Informationen fuer (mehr als) die letzten 50 Ausgaben hat … aber das spare ich mir.

Pøøøh … nun hab ich den Beitrag hier auch endlich mal geschrieben … mit dem Witchblade-Universum sind wir aber laengst noch noch fertig. Aber dazu ein andermal.

Aus der Entwicklung der Anzahl der Selbstreferenzen kam damals eins der schønsten Ergebnisse all dieser Untersuchungen heraus (die Verbildlichung des Sprichworts „vom Hundertsten ins Tausendste kommen“). Das muesste ich eigentlich nicht nochmal machen, denn beim letzten Mal zeigte sich ja, dass die entsprechen Daten aus 2019 und 2023 uebereinander liegen und somit die selben Anstiege haben (es wuerde also eine Art „Autoreproduktion“ vorliegen).

Besagte Anstiege wurden aus doppellogarithmischen Plots „herausgezogen“ … die waren aber (noch) nicht kumulativ, denn da bin ich erst spaeter drauf gekommen. Bei dem spaeter hatte ich das dann zwar nochmal kurz angeschaut, aber nur qualititativ (vulgo: draufgucken ob das richtig aussieht) und nicht quantitativ.

Das aendert nix daran, dass ich das nicht nochmal machen muesste … aber ich hab mir nun ein Programm geschrieben, welches kumulative log-log Diagramme automatisch erstellt und mittels linearer Regression anpasst … mit dem feinen Zusatz, dass dieses Programm erlaubt, vorne und hinten Punkte „abzuschneiden“ (weil die manchmal Aerger machen) und das dann mit den Originaldaten direkt verglichen werden kann.
Oder anders: ich hatte den kumulativen Teil vorher immer manuell gemacht und das dauert ’ne Weile wenn man das fuer viele Datensaetze machen muss. Ebenso ist es zeitaufwaendig „Aerger machende Punkte am Anfang und Ende“ zu entfernen und jedes Mal die lineare Regression durchzufuehren. Das waren die Gruende, warum ich das damals dann nur nochmal qualitativ anschaute. Aber all das ist jetzt VIIIIIIEEEEL schneller … und deswegen hab ich das jetzt doch nochmal quantitativ-isiert:

Weil die 2019 und 2023 Daten hierfuer uebereinander liegen, vergleiche ich in dem Bild natuerlich nicht die, sondern was Anderes. Naemlich die urspruenglichen Anstiege der linearen Regression, ermittelt aus NICHT kumulativen log-log Diagrammen und die Anstiege die ich mittels des besagten (kumulativen) Programms bekommen habe.

Im Wesentlichen stimmt das ueberein. Wobei ich den neuen Daten (aus kumulativen Plots) eher vertraue wuerde. Zur Erklaerung der Unterschiede kommen die Fehlerbalken und die „duennblauen“ Punkte ins Spiel. Aber der Reihe nach.

Erstens, „zappeln“ NICHT kumulierte Daten mehr. Insb. hin zu kleinen Haeufigkeiten (wenn also nur noch wenige Punkte zum Signal beitragen). Dieses „Zappeln“ fuehrt dann zu gewissen „Fehlerbalken“ und der wahre Wert des Anstiegs hat eine gewisse (meist 95 %) Chance innerhalb dieses Intervalls zu liegen. Wenn man die Fehlerbalken mit in Betracht zieht dann ueberlappt sich da schon recht viel.
Apropos Fehlerbalken; die Ergebnisse der linearen Regression von kumulativen Daten muessen korrigiert werden. Bei den Werten fuer den Anstieg muss man hier nur eine eins abziehen. Der Betrag des Anstiegs wird also grøszer. Das ist einfach. Ich weisz aber nicht, inwieweit die Fehlerbalken durch die Kumulierung beentraechtigt werden. Mein Bauchgefuehl und halbgares Verstaendniss der Mathematik sagt mir aber, dass die roten Fehlerbalken etwas (ich weisz nur nicht wieviel) laenger werden sollten … das wuerde dann zu noch mehr Uebereinstimmungen fuehren.

Damals musste ich auszerdem oft den (langen) „Schwanz“ der Daten in den NICHT kumulativen Plots abschneiden, denn ansonsten haette die lineare Regression nix Vernuenftiges errechnet. Diese „Grenzen“ fuer die Regression hatte ich mehr oder weniger mit dem Auge abgeschaetzt. Zum Glueck schrieb ich die konkreten Werte fuer besagte Grenzen auf (das wird gleich nochmal wichtig).
Auch bei kumulierten Daten muss man Punkte „aufgeben“ (siehe oben). Aber es muessen laengst nicht so viele Punkte „weggeschmissen“ werden. Meist weniger als ein Dutzend (oder sehr oft auch gar keine), wenn die Daten dann offensichtlich einem Potenzgesetz gehorchen. (Im Unterschied zu manchmal hunderten (!) bei nicht kumulativen Plots)

Nun gibt es in obigem Bild doch genuegend Abweichungen, dass mir das (mal wieder) keine Ruhe liesz und ich da genau hinschaute. Konkret „schnitt“ ich bei den kumulativen Plots genau so viele Punkte ab, wie damals bei den grauen Daten. Das spiegelt sich in den „duennblauen“ Punkten wieder (Fehlerbalken hab ich weggelassen). Und siehe da! Die stimmen im Wesentlichen mit den roten Punkten ueberein.
Das war beruhigend herauszufinden, denn damit lag der Fehler ja ganz eindeutig nicht bei mir. Vielmehr bedeutet dies, dass die Unterschiede im obigen Diagramm tatsaechlich auf die „Methode“ an sich (also NICHT kumulative log-log Plots und dem staerkeren „Herumzappeln“ dort) zurueckzufuehren sind, als auf das Abschaetzen der Grenzen fuer die lineare Regression. Oder anders: (bestimmt nicht nur) die grauen Fehlerbalken sollten vermutlich noch laenger sein.

So … wie gesagt, das hier ist keine Reproduktion im Sinne dessen, dass ich mir bzgl. der Daten aus unterschiedlichen Jahren anschaue … aber ’ne Art Reproduktion ist’s ja doch und weil ich da jetzt doch noch ein kleines Werkzeug zu programmiert und mir das alles nochmal „durchgerechnet“ hatte, wollte ich das hier auch aufgeschrieben haben.

Nun war ich schon zum zweiten Mal im Land der aufgehenden Sonne und ich bin hier noch nicht mal mit den Kuriositaeten meines ersten Besuches fertig. Was auch zeigt, dass ich schneller wieder dort war als urspruenglich angenommen :).

Wieauchimmer, als ich 2023 in Kagoshima an diesem Firmenschild …

… vorbei lief, konnte ich natuerlich nicht widerstehen und musste das fuer euch, meine lieben Leserinnen und Leser, dokumentieren.
Find ich gut, dass die so ehrlich sind, da weisz man, welchen Telefonservice man lieber vermeiden sollte :).

Das ist uebrigens keine Uebersetzung der Schriftzeichen darunter:

Vielmehr duenkt mich, dass das deren Firmenmotto ist … das ist: witzig.