Puuuh … jetzt ist deutlich ueber ein Jahr vergangen seitdem ich den abschlieszenden Beitrag dieser Miniserie versprach. Ich kann mich erstmal nur wiederholen:

Es waren dann erstmal andere Sachen zu tun und auch keine Lust vorhanden das hier zu schreiben.

Das ist halt ein Nachteil an der deutlich verminderten Beitragsfrequenz. Und dann kann ich mich gleich nochmal wiederholen:

Nun sitze ich aber gerade (und noch eine Weile) im Zug und habe zwar immer noch keine Lust … aber auch nix anderes zu tun. Selbstueberredung sei dank folgt dem ersten [zweiten] Teil endlich mal der zweite [abschlieszende] Teil.

Zur Erinnerung: bei der hier besprochenen Hormesis ging es darum, dass SEHR (!) niedrig dosierte radioaktive Strahlung mglw. (!), auf ganze Bevølkerungsgruppen gesehen (!), GANZ (!) leichte, krebsvorbeugende Wirkung haben kønnte (!).
Ich hatte einen møglichen Mechansmus vorgeschlagen (und lese gerade, dass ich in den groben Zuegen damit gar nicht mal so falsch lag). Ehrlich gesagt, nachdem ich jetzt ’n paar Artikel darueber gesichtet habe, bin ich ziemlich ueberzeugt, dass der Effekt echt ist.

Und hier geht’s dann los mit dem was ich eigtl. sagen will. Die potentiellen positiven Effekte sind so klein gemessen am nøtigen Aufwand, dass das praktisch einfach nicht umsetzbar ist. Wie zum Teufel soll man denn die gesamte Menschheit (sehr) leichter Strahlung aussetzen? Das Problem ist naemlich technischer (und damit menschlicher) Natur, denn man darf dabei zu KEINER Zeit Fehler machen, denn relativ wenige Fehler wuerden die recht kleinen positiven Effekte im Gesamtbild ziemlich schnell zunichte machen.
Oder anders (an einem Beispiel): leiche Strahlung muss ja irgendwo herkommen, ich sag jetzt mal aus ’nem Kasten aus Blei. Die Abschwaechung kommt im einfachsten Fall vom Abstand zur Quelle zustande … UND davon wie weit die Klappe des Kastens auf ist.
Und da geht’s schon los, denn wieviele Leute bekommen nicht mal die Heizung richtig reguliert? Das ist sicherlich zu machen, wenn man technisch geschultes Personal in speziellen, dafuer vorgesehenen Einrichtungen hat. Sowas gibt’s ja heutzutage laengst, wir nennen das nur radiologische Abteilung und benutzen es aus anderen Gruenden. Aber wir wollen das auf der Ebene ganzer Bevølkerungen machen. Das muss also in den Schulen und Bueros oder Wohnhaeusern sein. Und da obliegt das alles unter der Kontrolle von deutlich weniger gut geschultem Personal.
Ein Beispiel aus einem anderen Sektor sind Flugzeuge und Autos. Erstere sind „spezielle Einrichtungen“ (weniger als 10 % des Personentransports (Figure 2) in der EU geschieht mit dem Flugzeug) mit gut geschultem Personal auf allen Ebenen und entsprechend wenige Unfaelle gibt es. Jeder Depp darf hingegen Auto fahren (fast 80 %) und die Kompetenzen sowohl der Fahrer als auch der Konstrukteure und Instandhalter ist … ich sag jetzt mal: durchwachsen. Entsprechend gab es 2019 weltweit ueber eine Million Verkehrstote. Niemand wuerde mit dem Flugzeug fliegen, wenn dabei so viele Menschen umkommen wuerden. Und das sind nur die Todesfaelle. Die Zahl der (oft schwer) Verletzten bzw. die Zahl der Unfaelle ist deutlich høher.

Und wie kommt da jetzt der Kapitalismus rein … nun ja … eben habe ich die Flugzeugindustrie als gutes Beispiel angefuehrt. Das ist als das „Best Case Scenario“ anzusehen und deswegen nehme ich das her und verweise nur auf das Boing 737 Max Debakel (und dort weiterfuehrende Links). Viele der in diesem Fall begangenen Fehler (mit hundertfacher Todesfolge!)  haetten vermieden werden kønnen, haetten die haesslichen Seiten des Kapitalismus dem nicht entgegen gestanden … und nun stelle man sich das mit ueberall auf der Welt verteilten Kaesten vor, die radioaktives Material enthalten.

Nun habe ich schon wieder viel dazu geschrieben und noch nicht das gesagt, was ich sagen wollte. Denn eigtl. wollte ich den Artikel, der zu dieser Miniserie fuehrte, an sich kritisieren … oder vielmehr einen guten Anteil der Artikel die ich zu dem Thema gesichtet (aber nicht alle vollstaendig und im Detail gelesen) habe. Denn selbst wenn ich mittlerweile davon ausgehe, dass die Behauptung wahr ist, so liest der (die) Artikel sich an viel zu vielen Stellen wie Lobbyarbeit fuer die Nuklearindustrie, weil die einfach keine Lust haben ihren „Dreck“ ordentlich weg zu machen (Kapitalismus eben).
Oder anders: eigentlich ist die ganze Sache ja etwas voll Tolles und Interessantes und etwas das sich lohnt weiter zu untersuchen. Aber aufgrund der Komplexitaet des Sachverhalts (nicht nur technisch) kann (und meiner Meinung nach wird) eine all zu breites bekannt werden dieser Sache, all zu leicht missbraucht werden … *seufz*

Oder noch anders: man hørt all zu oft von den Atomspinnern, das Folgende: „die Deutschen fuerchten sich vor Strahlung, dabei haben wir doch ueberall Hintergrundstrahlung“. Damit sollen natuerlich die meiner Meinung nach (sehr!) berechtigten Bedenken bzgl. der Gefahren der Atomkraft laecherlich gemacht werden … Propaganda der Kapitalisten ueblichen Verdaechtigen eben. Der fetzige Sachverhalt spielt der besagten Propaganda dabei leider in die Haende und hilft keineswegs, dass so subtile „kleine (!) Strahlungseffekte“ vernuenftig diskutiert werden kønnten.

Lange Rede kurzer Sinn: meiner Meinung nach sind die positiven Effekte sehr leichter Strahlung echt. ABER diese Effekte sind ziemlich klein und auch diffizil zu betrachten und das ist alles so kompliziert, dass das nicht sinnvoll umsetzbar ist und wir als Gesellschaft beim linearen Modell (jedwede Strahlung ist schlecht) bleiben sollten. Und so wuenschenswert ich auch eine ordentliche und breite Diskussion dieser Sache finden wuerde, so denke ich, dass dies viel eher eine Buechse der Pandora ist, die unter den derzeitigen gesellschaftlichen Umstaende zum Wohle aller besser geschlossen bleiben sollte.

Und damit hab ich diese Miniserie endlich abgeschlossen.

Ich wollte doch eigentlich die Simulation der Entwicklung der Selbstreferenzen von einem Linklevel zum naechsten NICHT nochmal schreiben. Ich frage mich, warum ich solche Sachen immer noch behaupte? Am Ende mach ich’s doch sowieso.
Ein Grund fuer die Meinungsaenderung waren die zwei Programme, die mir grosze Teile der Diagrammerstellung abnehmen. Das reduzierte die „Hemmschwelle“ deutlich. Der andere Grund war, dass ich den zugehørigen Code dann doch ordentlich machen wollte … ein Projekt ordentlich abzuschlieszen (auch wenn das bei diesem Projekt dauert und dauert und dauert und dauert …) motiviert mich gewaltig, auch nicht ganz so spannende Sachen gruendlich zu machen.

Wieauchimmer, ich habe das dazu gehørende Programm nochmal neu geschrieben und dabei „entruempelt“. Letzteres bezieht sich vor allem auf den Anfangszustand, von dem die Simulation starten soll.
Damals hatte ich mir dazu viele Gedanken gemacht und mehr oder weniger viel (aber sicher unnøtig) komplexen Code geschrieben. So richtig zufrieden war ich damit nicht, denn mein Ansatz fuehlte sich zu sehr ad hoc an (was erstmal nicht schlimm ist), und gleichzeitig nicht aus „einem Guss“. Beides zusammen ist schon „schlimmer“, denn das heiszt im Prinzip, dass sich ein beliebiger anderer Ansatz haette „vom Haken“ nehmen lassen.
Auszerdem løste der Ansatz das Randproblem der „wenige Daten im langen Schwanz“ auch nicht, was sich dann natuerlich durch alle Simulationsergebnisse zog.

Die erste grosze Neuerung im neuen Code ist jetzt, dass ich einfach das erste passende „Messergebnis“ als Ausgangspunkt nehme. Das løst alle oben genannten Probleme auf einen Schlag.

Die zweite grosze Neuerung ist, dass ich jetzt fuer jede „Seite“ einzeln simuliere (vulgo: zufaellig zuordne), wieviele Selbstreferenzen die auf dem naechsten Linklevel hat. Vorher hatte ich das anteilsweise fest zugeteilt.

Am Ende habe ich das dann mit den selben relevanten Parametern und den 2020 Daten (NICHT die 2023 Daten, deswegen in dem Sinne KEINE Reproduktion) alles nochmal simuliert und das ist das Ergebnis:

Die blauen Punkte sind die Ergebnisse der neuen Simulation, die roten Quadrate sind die Resultate der alten Simulation, und die grauen Diamanten sind die 2020 „Messergebnisse“. Man sieht (hoffe ich, wenn nicht schaue man sich die originalen Artikel nochmal an), dass der lange Schwanz bei den blauen Punkten nicht mehr abgeschnitten wird. Damit „passt“ das diesbezueglich deutlich besser zu den „Messergebnissen“ als die alte Simulation.

Andernfalls sind die alte und die neue Simulation gleich in allen wichtigen Punkten — Amplitude und (zunehmender) Anstieg — und teilen auch die bereits damals diskutierten Unzulaenglichkeiten.

Da es nicht Ziel dieser „Uebung“ war alles besser zu machen, bin ich sehr zufrieden und froh, dass das jetzt auch endlich fertig ist.

Ich habe einen witzigen Nachtrag zum Spielverderber, der aber meinen dort hervorgehobenen Punkt doppelt unterstreicht:

Quelle … ich habe nicht versucht rauszufinden, wo das Original herkam und wer der originale Autor ist … das ist vermutlich ohnehin wenig erfolgsversrpechend.

Aber echt mal! … tihihi

Bei der Quelle denke ich zwar mittlerweile all zu oft, dass solche Interaktionen nicht echt, sondern gestellt sind, weil irgendwer damit „Internetpunkte ernten“ will.
Aber selbst wenn, so tut das der Witzigkeit in diesem Fall keinen Abbruch und wie oben gesagt, illustriert’s selbst im solch einem Fall sehr schøn mein Spielverderberargument.

In meinen Kopf nehm ich das aber als echt, einfach weil das Universum dadurch etwas lustiger wird :).

Zur Simulation der Selbstreferenzen via „atomistischer Naeherung“ (die ich an sich eigtl. nicht nochmal machen will, weil ich das Gefuehl hatte, dass das nicht viel gebracht hat) benøtigte ich auch die Abhaengigkeit der Anzahl der Selbstreferenzen die eine Seite auf einem gegebenen Linklevel hat, von der Anzahl der Selbstreferenzen dieser Seite auf dem vorherigen Linklevel. Oder anders und an einem konkreten Beispiel: hat eine Seite mit vielen Selbstreferenzen auf LL5 auch viele Selbstreferenzen auf LL6?

Nachdem ich das „Konzept“ „entwickelt“ hatte, wandte ich das dann auch auf  die totalen und neuen Links und die Linkfrequenz an. Viel ist dabei nicht rumgekommen … aber ich habe den Code dafuer neu geschrieben und deshalb liegen die Ergebnisse jetzt auch fuer die 2023 Daten vor.
Hinzu kommt, dass ich fuer’s letzte und vorletzte Mal ein Werkzeug schrieb, mit welchem ich ([deutlich mehr als] halb-)automatisiert Diagramme erstellen und schøn machen kann. Anstatt also nur ein paar repraesentative Beispiele zu zeigen, kann ich nun ohne all zu viel arbeite ALLES diagrammisieren … was in diesem Falle hiesz, deutlich ueber 200 Bilder zu erstellen. Zugegeben, die meisten davon sind nur „Zwischenschritte“ im automatischen Prozess und nicht direkt im Endergebnis zu sehen … aber erstellt werden mussten die trotzdem. Das Endergebnis sind dann nur vier bewegte Bilder; eins pro Messgrøsze. Die enthalten jeweils zwei Diagramme („Rohdaten“ und Durschnittswerte … macht schonmal acht Diagramme) und laufen ueber jedes Linklevel. Bei ungefaehr 80 zu zeigenden Linkleveln macht das ueber 600 Bilder die ihr, meine lieben Leserinnen und Leser gleich sehen werdet.

Ich schreibe das hier nochmal ausfuehrlich, weil es so ein schønes Beispiel fuer einen wichtigen Teil des wissenschaftlichen Prozesses ist: hier habe ich keine „neue“ Methode entwickelt, sondern ein effektives Werkzeug geschaffen, mit dem man viel mehr abstrakte Daten (in der Form langer Zahlenreihen) in verstaendlichere Information (in Form von „bewegten“ Diagrammen) bringen kann. Das aendert nichts an den urspruenglichen Schlussfolgerungen und Ergebnissen, erøffnet aber die „Dynamik“ eines Systems im Detail zu untersuchen … was ich aber nicht mehr machen werden.

Damit genug der langen Vorrede. Hier ist die Entwicklung der totalen Links auf einem gegebenen Linklevel in Abhaengigkeit der totalen Links auf dem vorherigen Linklevel dargestellt:

Im linken Diagramm sind die „Rohdaten“ zu sehen. Im Wesentlichen entspricht jeder Punkt einer Seite … und hier geht’s auch schon los. Nicht nur wird einem gegebenen Wert auf der Abzsisse oft mehr als einen Wert auf der Ordinate zugeordnet. Viele (in spaeteren Linkleveln alle) zu sehende Datenpunkte sind „degeneriert“. Das heiszt, dass mehrere (viele) Seiten das selbe (Anzahl-Links-auf-LLi-1, Anzahl-Links-auf-LLi)-Paar haben. Ich komme darauf gleich nochmal zurueck.

Desweiteren ist zu sagen, dass ich alle „Nullwerte“ weglasse. Also alle Daten die entweder keine (in diesem Fall) Links auf diesem oder dem vorherigen Level hatten. Ersters entspricht einem „Nullwert“ auf der Abzsisse, Letzteres einem „Nullwert“ auf der Ordinate. Bei den totalen Links kann Letzteres nur in der Form einer „Doppelnull“ auftreten (deswegen ist das allerletzte Diagramm auf LL84 leer), aber bei den Selbstreferenzen weiter unten sind beide Faelle møglich.
Ich habe mich zu diesem Schritt aus der Not heraus entschlossen, denn die Nullen bei logarithmischen Achsen mit reinzubringen ist in der Kombination meines Diagrammerstell- und Diagrammschønmachprogramms ziemlich umstaendlich. Das ist der wirkliche Grund. Ich kønnte natuerlich auch darauf zeigen, dass die Achsen bei einem Wert von jeweils 0.5 aufhøren und ein Wert von Null darunter liegt … aber das hat mich frueher ja auch nicht gestørt … als noch keine drei Grøszenordnungen weniger Diagramme zu erstellen waren.

Beim rechten Diagramm sieht man den Durchschnittswert der totalen Links zu einem gegebenen Wert auf der Abzisse. Ein Beispiel: die (totalen) Links ALLER Seiten die auf LL23 fuenf Links haben werden aufsummiert und das wird durch die Anzahl dieser Seiten dividiert. Die dabei entstehende Zahl wird im Diagramm fuer LL24 genommen und auf der Abzsisse ueber dem Wert fuenf als Punkt dargestellt. Wichtig: auch die „Nullwerte“ zaehlen dazu, zwar nicht wenn die Summe gebildet wird (plus Null macht ja nix) aber sehr wohl bei der Anzahl der Seiten durch die dividiert werden muss.

Das Feine ist nun, dass damit (zwangslaeufig) jedem Wert auf der Abzsisse nur ein Wert auf der Ordinate zugeordnet wird. Auszerdem gibt es (zwanslaeufig) auch keine „degenerierten“ Punkte mehr im Diagramm.

Als naechstes das gleiche fuer die Anzahl der neuen Links:

Die Achsen reichen nicht so lang (war zu erwarten) und zum Ende hin Ende zappelts nicht mehr so doll, ja steht gar still (war auch zu erwarten, wg. der „Ketten“). Kurios ist die „Verzweigung“ zwischen LL7 und LL10. Ich weise da aber nur drauf hin, ich habe das nicht weiter untersucht und werde es auch nicht tun. Das ist aber ein schønes Beispiel fuer den oben erwaehnten Prozess, dass man mittels neuer Werkzeuge (bspw.) die „Dynamik“ eines Systems besser untersuchen kann. Das ist beim Zeigen repraesentativer Datensaetze nicht aufgetaucht (denn es ist definitiv nicht repraesentativ), aber gleichzeitig aendert es auch nichts an den wesentlichen Aussagen.

Wieder gilt: die 2023-Daten reproduzieren die 2019-Daten gut.

Auf zu den Selbstreferenzen:

Hier wird im rechten Diagramm wichtig, was ich oben zu den „Nullwerten“ sagte … und dass die Grenze eigtl. schon bei 0.5 liegt. Denn hier sieht man øfter Punkte die gerade so ueber der Abzsisse „herumduempeln“, weil die einem Durchschnittswert von gerade mal ein kleines bisschen ueber 0.5 Selbstreferenzen entsprechen. Man sieht nicht, dass manchmal einige Punkte auch unter dem Wert von 0.5 liegen … denn die werden ja „unterdrueckt“.
Oben bei den neuen Links sieht man aber einen Hinweis auf die unterdrueckten Punkte „indirekt“, wenn man ganz schnell hinschaut. Denn das LL80 Durchschnittsdiagramm ist leer (die Rohdaten sind aber noch zu sehen); das erklaert sich natuerlich aus dem eben Gesagten.

Mehr gibt’s nicht zu sagen … ach doch: und nocheinmal reproduzieren die 2023-Daten die 2019-Daten gut.

Als Letztes dann die Linkfrequenz:

Auch wenn ab ca. LL15 deutlicher als bei den anderen Diagrammen zu sehen ist, dass die schwarzen und roten Punkte nicht mehr (beinahe) deckungsgleich sind, so bleiben alle Merkmale (Form, Verlauf und „Merkwuerdigkeiten“) erhalten. Deswegen bleibt mir nix weiter als zu sagen: auch hier ist die Reproduktion der 2019-Daten in den 2023-Daten gelungen.

Ach doch, eine Sache noch: waehrend der Durchschnittswert fuer die Links und Selbstreferenzen durchaus sinnvoll ist, gilt das fuer die Linkfrequenz mitnichten. Da kommt einfach keine (mehr oder weniger) gerade Linie bei raus, sondern die Ellipse bleibt bestehen. Man muss also immer die Sinnhaftigkeit und Interpretation der angewandten (nicht notwendigerweise nur mathematischen) „Umformungen“ der Daten gut durchdenken, damit man keinen Mist publiziert.

Und damit soll’s gut sein damit. Etwas wehmuetig habe ich das alles in nur einen Beitrag gepackt. Wehmuetig deswegen, weil trotz der (mehr oder weniger) automatisierten Bilderstellung, es noch fast ’ne Woche dauerte bis die hier zu sehenden Endresultate fertig waren … und die ganze Arbeit ist mit nur einem Beitrag „abgegessen“ … Uff! … Aber letztlich gibt’s nicht wirklich viel mehr dazu zu sagen und das ist auch gut so, denn um es muss noch mehr reproduziert werden … und ich will wirklich auch mal mit dem ganzen Projekt abschlieszen.

Ich gebe zu, dass ich mich davor gedrueckt habe, diesen „Revisited“-Neitrag zu schreiben … aus mehreren Gruenden.

Der Hauptgrund: Witchblade ist ein typisches Image Comic (eigtl. Top Cow, aber das ist ja nur ein Image Imprint) aus der Mitte der 90’er Jahre des letzen Jahrhunderts ist. Oder anders: leichtbekleidete Damen (und manchmal auch Herren), mit unrealistischen Kørperproportionen. Aber anstatt vieler Worte lasse ich gleich mal das Cover der 2. US-Ausgabe fuer sich sprechen:

Der Hintergrund ist natuerlich „Sex sells„, insb. dann, wenn die Leserschaft vor allem jungendliche Maenner sind. Der ich ja nunmal war Mitte der 90’er und Anfang der Nullerjahre. Ich habe mich dann entschieden das einzugestehen und nicht unter den Teppich zu kehren. Die Cover sind ein Teil der (Comic)Geschichte (und somit auch meiner) und wir schauen uns im Louvre ja auch die Akte alter Meister an. Das heiszt natuerlich nicht, dass ich das immer noch so sehe!

Desweiteren war Witchblade auch mein Lieblingscomic. Zu groszen Teilen aus obigen Gruenden, aber nicht nur, denn irgendwie steckte auch in der Geschichte viel mehr Potential als ich sonst in Comics realisiert sah. Damals haette ich das sicherlich nicht so ausgedrueckt. Nun habe ich aber innerhalb relativ kurzer Zeit einen betraechtlichen Teil meiner Sammlung nochmals gelesen. Das hat mir einen guten Ueberblick ueber die erfolgreichen (mehr oder weniger) US Superheldencomics dieser Jahre gegeben und deswegen kann ich da jetzt „den Finger draufpacken“. Leider hat sich das relativ schnell ins Gegenteil verkehrt … *seufz*.

Die interessanten Handlungsstraenge wurden relativ schnell mehr und mehr in die Laenge gezogen und mit mehr oder weniger (oft weniger) interessanten „Detektivgeschichten“ „verduennt“. Wichtige Handlungen wurden in anderen Comics (also NICHT Witchblade) weiter erzaehlt, erweitert oder zum Ende gebracht. Es half auch nicht gerade, dass mindestens eine wirklich wichtige Hauptfigur „off screen“ (also in ’ner anderen Serie) abgemurkst wurde. Der tauchte dann halt nie wieder auf und ich fragte mich was aus dem wurde.

Aber da war ja immer noch Sara Pezzini

… die Traegerin der Witchblade in unserer Zeit. Nicht nur sah sie nett aus, sondern die Charakterentwicklung haette durchaus interessant werden kønnen. Selbst wenn’s am Ende nur ’ne typische „widerwillige Heldengeschichte“ geworden waere. Leider wurde auch das in den Sand gesetzt. Zweifel sind gut fuer die besagte Charakterentwicklung … aber nicht wenn Sara jetzt schon seit Jahren all diese mystisch komischen Sachen sieht und die Witchblade traegt.
Noch viel schlimmer: sie ist ’ne coole Heldin! Die Schreiber nehmen ihr aber immer und immer wieder die „Butter vom Brot“ und machen sie dann eher zu einer „Jungfrau in Nøten“ die gerettet werden muss, als die Traegerin einer maechtigen Zauberwaffe … schade eigentlich.

Irgendwann hab ich’s nicht mehr ausgehalten. Ich sagte mir dann: ich schau’s mir noch bis zur Jubilaeumsausgabe #50 an … zumal in Dtschl. da dann immer schon ein neues Kreativteam angepriesen wurde. Ich gebe zu, Letzteres hat tatsaechlich wieder etwas mehr Qualitaet in die Serie gebracht … aber nicht viel … und als dann auch #51 …

… nicht besser wurde, bin ich schweren Herzens ausgestiegen. Wobei „schweren Herzens“ das nur zur Haelfte beschreibt; ich hing (sicher vor allem aus nostalgischen Gruenden) an Witchblade. Die andere Haelfte war dann Erleichterung (dass es nicht besser wurde) denn zu dem Zeitpunkt war das „Loslassen“ eigtl. nur noch eine „Formalitaet“, weil besagtes Herz zu dem Zeitpunkt schon seit deutlich laengerer Zeit nicht mehr wirklich an Witchblade hing.

Eine Sache sei noch gesagt: Witchblade ist die einzige Serie, bei der irgendwie alles an einem einzigen Zeichner hing. Dies war Michael Turner (bis auf das Letzte, sind alle hier gezeigten Cover von ihm) und er war auch Co-Creator. Was den „Niedergang“ der Serie erklaert, nachdem er ging. Es ging dann zwar noch weiter bis #185, aber dazu kann ich nix mehr sagen … ich kønnte natuerlich Vermutungen anstellen, insb. unter dem Gesichtspunkt, dass nicht mal comics.org detaillierte Informationen fuer (mehr als) die letzten 50 Ausgaben hat … aber das spare ich mir.

Pøøøh … nun hab ich den Beitrag hier auch endlich mal geschrieben … mit dem Witchblade-Universum sind wir aber laengst noch noch fertig. Aber dazu ein andermal.

Aus der Entwicklung der Anzahl der Selbstreferenzen kam damals eins der schønsten Ergebnisse all dieser Untersuchungen heraus (die Verbildlichung des Sprichworts „vom Hundertsten ins Tausendste kommen“). Das muesste ich eigentlich nicht nochmal machen, denn beim letzten Mal zeigte sich ja, dass die entsprechen Daten aus 2019 und 2023 uebereinander liegen und somit die selben Anstiege haben (es wuerde also eine Art „Autoreproduktion“ vorliegen).

Besagte Anstiege wurden aus doppellogarithmischen Plots „herausgezogen“ … die waren aber (noch) nicht kumulativ, denn da bin ich erst spaeter drauf gekommen. Bei dem spaeter hatte ich das dann zwar nochmal kurz angeschaut, aber nur qualititativ (vulgo: draufgucken ob das richtig aussieht) und nicht quantitativ.

Das aendert nix daran, dass ich das nicht nochmal machen muesste … aber ich hab mir nun ein Programm geschrieben, welches kumulative log-log Diagramme automatisch erstellt und mittels linearer Regression anpasst … mit dem feinen Zusatz, dass dieses Programm erlaubt, vorne und hinten Punkte „abzuschneiden“ (weil die manchmal Aerger machen) und das dann mit den Originaldaten direkt verglichen werden kann.
Oder anders: ich hatte den kumulativen Teil vorher immer manuell gemacht und das dauert ’ne Weile wenn man das fuer viele Datensaetze machen muss. Ebenso ist es zeitaufwaendig „Aerger machende Punkte am Anfang und Ende“ zu entfernen und jedes Mal die lineare Regression durchzufuehren. Das waren die Gruende, warum ich das damals dann nur nochmal qualitativ anschaute. Aber all das ist jetzt VIIIIIIEEEEL schneller … und deswegen hab ich das jetzt doch nochmal quantitativ-isiert:

Weil die 2019 und 2023 Daten hierfuer uebereinander liegen, vergleiche ich in dem Bild natuerlich nicht die, sondern was Anderes. Naemlich die urspruenglichen Anstiege der linearen Regression, ermittelt aus NICHT kumulativen log-log Diagrammen und die Anstiege die ich mittels des besagten (kumulativen) Programms bekommen habe.

Im Wesentlichen stimmt das ueberein. Wobei ich den neuen Daten (aus kumulativen Plots) eher vertraue wuerde. Zur Erklaerung der Unterschiede kommen die Fehlerbalken und die „duennblauen“ Punkte ins Spiel. Aber der Reihe nach.

Erstens, „zappeln“ NICHT kumulierte Daten mehr. Insb. hin zu kleinen Haeufigkeiten (wenn also nur noch wenige Punkte zum Signal beitragen). Dieses „Zappeln“ fuehrt dann zu gewissen „Fehlerbalken“ und der wahre Wert des Anstiegs hat eine gewisse (meist 95 %) Chance innerhalb dieses Intervalls zu liegen. Wenn man die Fehlerbalken mit in Betracht zieht dann ueberlappt sich da schon recht viel.
Apropos Fehlerbalken; die Ergebnisse der linearen Regression von kumulativen Daten muessen korrigiert werden. Bei den Werten fuer den Anstieg muss man hier nur eine eins abziehen. Der Betrag des Anstiegs wird also grøszer. Das ist einfach. Ich weisz aber nicht, inwieweit die Fehlerbalken durch die Kumulierung beentraechtigt werden. Mein Bauchgefuehl und halbgares Verstaendniss der Mathematik sagt mir aber, dass die roten Fehlerbalken etwas (ich weisz nur nicht wieviel) laenger werden sollten … das wuerde dann zu noch mehr Uebereinstimmungen fuehren.

Damals musste ich auszerdem oft den (langen) „Schwanz“ der Daten in den NICHT kumulativen Plots abschneiden, denn ansonsten haette die lineare Regression nix Vernuenftiges errechnet. Diese „Grenzen“ fuer die Regression hatte ich mehr oder weniger mit dem Auge abgeschaetzt. Zum Glueck schrieb ich die konkreten Werte fuer besagte Grenzen auf (das wird gleich nochmal wichtig).
Auch bei kumulierten Daten muss man Punkte „aufgeben“ (siehe oben). Aber es muessen laengst nicht so viele Punkte „weggeschmissen“ werden. Meist weniger als ein Dutzend (oder sehr oft auch gar keine), wenn die Daten dann offensichtlich einem Potenzgesetz gehorchen. (Im Unterschied zu manchmal hunderten (!) bei nicht kumulativen Plots)

Nun gibt es in obigem Bild doch genuegend Abweichungen, dass mir das (mal wieder) keine Ruhe liesz und ich da genau hinschaute. Konkret „schnitt“ ich bei den kumulativen Plots genau so viele Punkte ab, wie damals bei den grauen Daten. Das spiegelt sich in den „duennblauen“ Punkten wieder (Fehlerbalken hab ich weggelassen). Und siehe da! Die stimmen im Wesentlichen mit den roten Punkten ueberein.
Das war beruhigend herauszufinden, denn damit lag der Fehler ja ganz eindeutig nicht bei mir. Vielmehr bedeutet dies, dass die Unterschiede im obigen Diagramm tatsaechlich auf die „Methode“ an sich (also NICHT kumulative log-log Plots und dem staerkeren „Herumzappeln“ dort) zurueckzufuehren sind, als auf das Abschaetzen der Grenzen fuer die lineare Regression. Oder anders: (bestimmt nicht nur) die grauen Fehlerbalken sollten vermutlich noch laenger sein.

So … wie gesagt, das hier ist keine Reproduktion im Sinne dessen, dass ich mir bzgl. der Daten aus unterschiedlichen Jahren anschaue … aber ’ne Art Reproduktion ist’s ja doch und weil ich da jetzt doch noch ein kleines Werkzeug zu programmiert und mir das alles nochmal „durchgerechnet“ hatte, wollte ich das hier auch aufgeschrieben haben.

Nun war ich schon zum zweiten Mal im Land der aufgehenden Sonne und ich bin hier noch nicht mal mit den Kuriositaeten meines ersten Besuches fertig. Was auch zeigt, dass ich schneller wieder dort war als urspruenglich angenommen :).

Wieauchimmer, als ich 2023 in Kagoshima an diesem Firmenschild …

… vorbei lief, konnte ich natuerlich nicht widerstehen und musste das fuer euch, meine lieben Leserinnen und Leser, dokumentieren.
Find ich gut, dass die so ehrlich sind, da weisz man, welchen Telefonservice man lieber vermeiden sollte :).

Das ist uebrigens keine Uebersetzung der Schriftzeichen darunter:

Vielmehr duenkt mich, dass das deren Firmenmotto ist … das ist: witzig.

Beim letzten Mal zeigte ich die (vielen) Linklevelverteilungen der neuen und totalen Links. Trotz der Datenmenge gab es nicht viel zu sagen, da die 2019- und 2023-Daten im Groszen und Ganzen das Gleiche waren.

Die Verteilungen der Selbstreferenzen hatte ich damals nicht fuer alle Linklevel angeschaut. Deswegen sieht man hier viele der 2019-Daten diesbezueglich hier …

… zum ersten Mal … und dann sofort auf einen Blick mit den 2023-Daten. Und wie man sieht … sieht das alles gleich aus. Weil alles spannende eigtl. nur (optimistisch gesehen) bis ca. LL23 geschieht, hatte ich das damals nicht weiter betrachtet und das ist auch dieses Mal der Fall. Also bleibt mir nur wieder zu sagen: Reproduktion gelungen.

Die linklevelabhaengigen Linkfrequenzen zeigte ich (auch nur an ausgewaehlten Beispielen) damals hier und heute hier:

Dank der vielen Vorarbeiten kann ich mich ausnahmsweise ganz kurz halten: Reproduktion auch hier gelungen … mehr gibt’s nicht wirklich dazu zu sagen.

Ach doch das hier will ich noch erwaehnen: im letzten und in diesen Beitrag sind ja nun buchstaeblich mehrere hunderte Diagramme zu sehen. Die hab ich tatsaechlich alle gemacht … aber nicht von Hand, denn das ist mir zu stupide. weil es bis auf die Daten an sich, immer das Selbe ist. Deswegen hab ich hab mir ’nen Roboter programmiert, der die Klicks fuer mich machte um das Diagramm aus den Daten zu erstellen. Und dann einen zweiten Roboter, der das Diagramm verschønerte (im Vektorgrafikformat). Fetzt schon wieviel Arbeit man spart, wenn man sowas kann … und ich wuerde sogar sagen, dass ich in diesem Falle zeitlich tatsaechlich laenger gebraucht haette das alles von Hand zu erstellen, anstatt die Roboter zu programmieren. Das ist ja ’ne „Falle“ in die man in solchen Faellen oft faellt. „Falle“ in Anfuehrungszeichen, weil ich lieber Zeit mit coolen Programmen programmieren verbringe, als mit stupiden, sich viele viele viele Male wiederholenden, immer gleichen Hand- und Klickbewegungen.

Beim letzten Mal hatte ich …

[…] neumodisch Haessliches […]

… versprochen. Ironisch ist, dass Batman: Dark Victory eher „altmodisch“ herueber kommt. Oder freundlicher gesagt: klassisch … also irgendwie im „Stil“ der 30’er oder 40’er Jahre des 20. Jahrhunderts. Aber das ist natuerlich wie wir uns den „klassischen“ Batman vorstellen und nicht wie der damals in den Comics war. Leider sieht man das nicht so sehr an in den Covern.

Wie beim letzten Mal hatte ich auch diese Miniserie als „gar nicht so doll“ in Erinnerung … aber eigtl. ist die voll gut! Echt gut geschrieben, tolle Charakterentwicklungen, echt guter Aufbau der Handlung und der Panels und die „neumodisch haesslichen“ Zeichnungen sind sehr passend; insb. bei den „freakigen“ Gegnern Batmans.

Andere haben das viel besser ausgedrueckt (die Zitate sind aus dem verlinkten Wikipediaartikel):

[…] [the author has a] perfect understanding of what makes the Batman tick […].

Die Story/Serie braucht nur ’n paar Heftchen um alles Nøtige aufzubauen … es geht also eher langsam los … und pløtzlich ist man mittendrin und will unbedingt wissen wie’s weiter geht, auch wenn man eigtl. weisz, wie’s ausgehen wird.

Oder (wieder) jemand anders:

[…] where Dark Victory really works is in its patience. Its willingness to let the story go where it needs to in its own time is a godsend […].

Genug gelobt.

Ich wollte das hier vor allem deswegen erwaehnt haben, weil ich (leider) mehr und mehr die Mittelmaeszigkeit des Mediums Comic einraeumen muss. Klar, das ist bei Musik, Buechern, Malereien, Filmen und anderen Kunstsachen nicht anders. Am ehesten sieht man das noch bei „tagesktueller“ zeitgenøssischer Kunst. Das was am Ende permanent im Museum landet (auch bei moderner und zeitgenøssischer Kunst … Apropos: wer in Berlin ist sollte UNBEDINGT die Neue Nationalgalerie und den Hamburger Bahnhof besuchen) unterliegt natuerlich im Wesentlichen zu 100 % dem Ueberlebenden-Irrtum … weil’s sich so sehr aus der Mittelmaeszigkeit heraus hebt, landet’s im Museum.

Was den Kreis zu den Comics schlieszt, denn die beim letzten Mal erwaehnten (und verlinkten) Sammelbaende werden natuerlich nur gedruckt, wenn die Comics es, gerade wegen ihrer Guete, ins kulturelle Gedaechtniss geschafft haben und sich deswegen auch 10, 20, 30 Jahre spaeter noch an die Frau und den Mann bringen lassen.

Waehrend ich bspw. Buecher oder Filme liebe, kann ich das da viel eher eingestehen … was vllt. daran liegt, dass da auch Kritiker schon immer eingeraeumt haben, dass diese Medien trotz vieler „Nieten“ auch den Raum fuer ganz grosze Kunst bereit stellen … waehrend bis heute, trotz aller Fortschritte auf dem Feld, oder der kommerziellen Erfolge der aus Comics hervorgehenden „Erweiterungen“ (siehe bspw. das Marvel Cinematic Universe), Comics von der Gesellschaft als „fuer Kinder“ angesehen werden.

Ich bilde mir ein, dass man das daran merkt, wie die Oma meisten Leute gucken und einen mit ihren Blicken im Stillen beurteilen, wenn man als Erwachsener mit ’nem Comic (anstatt ’nem Buch) in der U-Bahn sitzt und sichtbar frøhlich darob der Kunst ist, die man gerade rezipiert … andererseits … vielleicht (vermutlich?) ist das gar nicht so und meine Einbildung kommt daher weil’s frueher mal so war und ich damit „grosz geworden“ bin und Comics einen speziellen Platz in meinem Herzen haben … deswegen verteidige ich die immer … was natuerlich schwerer faellt, wenn objektiv (sehr) viel (hauptsaechlich?) Mist, bzw. zumindest (Unter)Durchschnittlichkeit dabei ist.

Wie versprochen geht es mit den linklevelabhaengigen Verteilungen unserer Grøszen von Interesse weiter. Heute behandeln wir erstmal nur die der totalen und die neuen Links.

Ersteres hat mich damals zunaechst ziemlich in die Irre gefuehrt. Nachdem ich das erkannt hatte, konnte ich das aber nicht einfach so stehen lassen und habe die Spekulationen (wie es gute Wissenschaft nunmal so macht) ordentlich dekonstruiert.
Die Dekonstruktion hatte dann sogar ein super interessantes und brauchbares Ergebnis, machte es mich doch auf das São-Paulo-FC-Artefakt aufmerksam … auch wenn ich es zum damaligen Zeitpunkt noch nicht wusste, dass eben dieses ein Teil eines systematischeren Phaenomens (der „Familien„) ist.
Wieauchimmer, eben weil es eine Irrefuehrung war, muss davon nix reproduziert werden und auf besagte „Familien“ komme ich an anderer Stelle nochmals separat zurueck (auch wenn die Diagramme zum São-Paulo-FC-Artefakt zu den coolsten Grafiken gehøren die ich in meinem Leben erstellte).

Von Interesse sind aber die Verteilungen an sich und ob sich was in den 2023-Daten geaendert hat. Deswegen hier nun ALLE Verteilungen der totalen Links in nur einem, sich „bewegenden“ Diagramm:

Fetzt wa!

Davon abgesehen, dass die 2023-Daten „laenger leben“ (also ueber das 72. Linklevel hinaus gehen), wuerde ich sagen, dass diese die 2020-Daten im Groszen und Ganzen und durchaus auch im Kleinen und Feinen (insb. auf fruehen Linkleveln) reproduzieren.

Im Detail scheinen Erstere, den Letzteren aber nach der „Reflexion“ etwas voraus zu laufen — die Verteilungen haben also das Maximum systematisch bei geringeren Anzahlen an totalen Links. Das ist hier an vier repraesentativen Beispielen dargestellt:

Ich wuerde hinter der Form der Kurve „dynamische Gruende“ vermuten; vulgo: auf welcher „Weise“ man zu bspw. LL23 gekommen ist. Die Regeln welche die „Dynamik“ … øhm … regeln, sollten sich nicht aendern und deswegen wundert mich das erstmal nicht, dass die Kurvenform gleich bleibt.

Bzgl. der Separation denke ich, dass die dem Phaenomen der oben erwaehnten „Familien“ zuzuordnen ist … auf das ich ja hier (noch) gar nicht eingehen wollte. Aber wenn ich mir das so anschaue, dann ist man ab LL20 ziemlich sicher in dem relevanten Bereich, in dem (fast) alle Seiten nur noch die selben („Familien“)Seiten in ihrem Linknetzwerk sehen. Es wird also alles durch relativ wenige Seiten dominiert. Wenn nun die Anzahl der Links in den „Familienseiten“ geringer ist, dann kønnte (wuerde? sollte?) das eine solche Separation zur Folge haben.

Prinzipiell kønnte bei diesem Mechanismus eine Verteilung auch ganz anders aussehen wie bspw. hier:

Im rechten Diagramm sieht man zwei „Haufen“, die wieder darauf hindeuten, dass es zwei „Familien“ gibt in die sich alle Seiten zum Ende hin einsortieren. So einen „Doppelhaufen“ sehe ich aber nur ein Mal und es ist schon kurios, dass die Anzahl der Links in den zwei „Familien“ sich an einer Stelle so sehr unterscheidet, dass sich das in der Gesamtbetrachtung nicht zu einem einzigen breiten „Haufen“ (wie in fast allen anderen Verteilungen) „verschmiert“.
Im linken Diagramm ist nun gar nichts Systematisches zu sehen. Aber diese beiden Diagramme eine Art „Uebergangsphase“ zu kennzeichnen sein, und das sollte man mal naeher untersuchen … aber das kann wer anders machen.

Die linklevelabhaengigen Verteilungen der neuen Links hatte ich damals gar nicht im Detail angeschaut, weil ich nix Neues sehen konnte (Wortspielkasse) … warum auch, neue Links sind ja im Wesentlichen nur eine Untergruppe der totalen Links. Hier diesmal alle Verteilungen, aber ich sage dazu auch heute nichts weiter:

Ach doch … eine Sache: die 2023-Daten scheinen KEINEN so deutlichen Vorlauf zu haben wie bei den totalen Links. Das wuerde sich aber auch mittels der „Familien“ erklaeren lassen. Denn da geht man ja immer nur von einer Seite zur naechsten, es gibt also immer nur EINEN neuen Link pro Familie (und weil man auf einem Linklevel bspw. 420 Familien gleichzeitig sieht, landet man beim Wert 420 auf der Abszisse). 2020 wie 2023 gibt es aber nur relativ wenige Familien. Ich muesste also deren Anzahl massiv veraendern, um eine deutliche sichtbare Separation zu reproduzieren.
Das gilt NICHT bei den totalen Links oben. Zur Erklaerung denke man sich in 2020 einhundert „Familien“ auf einem gegebenen Linklevel und die haben alle 10 Links. Das macht 1000 Links total. Nun denke man sich weiter, dass es in 2023 immer noch diese 100 Familien gibt. Damit aendert sich also nix an der Anzahl der neuen Links auf diesem Linklevel. Wenn diese 100 Seiten aber alle einen Link weniger haben (also insgesamt nur noch 900), dann erhaelt man eine Verschiebung in den totalen Links wie man die oben sehen kann.

Damit habe ich etliche von den alten Beitraegen „abgehandelt“. Beim naechsten Mal die linklevelabhaengigen Verteilungen der Selbstreferenzen und der Linkfrequenz.