Die beim letzten Mal reproduzierten Untersuchungen fuehrten mich damals zu einem der wichtigsten Kevin Bacon Resultate ueberhaupt: die durchschnittliche Anzahl der Zitate unterliegt einem maechtigen Gesetz. Oder anders: das ist bei doppellogarithmischen Achsen linear! Krass wa!

Wichtig: bei diesen Untersuchungen wurde davon ausgegangen, dass die Anzahl der Zitate die UNabhaengige Grøsze ist. Oder anders an einem Beispiel: alle Links einer Seite mit 5 Zitaten hab ich genommen und auf einen „Haufen“ geworfen. Auf diesen Haufen kamen NUR die Links von Seiten mit 5 Zitaten (egal wieviele Links das waren). Auf einem anderen Haufen haeufte ich alle Links aller Seiten mit 6 Zitaten an; usw. Fuer den Durchschnitt teilte ich am Ende einfach die Anzahl aller Links in einem gegebenen Haufen mit der Anzahl aller Seiten die zu diesem Haufen beigetragen haben.
Ich habe das nochmal so ausfuehrlich beschrieben, damit sichtbar wird, dass ich damals auch hier wieder NICHT die umgedrehte Konstellation betrachtet habe. Oder anders: wird das das Gleiche, wenn man die Anzahl der Zitate einer Seite durchschnittifiziert, wenn man die Anzahl der Links der besagten Seite als unabhaengige Grøsze hernimmt?

Tja … und hier sieht man nun beide Sachen:

Tada! Das ist auf den ersten Blick nicht das Gleiche … aber ich kann euch, meinen lieben Leserinnen und Lesern versichern, dass es sehr wohl das Gleiche ist.

Am wichtigsten ist, dass die Anstiege der linearen Teile der Daten im Groszen und Ganzen uebereinstimmen. Aufgrund unterschiedlicher Skalen sieht man das nur nicht so gut. Aber wenn man das gleich skaliert dann ist’s im Wesentlichen das gleiche Ergebniss … ich hab das jetzt zwar nicht konkret ausgerechnet, aber ich hab ’n Lineal an’n Monitor gehalten und parallel verschoben (bei richtiger Achsenskalierung) und das war im Wesentlichen das gleiche … OKOK … es war kein Lineal und Parallelverschiebung, sondern ’n Blatt Papier an den Monitor gehalten, dann hab ich (MIT LINEAL) den einen Anstieg „durchgepaust“, das Papier an der Unterkante des Monitors zum naechsten Graphen (parallel)verschoben, dort den Anstieg abgepaust … und das hatte zwar kleine Abweichungen, aber innerhalb der Genauigkeit aller Untersuchungen (und insb. der „Pausmethode“) wuerd ich sagen, dass das alles gleich war.
Und das SOLLTE auch so sein (was der Grund ist, warum das so wichtig ist), dass die Anstiege gleich sind. Auch wenn das in den beiden Faellen aus anderen Gegebenheiten so ist, denn die Anzahl der Seiten mit einem gegebenen Zitatewert ist unabhaengig von der Anzahl der Seiten mit dem selben LINKwert. Aber im Mittel ueber (sehr) viele Seiten, sollte das das Gleiche sein.
Dass dem wirklich so ist fetzt und bestaetigt im Nachhinein, dass mein Ansatz mit dem Mittelwert gar nicht so falsch ist … das ist wichtig, denn darauf basierten ein paar Schlussfolgerungen und Erklaerungen im weiteren Verlauf des Kevin Bacon Projekts.

Warum das auf den ersten Blick so ungleich aussieht, ist das unterschiedliche Verhalten des Verlaufs der beiden Durchschnitte bei hohen Werten auf der Abszisse. Was natuerlich nicht weiter verwunderlich ist, eben wg. besagter Unabhaengigkeit und weil wir hier in den Bereich kommen, wo oft nur sehr wenige, in vielen Faellen einzelne, Seiten einen ganzen Datenpunkt ausmachen … da kann man also mittels einer Durchschnittifizierung keine „versteckte“ Information „rauskitzeln“.

Ach ja, es ist eine reine Formalitaet (denn man sieht’s ja), aber ich sollte erwaehnen, dass die 2023 Daten die 2020 Daten reproduzieren.

Sooo … das ging schøn schnell heute.

Damals hatte ich dann nur noch den Rest der Verteilung der totalen Links angeschaut und da war nix weiter zu holen und ich hatte die gesamten Verteilungen bereits reproduziert. Und dann folgte (wie so oft) eine kurze Betrachtung der „Ausreiszer“, die ich hier auch nicht wiederholen werde. Dito, bzgl. der daran anschlieszenden Fehlerbetrachtungen.

Tjoa … jetzt muss ich ueberlegen ob ich mir erstmal die Linklevelverteilungen fuer die anderen drei Grøszen von Interesse anschaue (und damit dem damaligen „Spielplan“ vorgreife), oder „chronologisch“ weitermache.
Ich tendiere zu Ersterem, aber das muss ich nicht jetzt entscheiden.

Ja ich weisz, es ist schon laenger her. Ich war aber mit anderen Sachen beschaeftigt und durch die (stark) verminderte Anzahl an Beitraegen pro Monat ergab sich bisher einfach keine Gelegenheit endlich mal die Feinstaubmessungen fertig zu machen.

Rein technisch bastelte ich zunaechst noch rum, damit der Mikrokontroller die Ergebnisse auf eine externe SD-Karte speichert. Auszerdem fand ich auch noch heraus, wie ich (Teil)Ergebnisse mittels Radiouebertragung auslesen kann. Ersteres funktionierte prima, Letzteres war zwar voll spannend, aber hab ich aus anderen Gruenden nie wirklich benutzt.
All das (Sensor, Mikrokontroller, periphaerer Kram) verpackte ich in ein U-førmiges Regenrinnenstueck, machte ueber die Enden so ’ne Art sehr grobmaschigen Stoff drueber (damit mir da nix reinkrabbelt und ’n Kurzschluss verursacht) und haengte das Ganze drauszen auf. Es war der 14. Januar 2021, ein Donnerstag.

Und am 23. Januar holte ich alles wieder rein. Urspruenglich sollte das nur ein Testlauf sein … aber aufgrund der Verkettung von Umstaenden kam ich nie dazu nochmal wirklich was Laengeres zu machen. Zum Einen lag es daran, dass der Zaehler fuer die Uhr des Mikroprozessors „ueberlaeuft“. Und dann arbeitet der nicht mehr richtig. Ich haette das einfach nur alle zwei Wochen oder so resetten muessen, und ich hatte auch schon ueberlegt wie das gemacht werden kønnte … aber die Testergebnisse fanden zu einer interessanten Zeit statt (es war kalt und alle heizten wie verrueckt) und die waren trotzdem nicht wirklich spannend.

Dennoch, hier sind sie nun:

Aha! Das wackelt ja ganz schøn. Man sieht schnell, dass an kalten Tagen (Temperaturen unter dem Gefrierpunkt) die Feinstaubbelastung deutlich grøszer ist, als an warmen Tagen. Das war zu erwarten, denn dann waermen die Leute hier ihre Wohnungen mittels Holzøfen auf (zum Glueck keine Kohle!) um Strom zu sparen.

Die abgeschnittenen Spitzen scheinen einem Muster zu folgen (immer so gegen 21 Uhr oder halb 2 Uhr rum). Ich kriege das nicht richtig zugeordnet. Die wahrscheinlichste Erklaerung ist, dass das wieder vom Duschen kommt, denn der Sensor hing nur ca. einen Meter vom Badfenster entfernt und das ist beim Duschen immer auf. Aber ich kriege das nicht mehr nachvollzogen und das kønnte auch nur ein „Schluckauf“ sein, denn um die Zeit rum ist die Partikeldichte ohnehin hoch und vielleicht hat sich da was festgesetzt. Das wuerde ich aus dem Abhandensein solcher Spitzen an warmen Tagen schlieszen. Andererseits erklaert das nicht eine der høchsten Spitzen morgens 10 Uhr und es ist auch komisch, dass das immer zur ungefaehr gleichen Zeit passiert.
Ich erzaehle das so (relativ) detailliert, denn hieran sieht man, warum ich nicht so richtig zufrieden bin. Das-grosze-Drauszen ist ein offenes System ueber das ich nicht nur keine Kontrolle habe, sondern bei dem ich noch nicht mal weisz, was da passiert. Deswegen kann ich die Beobachtungen nicht zuordnen und das ist unbefriedigend … und dadurch wie gesagt der Hauptgrund, warum ich das nach dem Testlauf nie weiterverfolgt habe.

Eine systematische Sache sieht man allerdings an kalten Tagen. Ich zoome mal bei einem Tag rein:

In der Nacht ist die Partikeldichte gering — die Øfen sind aus. Ab ca. halb acht steigt sie langsam bis ca. 18 Uhr an. Bzw. kønnte man insb. auch die schwarze Kurve so interpretieren, dass der Anstieg schon bis ca. 10 Uhr fertig ist und dann die Werte um einen gewissen Plateauwert zappeln. Mhmmmmm … das kønnten dann Rentner sein, die es sich nach dem Aufstehen schonmal gemuetlich warm in der Stube machen.
Ab ca. 18 Uhr dann springt die Partikeldichte auf einen ca. 2 bis 5 Mal høheren Wert. Nun sind auch alle anderen Leute zu Hause und das Abendbrot ist gekocht und gegessen und beim gemuetlichen Entspannen vor dem Fernseher wollen auch diese Menschen es schøn warm haben. Der ca. 2 bis 5 Mal høhere Wert ergibt in dem Bild durchaus Sinn. Ich wuerde einen solchen Wert auch ganz grob abschaetzen als das Verhaeltniss aus den Leuten die tagsueber nicht zu Hause sind, und solchen die es sind (warum auch immer).
Ab ca. 21 Uhr fangen die Leute an kein Holz mehr nachzulegen. Die Feinstaubdichte geht runter und gegen 23 Uhr sind die meisten Øfen wieder aus.
Die kleine Spitze bei ca. 1 Uhr war vermutlich tatsaechlich ich, beim heiszen duschen.

Aber das zappelt alles so doll hin und her. Ich hatte gehofft, dass ich damit die Feinstaubbelastung durch Autos messen kønnte (vor allem Dieselautos und Abrieb der Strasze wg. Spikes an den Reifen). Kann ich aber nicht, bzw. scheint das im Dreck der Holzøfen unter zu gehen.

Mehr seh ich hier nicht und somit war’s das dann mit dem ganzen Thema. Die Messungen in der Kueche waren durchaus spannend, weil es viel zu entdecken und erklaeren gab. Warum ich das Ganze aber eigentlich machte dann letztlich nicht. Andererseits gebe ich zu, dass sich auch hier „der Weg ist das Ziel“ einstellte. Das ganze Knobeln an der Hard- und Software hat mir mal wieder viel mehr gegeben als die Messergebnisse am Ende.

Hurra! Damit ist das endlich abgeschlossen!

Die Sachen die ich beim letzten Mal reproduzierte (und leicht erweiterte) machten mich damals stutzig, denn die Kurven hatten fuer meinen Geschmack einen viel zu starken Anstieg. Deswegen untersuchte ich (damals) wie stark Seiten mit unterschiedlichen Anzahlen an Zitaten und Links auf Linklevel 0 zur Anzahl der totalen Links auf Linklevel 1 beitragen.
Das wollte ich jetzt natuerlich nochmal machen und die entsprechenden Programme hatte ich schon vor Monaten geschrieben. Leider habe ich diesmal nicht richtig hingeschaut und das als „Beitrag zur Anzahl der total Links auf LL0“ (man beachte den Linklevelindex!) gelesen (anstatt „auf LL1„). Dadurch hab ich dann Zeit verschwendet, weil besagte Programme vermeintlich falsche Zahlen lieferten. Der Fehler klaerte sich nach ca. 2 Stunden auf.

Aber der Reihe nach und als Erstes nochmal kurz worum es heute geht. Wenn ich an ’ne Sache rangehe, mache ich oft erstmal ’ne Fermi Abschaetzung. Etwas genauer: ich schau mir Mittelwerte an und ueberlege mir wie diese Sache aussehen sollte, wenn man nur mit den Mittelwerten rechnet. Damals kam aber ganz schnell heraus, dass die durchschnittliche Anzahl der Links und Zitate, gemittelt ueber ALLE Seiten, einen VIEL kleineren Anstieg der totalen Links verursachen sollte. Ich hatte dann relativ schnell die Idee, dass mglw. Seiten die extrem oft zitiert werden einen ueberproportionalen Anteil an dem Anstieg haben kønnten, der mitnichten mittels einer Mittelwertsueberschlagsrechnung erfasst werden kann.
Oder anders (mit Zahlen): eine Seite die auf LL0 fuenf mal zitiert wird und die fuenftausend Links hat, traegt auf LL1 25-tausend (totale) Links bei. Der Beitrag einer Seite mit nur einem Link, die aber 250-tausend Mal zitiert wird, ist hingegen zehn Mal so hoch.

Das soll reichen zu dem was man hier (wieder) sieht; mehr Details gibt es in den entsprechenden Artikeln von damals.
Ach ja, wenn ich schon dabei bin sollte ich auch auf einen Fehler hinweisen. Bei der Kurve bzgl. des kumulativen Beitrags habe ich damals die Werte fuer NULL mal zitierte Seiten mit dazugezaehlt. Die tragen aber NICHT bei, weil die ja nicht zitiert werden. Das fuehrt aber NICHT zu einer Aenderung des Anstiegs der Kurve, sondern nur zu einer konstanten Verschiebung von weniger als 1 Million … da die Ordinate bis fast 40 Milliarden geht, sieht man das gar nicht und HIER ist das jetzt alles richtig!

Aber nun die Diagramme. Zunaechst das zur Reproduzierbarkeit …

… bei der (wie damals) als Unterscheidungsmerkmal der betrachteten Seiten die Anzahl der Zitierungen herangenommen wurde. Die schwarzen Punkte (linke Ordinate) repraesentieren die Summe aller Produkte von Anzahl Links und Anzahl Zitierungen aller Seiten mit einer gegebenen Anzahl Zitate auf LL0. Die Punkte der 2023 Daten sind im Wesentlichen die Gleiche wie die fuer die 2020 Daten.
In den 2023 Daten gibt es aber mehr Seiten mit unterschiedlichen Anzahlen an Zitierungen. Wegen der logarithmischen Komprimierung sieht man die entsprechendne Punkte nicht. Die sind aber ein Grund, warum die kumulative Anzahl Links auf LL1 (blaue Punkte, rechte Ordinate) der 2023 Daten schneller waechst als die der 2020 Daten. Desweiteren liegen die schwarzen Punkte ein bisschen ueber den grauen Punkten. Man muss genau hinschauen und sieht es vermutlich am besten am Anfang um 10 Zitate rum … der Unterschied ist gering, aber echt. Oder anders: es gibt in den 2023 Daten nicht nur mehr Seiten mit anderen / unterschiedlichen Zitaten als in den 2020 Daten, sondern auch mehr Seiten die bspw. 5 Zitate haben. Und das „haut dann rein“ bei den kumulativen Kurven … denn das liegt ja schon in der Definition der kumulativen (!) Kurven.
Aber alles „geht mit rechten linken Dingen zu“, denn die Form der Anstiege (im Wesentlichen linear) aendert sich nicht.

Damals nicht betrachtet hatte ich, wie das Ganze aussieht, wenn man die Anzahl der Links herannimmt als Unterscheidungsmerkmal der betrachteten Seiten. Aber das ist ja das Schøne, wenn man die entsprechenden Programme nochmal neu schreibt und dabei allgemeiner fasst; es „fallen mehr Sachen raus“. Auf den ersten Blick das sieht das …

… erstmal sehr aehnlich zum obersten Diagramm aus, sowohl qualitativ als auch quantitativ. Letzteres natuerlich nur bzgl. der Ordinate. Insb. verhalten sich die 2023 Daten nicht anders als die 2020 Daten (innerhalb der zu erwartenden Grenzen).
Auf den zweiten Blick sieht die Verteilung der schwarzen Punkte dann aber doch anders genug aus, sodass ich da mal „reingezoomt“ habe:

Tatsaechlich! bei vielen Zitaten „gehen die Punkte hoch“, waehrend sie „runter“ gehen bei vielen Links … da kann wer anders mglw. was mit machen, ich lasse das hier nur noch ohne weitere Kommentare stehen.

An der Stelle liesz ich damals die durchschnittliche Anzahl Links (bei gegebener Anzahl an Zitaten) folgen. Das verschiebe ich auf den naechsten Beitrag, weil dies eines der wichtigsten Ergebnisse ueberhaupt war, welches oft zur Erklaerung anderer Phaenomene herangezogen wurde.

Ich kam dann damals nochmals auf die Beitraege der einzelnen Seiten (gruppiert nach der Anzahl der Zitate) zurueck und schaute mir das in einem zweidimensionalen Grafen an, in dem Information ueber eine dritte Dimension (besagte Gruppierung) in den einzelnen Punkten „versteckt“ war.
Das war wichtig, denn diese Kurve zeigte ungeheuer beeindruckend wie stark _ganz_ wenige Seiten mit vielen Zitaten die Dynamik der total Links insb. am Anfang beeinflussen … womit der Grund der oben erwaehnten Stutzigkeit gefunden war.
Hier sind die entsprechenden Kurven:

Bzgl. dessen wie dieses Diagramm zu lesen ist verweise ich auf den damaligen, verlinkten, Beitrag. Nur drei Sachen seien gesagt.
Zum Einen schaue ich mir nicht nur die Gruppierung nach Anzahl der Zitate (rote Punkte) an, sondern auch nach Anzahl der Links (schwarze Punkte).
Zum Zweiten unterscheiden sich die 2023 Daten nur insofern, dass sie sich weiter nach rechts „ausdehnen“. Das liegt natuerlich wieder daran, weil es in den 2023 Daten mehr Seiten gibt.
Zum Dritten scheint die Dynamik der Kurven in denen die Seiten nach der Anzahl der Links gruppiert sind, etwas „ruhiger“ zu sein als die der Kurven in denen die Seiten nach Anzahl der Zitate gruppiert sind. Oder anders: die roten Kurven verlaufen ab ungefaehr 5 Millionen auf der Abzsisse etwas „flacher“ (nicht viel) als die schwarzen Kurven um dann zum Ende einen „Extraschub“ hinzulegen und staerker zu „beschleunigen“. Am Endergebnis aendert das nix, kønnte aber mglw. durchaus von Interesse sein sich mal naeher anzuschauen … fuer andere … nicht (mehr) fuer mich.

Das soll genug sein fuer heute. Wie bereits erwaehnt: beim naechsten Mal dann die durchschnittlichen Links / Zitate bei gegebener Anzahl Zitate / Links.

Richtig so!

Das gehørt sich naemlich nicht, in øffentlichen Toiletten das Klopapier zu klauen!

Wenn ich mich richtig erinnere (kann gerade nicht nachschauen), dann habe ich das im Besucherzentrum zum Hiroshima Peace Memorial Park, gleich nebem dem Hiroshima Peace Memorial, entdeckt.

In den Schriftzeichen darunter ist es uebrigens kein Verbrechen mehr, sondern nur noch unhöflich / unanständig / unverschämt / ungezogen … oder wieuachimmer man das englische „rude“ uebersetzen mag.

Nach den Relevanzbetrachtungen folgten damals drei Monate lang technische Beitraege auf die ich hier nicht nochmal eingehen muss. Aber danach ging es dann endlich los mit den Linknetzwerkeigenschaften und zunaechst betrachtete ich den Anstieg der Verteilung der Anzahl der (totalen) Links (und hier auch) pro Linklevel. Nur daraus folgten naemlich etliche sehr interessante Erkenntnisse und das muss ich ueber die naechsten paar Beitraege reproduzieren (ich versuche mich kurz zu halten).
Wie immer: die damals naeher betrachteten grøbsten Abweichungen schaue ich mir nicht nochmal an. Dito bzgl. der damals daran anschlieszenden Fehlerbetrachtung.

Der Anfang ist schnell gemacht, denn bei der Summe (ueber alle Seiten) der totalen Links pro Linklevel ist nicht viel passiert:

Der grøszte Unterschied liegt im Ende, das von 72 Linkleveln in den 2020 Daten zu 83 Linkleveln in den 2023 Daten gewandert ist. Ansonsten sind die Unterschiede marginal (also wie erwartet) und die Form der Kurve bleibt erhalten.

Um den starken Anstieg am Anfang zu erklaeren stellte ich mal damals die Anzahl der Links ueber der Anzahl der Zitate fuer alle Seiten dar … und erhielt einen „schwarzen Klumpen“. Hier …

… habe ich das reproduziert und wieder gibt es keine groszen Unterschiede. Auszer im Diagramm an sich, denn damals ist mir nicht aufgefallen, dass die „Nullwerte“ (also entweder keine Zitate oder keine Links) abgeschnitten wurden. Wieder ist wichtig, dass die Form des „schwarzen Klumpens“ im Wesentlichen erhalten bleibt; sogar der kleine „Pøppel“ der oben rausschaut und insb. die „Abbruchkante“ auf der rechten Seite.

In diesem Diagramm ist eine Information versteckt, die ich damals nicht weiter betrachtet hatte: die Anzahl der Seiten mit eindeutigen Zitate-Links-Kombinationen. Ein Beispiel: man nehme an, dass es 8 Seiten gibt, die 23 Zitate und 5 Links haben. Diese 8 Seiten sind alle in nur einen einzigen Punkt gequetscht.
Weil ich die Programme die das auswerten nochmal neu geschrieben habe, hab ich’s jetzt eingebaut, dass diese Information mit „ausgespuckt“ wird … und das sieht dann so aus:

ACHTUNG: bei diesen „flachen“ Bildern „versteckt“ sich jeweils eine Dimension in den Punkten an sich; im linken Diagramm die Anzahl der Links und im rechten Diagramm die Anzahl der Zitate. Mit dem Zahlen aus dem obigen Beispiel haette man dann im linken Diagramm einen Punkt bei den Koordinaten (23, 8) und im rechten Diagramm bei den Koordinaten (5, 8). Weil aber die Information jeweils einer Dimension verloren geht, kønnte im linken Diagramm direkt darunter ein Punkt sein, der die sieben Seiten repraesentiert die AUCH 23 Zitate haben, aber mit 42-tausend Links. Diese sieben Seiten wuerden im rechten Diagramm dann natuerlich auch „eins unter“ dem urspruenglichen Beispielpunkt sein, aber natuerlich viel weiter rechts davon (also mitnichten in der inmittelbaren Naehe). Im Gegensatz dazu kønnte ebenso auf unserem urspruenglichen Beispielpunkt (im linken Diagramm) ein weiterer Punkt liegen, der die 8 Seiten repraesentiert die AUCH 23 Zitate haben, aber 23,517 Links. (Hausaufgabe: man ueberlege sich wo dieser Punkt im rechten Diagramm liegen wuerde).

Eigentlich sollte man das also dreidimensional darstellen. Aber zum Einen sind solcherart Darstellungen mit logarithmischen Achsen schwer zu machen (es geht sicher, aber nur mit rumtricksen und ich hab da gerade keine Lust drauf).  Zum Anderen sind 3D-Diagramme gedacht interaktiv zu sein. Man soll die „in die Hand“ nehmen und Drehen und Wenden, um die Daten von allen Seiten zu betrachten. Das geht natuerlich hier nicht und deswegen lasse ich das gleich bleiben (es geht sicher, aber dafuer braucht man bestimmt irgend ’ne Erweiterung (so wie bei LaTeX-Formeln oder Tabellen) und ich versuche Erweiterungen so weit wie møglich zu vermeiden).

Ich diskutiere jetzt nur noch das Offensichtlichste. Zunaechst sehen die Einhuellenden aus wie die Anzahl der Seiten pro Links oder Zitierungen. Wenn man die entsprechenden Kurven normiert, ist dem aber nicht nicht so (muesst ihr, meine lieben Leserinnen und Leser einfach mal glauben, ich wollte das naemlich nicht auch noch diagrammisieren, weil’s jetzt nicht so wichtig ist). Ich habe das jetzt nicht kontrolliert, aber wenn man alle Punkte zu einem gegebenen Wert auf der Abzsisse aufsummiert, sollte man die erwaehnten Kurven erhalten.

Wenn man aber genauer hinschaut, dann sieht man, dass die Einhuellenden sich nicht so verhalten wie sie „sollten“. Nach allem was ich in diesem Projekt gesehen habe, wuerde ich „maechtige Gesetze“ erwarten. Bei der Einhuellenden im linken Bild kann man das nicht mal mit viel Fantasie sehen. Im rechten Diagramm liegt eine solche Situation zwar durchaus vor, aber es gibt da so ’ne Delle mittendrin. Ich hatte an anderer Stelle (hab jetzt keine Lust das raus zu suchen) vermutet, dass in der Wikipedia zwischen Ende 2020 und Ende 2023 mglw. eine grosze „Løschaktion“ stattgefunden hat. Meine erste Annahme war deswegen, dass diese Delle ein Resultat dessen sein kønnte.

Andererseits gibt es bei der Anzahl der Seiten pro Links an der Stelle in auch eine Delle (nur nach AUSZEN wølbend und nicht wie hier, nach innen … also eher einen Buckel). Bei der Reproduzierung sieht man das nicht so gut, weil die Punkte so dick sind. Im urspruenglichen Beitrag ist’s in den Abweichungen zur eingezeichneten geraden Linie relativ gut zu erkennen. Ich hatte das damals nicht weiter betrachtet (und werde das auch heute nicht tun) weil die Abweichungen so klein sind … aber obiges (neues) Diagramm deutet ja eher darauf hin, dass hier irgendwas vor sicht geht. Das was vor sich geht hat zwar keinen all zu groszen Effekt, ist mit den richtigen Methoden und „Werkzeugen“ aber messbar. Ist also sowas Aehnliches wie das Higgs Boson … tihihi.
Damit sei abschlieszend zur Delle zu sagen, dass die also vermutlich KEIN Resultat einer „Løschaktion“ ist, eben weil sie in der Kurve der Anzahl der Seiten pro Links erhalten bleibt.

Aber das soll dazu reichen. Da kann man bestimmt noch andere fetzige Sachen mit machen (bspw. wie die Verteilungen der einzelnen Spalten und Zeilen aussehen), aber wieder einmal ueberlasse ich das Anderen.
Wie damals, werden mich auch beim naechsten Mal die Anzahl der Links in Abhaengigkeit von der Anzahl der Zitate weiter beschaeftigen.

Mhmmm … es faellt mir schwer diesen Beitrag anzufangen, denn ich wollte urspruenglich schreiben: „Es ist ja weithin bekannt, dass sich die Ausdehnung des Universums beschleunigt“. Andererseits befuerchte ich, dass das _nicht_ weithin bekannt ist. Deswegen ein kurzer Crashkurs in Kosmologie (der dann nahtlos das integriert, worauf ich eigentlich hinaus will). Fuer Details verweise ich auf dieses Buch …

… was ihr, meine lieben Leserinnen und Leser, euch gerne bei mir ausborgen kønnt, wenn es das nicht in eurer lokalen Bibliothek gibt … aber nicht alle auf einmal, ich habe naemlich nur ein Exemplar.

(Seeeeee … eeeeee … eeeeee … ehr) Vereinfachend gesagt ziehen sich Dinge die eine Masse haben gegenseitig an. Daraus folgt das Problem, dass das Universum in sich zusammenfallen sollte. Etwas genauer: es sollten sich NICHT nur die Galaxien aufeinander zubewegen, sondern das Universum worin die sich befinden (also die Raumzeit) an sich!
Im Gegensatz zu ganz oben denke ich, dass es tatsaechlich weithin bekannt ist, dass das Universum sich ausdehnt. Dem war aber mitnichten so, als Albert Einstein in den 10’er Jahren des 20. Jahrhunderts seine wunderschøne Gravitationstheorie der Welt praesentierte. Vielmehr herrschte damals der Konsens, dass das Universum statisch ist. Also schon immer so war wie es ist und immer so sein wird, ohne Anfang und ohne Ende.

Die Leute damals waren nicht doof, die wussten es nur nicht besser, weil die Beobachtungsinstrumente (vulgo: Teleskope und Spektrometer) nicht gut genug waren um genau genug weit entfernte Sterne zu beobachten.
Das „Dumme“ war damals nun leider, dass aus Einsteins Gleichungen „heraus faellt“, dass das Universum NICHT statisch ist, sich also entweder im Zustand der Expansion befindet oder am Schrumpfen ist.
Tja … und was macht man wenn eine echt gute Theorie, die andere Sachen erklaert die vorher nicht erklaerbar waren, im Widerspruch zur wahrgenommenen Welt steht? Ganz genau! Es ist in der Wissenschaft vøllig ueblich die entsprechenden Gleichungen so wenig wie møglich zu modifizieren, um sie den Beobachtungen anzupassen. Das ist ganz im Sinne von Thomas Kuhn; es kommt erst dann zum Paradigmenwechsel (und somit zu ganz neuen, anderen Gleichungen), wenn es nicht mehr haltbar ist besagte Gleichungen weiter zu modifizieren, weil die Realitaet zu sehr davon abweicht. Aber Letzteres ist natuerlich nur durch neue, und genauere Messungen møglich (siehe oben).

Die kleinste Modifizierung die Einstein an seiner Gravitationstheorie vornehmen konnte war das Hinzufuegen eines konstanten Terms — die kosmologische Konstante. Diese Konstante hat eine, der gravitativen Anziehung entgegenwirkende, Abstoszung zur Folge. Aber NUR auf groszen, kosmologischen Skalen, also nicht bei Entfernungen die kleiner oder gleich den Abstaenden in Galaxienhaufen sind.
Eine Konstante ist mathematisch tatsaechlich die geringstmøgliche Modifizierung eine jeden Gleichung und es ist prima, dass es nichts Kompliziertes bedurfte, um das (damals) beobachtete statische Universum zu „retten“.

Dann stand Edwin Hubble aber ein neues supertolles Teleskop zur Verfuegung. Dank der experimentellen Gewandtheit seines Assistenten Milton Humason, konnte das Auseinanderstreben der Galaxien(haufen) entdeckt und 1929 im Artikel mit dem passenden, wenn auch sperrigen, Titel „A Relation Between Distance and the Radial Velocity Among Extra-Galactic Nebulae“ in Proceedings of the National Academy of Sciences of the United States of America, 15 (3), pp. 168–173, verkuendet werden (durchaus interessant zu lesen wenn man sich dafuer interessiert, aber doch eher … mhmmmm … ich sag jetzt mal: trocken).

Kurzer Einschub #1: Milton Humason wird zu Unrecht meist nicht mitgenannt wenn es um die Entdeckung der Expansion des Universums geht. Das ist eine riesige Sauerei! Klar, Hubble ist fuer die theoretische Interpretation der Daten verantwortlich, aber die Messungen dafuer mussten _extrem_ praezise sein und das ueber mehrere Naechte. Ohne die technische Expertise Humason’s haette Hubble niemals die nøtigen Daten bekommen, um diese Entdeckung ueberhaupt zu machen!
Kurzer Einschub #2: Beide haetten einen Nobelpreis dafuer verdient, im Falle von Hubble waren sich die Physiker zu dem Zeitpunkt sogar einig darueber. Aber Astronomie war damals noch nicht als Teil der Physik anerkannt und deswegen wurde Hubble (oder Humason) nie zum Mittag mit dem schwedischen Kønig eingeladen.

In der Geschichte der Wissenschaft gibt es selten derart (und sogar beinahe im Wortsinne) weltanschauungsumwerfende Messergebnisse die so schnell akzeptiert wurden wie die zur Expansion des Universums. Meistens dauert das mindestens ein paar Jahre bis auch die letzten Zweifel ausgeraeumt sind. Das soll so sein und ist ein eingebauter Mechanismus in der Wissenschaft; gerade im Falle von Messergebnissen die dem bisher Anerkannten Verstaendniss der Realitaet widersprechen.
Aber bzgl. der Expansion des Universums „lag es wohl schon laenger in der Luft“ (sicherlich nicht zuletzt durch Einsteins Theorie), weswegen dann der Wert der kosmologischen Konstante auf Null gesetzt wurde (ich vermute mit groszer Erleichterung). Und hier kommt jetzt ins Spiel, dass Einstein eben diese Konstante als „die grøszte Eselei“ seines Lebens bezeichnet hat. Leider konnte ich zu dem Zitat die Originalquelle nicht finden.

Meiner Meinung nach wird diese Aussage aber von den allermeisten Menschen falsch interpretiert (und bis vor Kurzem gehørte ich dazu). Denn wenn man sich nicht weiter damit auseinandergesetzt hat, ist es wohl nur natuerlich diesen Ausspruch darauf zu beziehen, dass die kosmologische Konstante den urspruenglichen Einsteinschen Gleichungen hinzugefuegt wurde. Aber ich schrieb ja oben, dass das ein ganz normaler und von der Wissenschaft akzeptierter (in dem Sinne also richtiger) Vorgang ist.
Nach der Lektuere des oben gezeigten Buchs bin ich aber der Meinung, dass Einstein das nicht auf die Erweiterung der Gleichungen an sich bezogen hat. Vielmehr denke ich, dass er damit meinte, dass er nicht seinem wissenschaftlichen Gespuer vertraute, also gerade NICHT der Mathematik und den daraus zu ziehenden Folgen (einem expandierenden Universum) folgte, sondern sich dem herrschenden Konsens „unterwarf“, obwohl die Hinweise in eine andere Richtung zeigten. Und ja, DAS ist (zurecht) als eine „Eselei“ zu sehen, wenn es um Giganten wie Einstein geht. Das gilt natuerlich i.A. (!) mitnichten fuer normale Leute wie mich, denn da ist die Gefahr viel zu grosz, dass ich etwas Wichtiges uebersehen, oder eine logische Schlussfolgerung falsch gezogen habe und dann auf ’ne dumme Verschwørungstheorie hereinfalle oder auch einfach nur Nonsens von mir gebe … ich bin halt kein (geistiger) Gigant.

Hinzu kommt, dass Einstein die kosmologische Konstante auch aesthetisch als haesslich (in den nach ihm benannten Gleichungen) empfand.

Der Narrativ weitab der eigentlichen Gravitationsforschung war dann im Wesentlichen, dass es keine kosmologische Konstante gibt. Deren Wert wurde also im „populaerwissenschaftlichen Bereich“ nicht nur auf Null gesetzt, sondern die Existenz wurde abgesprochen.
Aber wie gesagt, in die mathematische Struktur passt die ganz natuerlich hinein. Und das gilt selbst dann, wenn es dem aesthetischen Empfinden Einsteins widersprochen hat. Mathematik muss im Zusammenhang mit der Physik interpretiert werden und das øffnet dann den Møglichkeitsraum fuer Aesthetik (siehe bspw. Ockhams Rasiermesser).
Die Gravitationsforscherinnen und -forscher haben die kosmologische Konstante in ihren Betrachtungen also immer „mitgeschleift“ und bei der Interpretation der Gleichungen deren Wert auf Null gesetzt … oder auch nicht! Und das habe ich erst durch die Lektuere des dicken Buches gelernt, dass in der Forschung die kosmologische Konstante im Wesentlichen nie verschwunden ist.

Deswegen war es dann fuer die Wissenschaftler und Wissenschaftlerinnen gar keine all zu grosze Ueberraschung, als Ende der 90’er Jahre des 20. Jahrhunderts Messungen ergaben, dass sich das Universum nicht nur ausdehnt, sondern dass sich die Ausdehnung mit der Zeit sogar beschleunigt! Ganz im Gegensatz zu mir, der ich davon komplett „ueberfahren“ wurde.

Lange Rede kurzer Sinn: Einsteins Gravitationstheorie ist immer noch richtig und die „Eselei“ bezog sich (vom Aesthetischen abgesehen) nicht wirklich auf die kosmologische Konstante an sich.

Fein wa! Und nicht nur weil mir das ’n Grund gab das dicke Buch noch mal zu zeigen :) .

.oO(Fast geschafft … das neue maechtige Werkzeug in aller Kuerze abzuhandeln).

Nachdem die Daten bedeutungskomprimiert und wertekomprimiert wurden, bleibt nur noch die spalten- bzw. reihenweise Normalisierung der komprimierten Daten uebrig. Die „Rohdaten“ wurden dieser Transformation bereits unterworfen und man konnte einige (nicht im Detail diskutierte) Phaenomene sehen. Damals fuehrte die Normierung der komprimierten Daten zur Entdeckung und Erforschung des „Blobs“. Das war durchaus spannend, aber so weit werde ich es heute nicht treiben.

Das hier ist allerdings der „dickste“ Brocken, denn bei zwei Achsenbedeutungen (Anzahl der Zitate oder Links), multipliziert mit zwei (um den verschiedenen „Achsenbedeutungskombinationen“ Rechnung zu tragen), multipliziert mit zwei Arten der Komprimierung (bedeutungskomprimiert oder wertekomprimiert), multipliziert mit zwei Arten der Normierung (reihen- oder spaltenweise), mal zwei Datensaetzen (2020 und 2023) will ich heute 32 Falschfarbenbilder abhandeln.

Zum Glueck kann das alles schøn „verpackt“ werden, wodurch im Wesentlichen keine 32 Bilder einzeln diskutiert werden muessen. Der „Wechsel“ zwischen den verschiedenen Datensaetzen ist bereits bekannt. Die folgenden Bilder sind zunaechst nach der Art der Normierung getrennt (erst die spaltenweise, dann die reihenweise Normierung). Eine weitere Trennung erfolgt nach der Art der Komprimierung (jeweils erst die Bedeutungs-, dann die Wertekomprimierung). Die vier (wechselnden) Falschfarbenbilder die uebrig bleiben sind in ein Gesamtbild gruppiert. Darin repraesentiert die Abzsisse der oberen beiden Bilder die Zitategruppe und der unteren beiden die Linksgruppe, waehrend die Ordinate der beiden linken Bilder die Zitategruppe und der beiden rechten Bilder die Linksgruppe darstellt.
Dank der Normierung kuemmert auch die Falschfarbenskala nicht all zu sehr, denn die geht immer von null bis eins. Und die Komprimierung erfolgte wie in den entsprechenden Beitraegen besprochen; jede Spalte / Reihe sollte ungefaehr ein Prozent der jeweiligen „Werte“ enthalten (mit wichtigen, zu beachtenden Ausnahmen, die in den besagten Beitraegen besprochen wurde!).

Dennoch bleibt der Aufwand grosz (ihr, meine lieben Leserinnen und Leser solltet lieber nicht fragen, wieviel Arbeit ich in die Erstellung der Falschfarbenbilder gesteckt habe) und deswegen werde ich nicht alles im Detail besprechen; insb. nicht bereits bekannte und diskutierte Phaenomene.

Genug der Vorrede und hinein ins Vergnuegen (und ein Vergnuegen ist es, denn man sieht so viel … irgendwie schade, dass ich das nicht mehr im Detail erforschen werde).

Hier sieht man die spaltenweise normierten, bedeutungskomprimierten Falschfarbenbilder:

Fetzt wa!
Das linke obere Bild ist der zu reproduzierende Teil und davon abgesehen, dass das damalige Farbschema Informationen hervorhebt die so nicht hervorgehoben werden sollten, ist alles wie erwartet.

Bei den beiden linken Bildern ist die grøszte Intensitaet in nur einer Spalte am jeweils unteren Rand. Das entspricht dem bereits sehr lange bekanntem Resultat, dass im Wesentlichen alle Seiten von anderen Seiten zitiert werden die selber nur (sehr) wenige Zitate erhalten.

Die beiden rechten Bilder sind da schon spannender. Die horizontalen hellen Streifen sind Artefakte durch die „Stufen“ in der Komprimierung. Die vertikalen dunklen Streifen (insb. im rechten unteren Bild) kommen durch die eine, sehr intensive, unterbrochene Reihe bei ca. Zitategruppe 8 zustande; eben weil die so viel „Intensitaet“ auf sich vereint, ist dann nicht mehr genug „uebrig“ fuer die restlichen Zellen in der Spalte. Dieser Streifen ist bereits in vorherigen Beitraegen aufgefallen und da hatte ich den auch schon nicht weiter untersucht. Im rechten unteren Bild sieht man noch eine helle Diagonale. Das ist ein (ebenso bereits bekanntes) Artefakt der Rohdatenverarbeitung und kommt durch Seiten die sich selbst zitieren zustande.
Ansonsten sagt die ungefaehr gleiche Intensitaet ueberall aus, dass es egal ist wie viele Zitate oder Links eine Seite selber hat, sie wird um Durchschnitt gleich oft von Seiten mit wenigen, mittelvielen, oder ganz vielen Links zitiert. Das ist an sich schon durchaus interessant. Das Wørtchen „ungefaehr“ ist aber wichtig, denn wenn man genau hinschaut, scheint es im rechten oberen Bild einen breiten Streifen von links oben nach rechts unten zu geben (besser zu sehen in den 2023 Daten). Das wuerde bedeuten, dass Seiten mit wenigen Zitaten ein bisschen øfter von Seiten mit weniger Links zitiert werden und Seiten mit vielen Zitaten øfter von Seiten mit mehr Links. Das kønnte als ’ne Art „Dynamik“ im Linknetzwerk interpretiert werden und ist mglw. hoch spannend naeher zu untersuchen.

Bei den spaltenweise normierten, wertekomprimierten Falschfarbenbildern …

… ergibt sich im Wesentlichen das Gleiche. Bei den beiden linken Bildern ist der intensive Bereich nur um eine Reihe nach oben gerueckt und „verschmiert“, aber das ist von vorher bekannt.
Im linken oberen Bild sieht man bereits den „Blob“, wenn man weisz wonach man schauen muss.

Damit kann ich zu den reihenweise normierten Falschfarbenbildern uebergehen. Zunaechst wieder die Bedeutungskomprimierten:

Das linke obere Bild ist wieder das was zu reproduzieren war und im Vergleich sieht man, warum die neue Farbpalette so viel besser ist. Wichtig: man sieht den „Blob“ ganz deutlich. .
Die beiden oberen Bilder werden im unteren (ca.) Drittel der 2023 Daten dunkler, was natuerlich wieder durch die Praeszenz der Wikipedia Hauptseite zu erklaeren ist. Die Hauptseite ist in den unteren Bildern der helle vertikale Strich und wenn man sich das genau anschaut, sieht man leicht, dass eben diese fuer die Intensitaetsveraenderungen auch hier verantwortlich ist.

Wenn man den Einfluss der Hauptseite „rausrechnet“ (und vom „Blob“ absieht), dann ist die Intensitaet bei diesen Bildern im Wesentlichen ueberall gleich. Bei der Interpretation dieses Ergebisses muss man sich daran erinnern, dass hier die REIHEN normiert sind. Man schaut also NICHT wie oben wo auf der Abzsisse sich die eine Seite von Interesse befindet um dann rauszufinden welche andere Seiten Erstere zitieren. Vielmehr schaut man zuerst wo auf der Ordinate die Seite von Interesse liegt und wen diese zitiert. Eine ungefaehr gleiche Intensitaet ueberall bedeutet dann also, dass es egal ist wieviele Zitate oder Links eine zitierende Seite hat, diese zitiert im Durchschnitt ungefaehr gleich viele Seiten mit wenigen Zitaten / Links, mittelvielen Zitaten / Links und vielen Zitaten / Links.
Es gibt natuerlich Ausnahmen; bspw. die etwas erhøhte „Aktivitaet in der „Region ueber dem Blob“ im linken oberen Bild. Diese Ausnahmen sind dann extra spannend und waeren zu untersuchen.

Nun gibt es zu den reihenweise normierten, wertekomprimierten Falschfarbenbildern …

… fast nix mehr zu sagen, weil da alles sehr aehnlich aussieht.
Von besonderem Interesse ist nur der „diagonale“ Streifen. Bei den bedeutungskomprimierten, Linksgruppe-ueber-Linksgruppe, bzw. Zitategruppe-ueber-Zitategruppe Bildern ist der tatsaechlich diagonal und von ’nem kleinen Knick abgesehen gilt das auch fuer die wertekomprimierte, Linksgruppe-ueber-Linksgruppe Darstellung. Aber im linken oberen Bild sieht man, dass dieser Streifen recht krumm ist (und wenn man zu den reihenweise normierten Bildern zurueck geht, sieht man das auch dort, nur nicht so deutlich). Auch das kønnte wieder als eine Art „Dynamik“ interpretiert werden, aber vermutlich andersgeartet als die oben erwaehnte (vllt. aber auch nicht).

Hach ja … spannend, spannend, spannend … und all das bringt das neue Werkzeug ans Tageslicht. Cool wa!

Fuer mich reichts aber damit. Dafuer dass ich das urspruenglich gar nicht machen wollte, sind da ganz schøn viele Beitraege draus geworden. Bevor ich mich an diese Sache setzte schrieb ich:

[…] ich [hatte] da[mals] „nur“ bunte 2D-Falschfarbendarstellungen bei denen ich genau „reinzoomen“ musste um Details zu besprechen. Oder anders: bei denen sieht man bei so kleinen Veraenderungen ohnehin keinen Unterschied (und „reingezoomt“ hatte ich nur bei Anomalien die vermutlich immer noch da sind und wenn nicht mir auch nix ueber das Grosze und Ganze verraten). Solche „bunten Karten“ kann ich auch nicht zum besseren Vergleich uebereinander legen. Vermutlich werd ich da also nicht nochmal drueber schauen mit den neuen Daten […].

Tja, da hab ich mich gehørig getaeuscht und ich bin froh, dass doch gemacht zu haben. Und beim naechsten Mal dann … uff … weisz ich gerade noch gar nicht … vermutlich muss ich erstmal wieder was in meinem Code aufraeumen und neu schreiben, bevor ich die naechste Sache bzgl. der Reproduzierbarkeit checken kann.

Vor ein paar Jahren habe ich zum ersten Mal Pinky & Brain komplett gesehen. Ich war froh als ich mit den drei Staffeln endlich fertig war und insgesamt leider so enttaeuscht, dass ich nicht mal die DVDs in meiner Sammlung behalten wollte, weil ich schon vorher wusste, dass ich mir das nie wieder anschauen werde.

Ich hatte mir da mehr erhofft, aber diese Hoffnung entsprang vermutlich einer gewissen Nostalgie und dem Fakt, dass Menschen sich nur selektiv erinnern. Oder anders: als ich ein junger Jugendlicher war gab’s fuer mich nicht so viel Cooles im Fernsehen und die zwei Maeuse waren immer irgendwie ein kleines Wochenereignis. Hinzu kam, dass ich’s nie geschafft habe viele Episoden zu sehen. Deswegen nehme ich an, dass sich die Serie in meinen Erinnerungen „grøszer“ machte, als sie eigtl. war.
Hinzu kommt, dass sich mein Geschmack geaendert hat. Und natuerlich auch die Entwicklung von (TV-)Serien; vieles was in den 80’er und 90’er Jahren funktionierte ist heute irgendwie nicht mehr so doll. Ausnahmen bestaetigen natuerlich die Regel und es ueberrascht mich wie gut bspw. Star Trek: The Next Generation beim 2. Durchschauen immer noch funktionierte … was nun aber auch schon 15 Jahre oder so her ist … waehrend ich dem neuen Star Trek Kram mitnichten eine solche Zuneigung zubringe wie den entsprechenden Serien aus meiner Jugend.

Wieauchimmer, Pinky & Brain war jetzt nicht schlecht und hat zumindest fuer ein paar gute Lacher zusammen mit dem jungen Mann der bei mir wohnt gesorgt, aber ich werde das nicht nochmal schauen.

Es ergab sich dann, dass ich auch noch ein paar wenige Comics von den Beiden habe.

Aber die „funktionieren“ noch weniger als die Serie. Was in Letzterer noch irgendwie hin haute, geht auf 24 Seiten mit sich nicht bewegenden Bildern auch noch (beinahe) komplett verloren. Ich habe nur vier Ausgaben (oder so). Und dies sind nicht mal fortlaufende Nummern, sondern ich kaufte das nur, wenn ein Thema fuer das ich ein gewisses Interesse hatte (siehe das obige Cover) abgehandelt wurde. Deswegen duenkt mich, dass ich schon als junger Mensch die irgendwie „mindere“ Qualitaet bemerkt haben muss … denn waere das halbwegs gut gewesen, haette ich von diesem Comic doch viel mehr Ausgaben.

Oder anders: Ich wuerde es jetzt nicht als Schrott bezeichnen wollen. Das haben die Comics nicht verdient, denn es gibt auch noch wirklichen Schrott der es verdient so benannt zu werden. Aber wenn ich selbst so … øhm … qualitativ sehr „gedehnte“ Sachen wie CyberForce oder Star Wars aushalte und damals danach Ausschau gehalten habe, dann muss Pinky & Brain selbst davon noch ein gutes Stueckchen entfernt sein. … Schade eigentlich.

… von mir, fuer mich … zum 44. Geburtstag … auch wenn ich es mir bereits drei Wochen vorher selbst schenkte (im Erwachsenenalter nennt man das auch ganz profan „kaufen“):

Ihr meine lieben Leserinnen und Leser habt das was ich in diesem Beitrag schreibe sicherlich schon gehørt, denn ich liege damit allen in den Ohren die den Fehler begehen und mich davon erzaehlen lassen und ich erzaehle immer das Gleiche. Aber ich schreib das hier mehr fuer mich auf … wobei das ja nix Neues ist … ich schreib ja alles hier fuer mich.

Zunaechst einmal ist das mglw. das schwerste Buch das ich habe. So schwer, dass es den Raum kruemmt … *badum tss!* … andererseits macht das ja sowieso alles was irgend eine Form von Energie hat … ob mit oder ohne Ruhemasse.
Als die zierliche Buchladenkassenperson es aus dem „bestellte Buecher“-Regal wuchtete meinte sie, dass sich die Belegschaft ueber die fast drei kg die dieses Buch wiegt unterhalten haben als es angeliefert wurde. Ich konnte mich nicht zurueckhalten und machte den naheliegenden Witz, dass das bei einem Buch ueber die SCHWERkraft ja passend ist … *Grillengeraeusche* … ein Witz der auch auf norwegisch funktioniert. Aber die englische Sprache ist arm dran, denn dort hat die Gravitation zwar alles mit Schwerkraft und auch mit Schwere zu tun aber nichts mit den Wørtern die fuer Letzteres stehen … ist halt alles relativ … *tumbleweed* … … … so genug der Vaterwitze.

Von vorne sieht man nicht wo die viele Masse herkommt. Deswegen ein Bild von der Seite, mit einer Banane zum Vergleich:

Solange ich mich erinnern kann, dass ich denken kann, wollte ich die Einsteins Gravitationstheorie verstehen. Das war dann auch einer der Hauptgruende warum ich Physik studierte. Und die Ursache dafuer lag irgendwie (mal wieder) bei Captain Picard; bzw. allgemeiner drueckt das ’ne eigene Kategorie auf diesem Weblog aus … mit dem erklaerenden Geburtstagsbeitrag dazu. Und wenn man in der unmittelbaren Naehe von Neutronensternen, schwarzen Løchern und supermassiven Sternen ueberleben will, sollte man besser verstehen, was die mit dem Medium in dem man (und die) sich bewegen (diese ominøse Raumzeit) machen. Und auf die Frage warum man sich ueberhaupt in die Naehe von den Dingern wuerde bewegen wollen kann ich nur antworten: natuerlich um mal in die rein zu beiszen … macht ja sonst keiner.

Wieauchimmer, ich wollte mir die Allgemeine Relativitaetstheorie also schon sehr lange zu Gemuete fuehren, denn zu meiner Ueberraschung hatten wir dazu keinen Kurs waehrend des Studiums. Ich belegte damals zwar einen Kurs zur Kosmologie, aber der war, trotz eines ganz tollen Professors, nicht so doll … es fehlten einfach die Grundlagen und die sind … massiv (siehe oben) … okok … das soll nun wirklich der letzte Vaterwitz gewesen sein.
Waehrend des Studiums hatte ich dann andere, mitnichten nur mit der Physik oder dem Studium zusammenhaengende, Sachen zu tun. Aber waehrend dieser Zeit las ich mir auch ein Buch zur LASERtheorie durch (noch so eine Sache die mich brennend interessiert(e)) … ein erstes Zeichen des Erreichens des eigentlichen Studienziels … auch wenn ich zu dem Zeitpunkt noch mittendrin … und beim Lesen des LASERtheoriebuches auch in Paris … war … Letzteres halte ich in freudiger Erinnerung und das ist der Hauptgrund warum ich dieses Buch nicht ausruempeln kann, auch wenn ich es sicher nicht aus Spasz an der Freude nochmal lesen werde … aber ich schwoff ab (auch wenn ich darauf nochmal zurueckkommen werde).

Nach dem Studium (und dem ersten Doktor) fing ich an mir ein Buch zu den den mathematischen Grundlagen der Physik zu Gemuete zu fuehren … auch daran erinnere ich mich mit Freuden, war es doch mit vielen Aha-Momenten verbinden … aber das schloss ich nie ab, denn das Leben kam „dazwischen“ … oder vielmehr passierte einfach so. Kind, Auswandern, erster Jobb (und ich vøllig fehl am Platze), (nicht nur Ehe)Stress, Scheidung, Depression, mehrere Arbeitsplatzwechsel, neue tolle Hobbies (siehe bspw. hier, oder natuerlich auch auf Brettern schneebedeckte Huegel runtersausen), alte tolle Hobbies (Zocken!) mit denen ich mehr und mehr Zeit verbracht habe (und auch verbingen wollte und will) weil die so ’ne schøne Flucht aus dem Alltag erlauben und Erfolgsmomente bescheren (siehe hier … aber nicht nur sowas) … so wie das Leben halt ist.
Ueber die Jahre las ich hier und da … naja, eigentlich nur hier im Physik Journal … zwei, drei (oder lass es auch vier oder fuenf gewesen sein) Rezensionen zu Fach/Lehrbuechern ueber Einsteins beruehmte Theorie und dann bekam ich immer einen kleinen „Stich“, denn da war ja noch was offen und ich wollte schon gerne aber es fuehlte sich nicht so an, als ob ich kønnte.

… … … und pløtzlich war ich Mitte 40, und das Kind kommt (fast) ohne mich zurecht, und meine Arbeit ist cool, und mein Leben ist in vielen Punkten ganz anders als die Jahre davor (auf eine gute, wenn auch nicht erwartet, Weise) und fuehlt sich (wieder) voll gut an … so gut, dass ich zum ersten Mal seit 1 1/2 Jahrzehnten mich nicht nur fuehle als wuerde ich nicht von der Stelle kommen und nur versuchen irgendwie zurecht zu kommen, mit der Hoffnung, dass keiner durchschaut, dass ich mich nur irgendwie durchwurschtele …  sondern vielmehr ist ein wesentlicher Aspekt der Studienzeit ein wieder da: Ueberschussenergie (was sich zum Beispiel auf darin aeuszert, dass ich im Buero mittlerweile viel mehr stehe) … Fetzt wa!

Das alles war ein nicht all zu schneller Prozess, aber bei und vor allem nach der groszen Japanreise wurde ich mir dem mehr und mehr bewusst … und dann schlich sich die „offene Sache“ ab und an in meine Gedanken … aber nicht mehr mit einem kleinen „Stich“, sondern mehr in der Art „wenn ich nur wollte, dann kønnte ich das møglicherweise durchziehen“. Und ich wollte immer mehr … und dann gingen eines Tages meine Gedanken zurueck an das Buch zur LASERtheorie und ich erinnerte mich, dass ich das mglw. tatsaechlich schaffen kann … die Skepsis lag berechtigterweise daran, weil es definitiv nicht einfach ist, denn ansonsten haetten wir das ja schon zum Studium gehabt.
Und dann formte sich der konkrete Entschluss, dass ich mich mal informieren sollte was fuer Buecher es so gibt. Es dauerte noch ein paar Wochen, bevor ich mich ran setzte und die Rezensionen in (ueber) 20 Jahren Physik Journal durchforstete. Dort stiesz ich auf den oben abgebildeten „Schinken“. Ich dachte, dass das ja noch nicht bedeutet, dass ich das auch mache.
Ich las ein wenig mehr darueber und im Internet sind zwar sehr viele Menschen begeistert, aber einige beklagen sich darueber, dass es „alt“ ist. Na klar! Das ist 1973 das erste Mal erschienen und hat nie eine Ueberarbeitug erfahren. Aber es wird auch immer wieder hervorgehen, dass es so gut ist und die drei Autoren so weitsichtig in der Auswahl der Themen waren, dass dies dem Buch bis heute nicht wirklich schadet. Wobei natuerlich zu beachten ist, dass jemand der dazu forschen will sich die Entwicklungen auf dem Gebiet nach 1973 zu Gemuete fuehren sollte (und die waren zum Teil beachtlich!) … aber ich will ja nicht die allerneuesten Erkentnisse haben, damit ich auf dem Gebiet forschen kann. Vielmehr wollte ich die Grundlagen und fundamentalen Prinzipien und Ideen verstehen … und die haben sich nicht geaendert. Als ich dann in ein paar Kommentaren las, dass es ein „veralteter Lehrstil“ sei, wusste ich, dass es genau das richtige Buch fuer mich ist; ich bin schon zu Studienzeiten besser mit aelteren Buechern (und Lehrstilen) zurecht gekommen … und dann wusste ich, dass ich das Buch „nur“ noch beschaffen (und mich dann auch ransetzen) musste.

Nur wenige Tage spaeter juckten mir die Finger und kribbelte mir der Bauch vor Freude und ich hielt es nicht mehr aus. An diesem schønen Sommertag machte ich mich eher spontan als geplant auf zur Universitaetsbuchhandlung und bestellte tatsaechlich „Gravitation“ von Charles W. Misner, Kip S. Thorne und John Archibald Wheeler … die jahrzehntelange Idee war dabei sich ganz konkret zu „materialisieren“ (Witze zum „Beamen“ gehøren nicht hier her, denn das ist (Post)Quantenphysik, also am ganz anderen Ende des Universums mit dem sich die Gravitation beschaeftigt) … … … *froi*.

Gleich zu Anfang bekam ich mit, warum wir das nie im Studium hatten. Ach die meine Nase! Das ist wahrlich harter Tobakk! Man muss dafuer entweder superschlau sein (also nicht ich) um das waehrend des Studiums (wo man noch so viele andere Sachen hat) schon zu verstehen oder eben einen Doktorandenkurs zu dem Thema besuchen … was eigentlich auch wieder unter Ersteres faellt, denn dort selbstselektieren sich eigtl. auch nur die Superschlauen hin (ich bin nur zur einfachen Halbleiter(experimental)physik gegangen … wobei das natuerlich insb. fuer mich nicht minder fetzig war). Das Buch entspricht dann auch ganz konkret einem Kurs fuer Doktoranden … und noch (viel) mehr, denn Material fuer einen Doktorandenkurs macht nur ca. 1/3 des Buches aus und ist als „Track 1“ markiert … der Rest ist „Track 2“ und geht (weit) darueber hinaus.
Ich war mir vorher bewusst, dass das vermutlich meine heutigen zerebralen Faehigkeiten uebersteigt. Deswegen habe ich die Chance dieses Projekt abszuschlieszen anfangs auf ca. 20 % eingeschaetzt. Ich merke schon deutlich, wie sehr viel gedanklich schneller und mobiler ich mit ’ner 2 anstatt ’ner 4 als erste Zahl meines Alters war. Es fehlt natuerlich auch der Professor um Fragen zu stellen … hach … wie gern ich diese Møglichkeit des Fragens gerne haette, um Sachen besser zu verstehen … so wie im Studium … *seufz*.

Es ging dann (sehr) langsam voran und ich erkannte schnell, dass es ein laengeres Projekt wird, die ueber 1200 Seiten durchzuarbeiten … und das trotzdem ich mit dem Buch grosze Zeitraeume meines Tages verbringe und sogar mein geliebtes Zocken hinten anstelle … im Durchschnitt schaffe ich weniger als 10 Seiten pro Tag … aber eine Schnecke die jeden Tag ein kleines Stueckchen kriecht kommt auch voran.
Die ersten paar Wochen mochte ich die Erfolgschancen auch nicht (stark) erhøhen. Das lag nicht zuletzt daran, weil ich vieles eher „intuitiv“ als quantitav verstehe. Aber bei (fast) allen Formeln kann ich zumindest im Augenblick des „Bearbeitens“ verstehen wo die (mathematisch / konzeptionell) herkommen und was die bedeuten. Es ist aber so viel und so komplex (es werden vier Alfabete genutzt, weil die Symbole von dreien nicht ausreichen um all die verschiedenen Sachen und Ideen in kurze Zeichen zu packen!), dass ich Einzelheiten meist (aber nicht immer) schnell wieder vergesse. Bei Gebrauch gewisser Formeln muss ich dann nachschlagen und erinnere mich dann diffus dran, dass ich das ja beim ersten Auftreten durchgerechnet und verstanden habe und dass das schon stimmt und ich das jetzt auch einfach so verwenden kann, ohne dass ich das nochmal durchrechnen muss … aber das ist ja letztlich genau so wie beim Studium … … … *froi*

Zum Zeitpunkt des Schreibens sitze ich seit 12 Wochen an dem Buch und bin ungefaehr auf Seite 750 … also knapp 60 % durch … ich bin mal optimistisch und gebe mir eine 67 % Chance das Projekt komplett abzuschlieszen (70 % fuehlt sich zu hoch an, 65 % zu gering). Aber selbst wenn ich das Buch nicht komplett durchgearbeitet bekomme, weil es zu kompliziert wird, so ist das Projekt bereits erfoglreich. Mit den Grundlagen von Einsteins Gravitationstheorie bin ich naemlich durch und bei den Anwendungen angelangt … eben dem was in der Naehe von und in (nicht nur Neutronen)Sternen mit der Raumzeit und ueberhaupt dem Universum an sich passiert.

Fetzt wa! … Und das war dann jetzt doch anders (genug) als das was ich den Leuten erzaehl(t)e.

Die beim letzten Mal vorgestellte Wertekomprimierung wird heute in Falschfarbenbilder umgesetzt. Das Ganze geht schnell, denn das was man in solchen Darstellungen sieht und wie das zu interpretieren ist habe ich mehr oder weniger allgemein bereits mehrfach diskutiert. Beim vorletzten Mal besprach ich auszerdem im Detail, wie die Komprimierung auf solche Bilder wirkt und wie das zu verstehen ist. Ebenso muss der Einfluss der Wikipedia Hauptseite in den 2023 Daten nicht schon wieder auseinanderklamuesert werden.

Es gilt hier: dito … natuerlich mutatis mutandis in Betracht dessen, dass die Komprimierung (etwas) anders ist (und dadurch insb. die „Laenge“ der Ordinaten (vulgo: wieviele Zahlen drauf sind) deutlich unterschiedlich sein kann … aber das wurde auch bereits (mehrfach) betrachtet).
Die spannenden Sachen passieren, wenn man diese beiden Komprimierungen miteinander vergleicht (und damit meine ich NICHT eventuelle Intensitaetsunterschiede).

Zunaechst wieder die Falschfarbendarstellungen bei der die Abzsisse die (diesmal wertekomprimierte) Zitategruppen darstellt.

Das linke Bild ist im Wesentlichen das Gleiche wie beim vorletzten Mal. Dass rechte Bild hingegen ist von groeszerem Interesse, weil es null-komma-nix-nicht-mal-ein-winziges-bisschen von dem gleichen bedeutungskomprimierten Falschfarbenbild zu unterscheiden ist (abgesehen von der Beschriftung der Achsen). Der Grund dafuer war die Hausaufgabe vom letzten Mal:

Wenn die Abzsisse die Anzahl der Zitate repraesentiert so ist der SPALTENanteil identisch mit der Bedeutungskomprimierung, bezogen auf die ZITATE. […]
Der ZEILENanteil wird identisch mit der Bedeutungskomprimierung, bezogen auf die LINKS, wenn die Ordinate die Anzahl der Links repraesentiert.

Hiermit ist dann also auch …

[…] da muss ich dran denken, dass beim naechsten Mal zu kontrollieren

… abzuhaken :) .

Dank der vielen Vorarbeit war das auch schon alles dazu. Somit kann ich schnurstracks zur Falschfarbendarstellungen kommen, bei der die Abzsisse die (diesmal wertekomprimierte) Linksgruppen darstellt.

Im linken Bild gibt es diesmal einen wichtigen Unterschied: es gibt nicht nur einen hellen Streifen am unteren Ende des Diagramms, sondern einen hellen Bereich, der sich ueber die ersten … ich sag jetzt mal ungefaehr 5 bis 8 Zeilen hinzieht. Mit dem Blick auf die entsprechenden Diagramme vom letzten Mal wird natuerlich sofort klar, warum das so ist und ich gehe da nicht nochmal drauf ein. Das an sich ist von Interesse, wenn man die Gesamtheit des Wikipedia Linknetzwerks untersucht. Und wieder wurde das erst durch das neue Werkzeug sichtbar gemacht und man sieht es NUR in den werte(!)komprimierten Daten … cool wa!

Genug fuer heute … das war’s aber noch nicht ganz mit dem neuen Werkzeug, denn auch wenn die Komprimierung mehr hervorbringt, so sind doch grosze Teile der Falschfarbenbilder immer noch schwarz. Deswegen wendete ich auf die komprimierten Daten auch noch zwei Normierungen an … dazu mehr beim naechsten Mal (und ich versuche es auf nur noch einen Beitrag zu begrenzen … aber ihr, meine lieben Leser und Leserinnen, kennt mich ja, mich kurz fassen zaehlt nicht zu meinen Staerken).