Archive for the ‘Allgemein’ Category

Vor einiger Zeit schrieb ich einen Artikel darueber, wie das beruehmte Milgram Experiment eigentlich zu interpretieren ist. Zur Erinnerung: es belegt NICHT das „inhaerent Bøse“ in jedem Menschen, sondern vielmehr, dass Menschen etablierten Autoritaeten folgen. In dem dazugehørigen wissenschaftlichen Artikel geht es auch im das beruehmte Stanford Prison Experiment. Da die Schlussfolerungen die gleichen (mich duenkt gar die selben) sind, ging ich darauf nicht weiter ein.

Nun stolperte ich vor Kurzem aber ueber den Artikel „Debunking the Stanford Prison Experiment“ von Thibault Le Texier in American Psychologist, 74(7), 2019, p. 823–839 … (hier in vollstaendig (PDF)). Dort legt der Autor dar, warum das gesamte Experiment mindestens wissenschaftlich fragwuerdig ist und mitnichten den hohen Stellenwert haben sollte den es sowohl in der Psychologie als auch in allgemeineren, gesellschaftlichen Kontexten hat.

Die ethischen Bedenken sind praktisch von Anfang an diskutiert worden.
Mir bisher nicht bekannt, wurde bereits 1975 bemaengelt, dass aus den Instruktionen an die Teilnehmenden vor dem eigentlichen Experiment, Letztere mit groszer Sicherheit erraten konnten, wie sie sich zu verhalten haben. Das fand man heraus, indem man Studenten besagte Instruktionen zu lesen gab (ohne weiteren Kontext) und diese sollten dann beschreiben, wie die Waechter bzw. Gefangenen sich zu verhalten haben:

[o]f the students tested, 81% accurately figured out […] that guards would be aggressive and that prisoners would revolt or comply […].

Das kann also definitiv NICHT mal als einfache Blindstudie angesehen werden.

Spaeter hinzu kamen Hinweise, dass die Teilnehmer vermutlich selbstselektiert waren (mit dem ganzen Rattenschwanz an Problemen fuer insb. psychologische Studien der daraus folgt). Ebenso nahm der Professor (namens Zimbardo, der natuerlich mit dem Experiment beruehmt wurde) die Rolle des Gefaengnisvorstehers (anstatt des auszenstehenden, neutralen Beobachters) an. Diesen Fakt liesz er aber wohl unter den Tisch fallen bei der Praesentation der Ergebnisse.

Der Verfasser des obigen Artikels hat sich nun durch die Originaldaten gearbeitet und weitere Hinweise darauf gefunden, dass dieses Experiment NICHT in die Psychologiebuecher gehørt sondern in die Geschichtsbuecher unter dem Stichpunkt „schlechte Wissenschaft“.
So zum Beispiel erzaehlten der Professor und seine Assistenten …

[…] the objectives of the experiment to the guards during their orientation day […].

Ebenso haben die Waechter die schlimme soziale Situation nicht spontan selbst „gebaut“ sondern …

[…] were given clear instructions for how to create it.

Im (verallgemeinerten) Sinne dessen was ich in meinem Artikel zum Milgram Experiment schrieb (Akzeptanz von Autoritaeten) ist die verherrschende Interpretation der Ergebnisse sehr sehr fragwuerdig, wenn man in Betracht zieht, dass …

[i]n order to get their full participation, Zimbardo intended to make the guards believe that they were his research assistants.

Aber nicht nur die Waechter wurden fuer ihre Rolle „praepariert“. Auch …

[t] he Prisoners were Conditioned by the Experimenters.

Und waehrend Zimbardo immer wieder behauptete, dass die Bedingungen urst realistisch waren (Zitate von ihm) …

[b]y the end of the week, the experiment had become a reality. […]

[I]n a very short time most of the subjects ceased distinguishing between their prison role and prior self-identities. […]

Findet der Autor des Artikels in den Rohdaten, dass …

[…] on the contrary, […] the participants almost never lost touch with reality and were conscious of participating in an experiment.

Da wundert es mich ueberhaupt nicht, dass Zimbardo sehr gerne mit den nicht-wissenschaftlichen Medien sprach war und die Schlussfolgerungen im Wesentlichen schon vor dem Ende des Experiments fertig geschrieben (und auf nichtakademische Ziele; Gefaengnisreform) gerichtet waren:

The press release that Zimbardo disseminated on the second [!] day of the experiment states in conclusion that it aimed at making us aware of the prison reforms needed […].

Und um die Liste voll zu machen wird auch noch Zimbardos Behauptung, dass die Resultate auf …

[…] systematic record keeping and data collection […]

beruhen zunichte gemacht. Der Autor fand vielmehr, dass die Daten …

[…] are neither complete nor uniform.

So fehlen Aufzeichnungen jeglicher Art (egal ob vom Professor selbst oder von seinen Assistenten) vom dritten Tag und von den 150 Stunden die das Experiment lief, gibt es weniger als 10 % auf Video- oder Tonaufnahmen. Und

[…] these 6 hr of video recorded during the experiment are unrepresentative […].

Das soll reichen. Alles in allem ist meine Interpretation, dass das Stanford Prison Experiment nicht nur fragwuerdig, sondern wissenschaftliche gesehen nutzlos, gar absichtlich irrefuehrend ist. Weil das aber so weit weg geht von der etablierten Meinung bin ich mehr als offen die Gegenargumente zu høren.
Hier gibt es wohl einige Gegenargumente von Zimbardo zu obigem Artikel. Leider habe ich darauf keinen Zugriff (und meine uebliche Quelle hat das leider auch nicht). Es gibt eine aeltere Version (PDF) die nicht direkt auf Le Texier eingeht (da vorher erschienen), aber einige der Punkte anspricht.
Le Texier gibt hier eine relativ bissige Antwort. Ich gebe zu, dass die nicht dem wissenschaftlichen Umgangston entspricht (weswegen das wohl auch nie offiziell in einem peer review Journal verøffentlicht wurde). Ich gehe aber nach dem was ich gelesen habe mit seiner Meinung mit, dass Zimbardo nur drumherum redet und die eigentlichen (wesentlichen!) wissenschafltichen Maengel nicht schafft auszuraeumen.

Der Artikel von Le Texier ist jetzt nur ein Artikel, scheint aber in einen grøszeren Zusammenhang zu fallen, in dem die Ergebnisse solcher (falschen!) Leuchtturmexperiment neu betrachtet und vøllig anders interpretiert werden. Es wird also nur noch ein paar Jahrzehnte dauern, bis sowohl das Milgram Experiment, als auch das Stanford Prison Experiment ihren verdienten Platz im wissenschaftlichen Kanon einnehmen … naemlich als Datenpunkte in der Sektion „(langsame) Selbstkorrektur der Wissenschaft“.

Eine ganz andere Sache noch zum Abschluss, weil mir das am Herzen liegt:

[…] the [Stanford Prison Experiment] survived for almost 50 years [among other things] because no researcher has been through its archives. This was, I must say, one of the most puzzling facts that I discovered during my investigation.

Das wundert mich ehrlich gesagt ueberhaupt nicht. Es ist viel „sexier“ neue Behauptungen raus zu hauen als sich alte Sachen mal genau anzuschauen. Insb. dann, wenn es um scheinbar vom ganzen wissenschaftlichen Feld etablierte Fakten geht.
Das ist in der Wissenschaft nicht anders als auszerhalb davon. Unter anderem auch deswegen lese ich Originalartikel und will ab und zu auch gerne die Rohdaten haben um die selbst zu analysieren. Weswegen mein Plan fuer die Rente ja auch ist, dass ich versuche werde in den Archiven von Museen zu forschen :)  … aber das war’s nun wirklich fuer heute.

Neulich stolperte ich ueber den sehr interessanten und ueberraschend spannend zu lesenden Artikel „Israel’s 1979 Nuclear Test and the U.S. Cover-Up“ von Leonard Weiss in Middle East Policy 18(4), 2011, pp. 83–95 … *hust* … *doppelhust*.
In kurz: darin geht es darum, wie der Vela-Zwischenfall „gehandhabt“ wurde. Aber der Reihe nach.

Besagter Zwischenfall kam durch ein Signal zustande welches verdaechtig (aber nicht eindeutig) nach einem Atomtest aussah. Die Nichteindeutigkeit ruehrte daher, dass die zwei, auf dem Satelliten nahe beieinander liegenden Sensoren deutlich unterschiedliche Signalkurven registrierten. Die plausible Annahme ist, dass der eine Sensor kaputt war. Andere Quellen (bspw. radioaktive Rueckstaende, andere Satellitenmessungen) fanden (zum Teil) nix was weiter zur Uneindeutigkeit beitrug (wobei der Konsens millterweile aber wohl ist, dass es sich dabei tatsaechlich um eine Atomexplosion handelte).

Der Zwischenfall erregt zum Teil noch heute die Gemueter, aber damals war das eine urst krasse Sache denn zum Einen waren die SALT II (Strategic Arms Limitation Talks) gerade zum Abschluss gekommen und zum anderen deutete alles auf einen Atomtest der Israelis hin. Ersteres war wichtig, denn Jimmy Carter baute seinen Wahlkampf unter anderem um die Nichtverbreitung und Abruestung von Kernwaffen auf … was nur funktioniert, wenn man „die Anderen“ kontrollieren kann und uneindeutige Signale sind nicht gerade førderlich um einen Eindruck zu erwecken, dass man das kønnte. Zweiteres war wichtig, denn … nun ja, die USA haben aus den verschiedensten (und im „intern System“ durchaus logischen und wichtigen) Gruenden lange Jahrzehnte hindurch die Politik gefahren, dass sie Israels Bombe nicht offiziell anerkennen … mich duenkt, dass sie bis heute so tun als ob sie von nichts wuessten.
Allerdings konnte das Alles nicht unter den Teppich gekehrt werden, weswegen eine offizielle Alternative zu den Geschehnissen her musste … das „Cover-Up“ im Titel des Artikels.

Auf all das geht der Artikel ein und ich haette mir durchaus gewuenscht mehr Details zu den vielen „Akten des Dramas“ zu erfahren. Leider darf so ein Artikel nicht all zu lang werden und trotz der Kuerze die dem Autor zur Verfuegung stand und der ziemlichen „Trockenheit“ des Themas hat dieser eine echt gute Arbeit abgeliefert, die sich durchaus lohnt zu lesen.

Ach ja #1, woher kommt der Titel dieses Beitrags? Das ist einfach zu erklaeren, denn ein Bhangmeter ist ein Spezialmessgeraet, mit dem man normale Lichtblitze (bspw. durch Reflexionen an Weltraumschrott) von solchen durch Atomexplosionen unterscheiden kann. Ich hatte vorher noch nie was davon gehørt (warum auch) und fand den Namen … nun ja … ich sag jetzt mal passend.

Ach ja #2, Ironie der Geschichte: am Ende von SALT II stand ein Vertrag der von beiden Parteien niemals unterschrieben wurde. Die Amerikaner taten es nicht wg. des Angriffs der Sowjetunion auf Afghanistan und entsprechend unterzeichneten die Russen den Vertrag auch nicht. Beide Parteien hielten sich dennoch an die waehrend der Gespraeche gemachten Absprachen. Es dauerte mehr als ein weiteres Jahrzehnt, bis endlich 1991 START I (Strategic Arms Reduction Treaty) ganz offiziell unterzeichnet wurde.

Die Frage „wie vielen Links muss eine Wikipediaseite im Durchschnitt folgen um eine andere Wikipediaseite zu sehen“ wurde sowohl von der einen Richtung (ausgehend von einer Seite), als auch von der anderen Richtung (kommend von anderen Seiten) beantwortet. Beide Ergebnisse stimmen ueber alle Wikipediaseiten gesehen ueberein (zumindest so lange, wie „Mehrfachsichtungen“ die Linkfrequenz nicht zu sehr dominieren).
Andererseits wissen wir, dass nicht alle Seiten gleich sind und es stellt sich dann die Frage, ob Seiten mit vielen Links (oder Zitaten) frueher beliebige andere Seiten sehen (von anderen Seiten gesehen werden), als Seiten mit wenigen Links (oder Zitaten). Rein logisch und auch intuitiv wuerde ich das mit Ja beantworten. Das will ich aber in den Daten sehen und deswegen arbeitete ich beim letzten Mal aus, wie bspw. „wenige Links“ oder „mittelviele Zitate“ objektiv zu interpretieren sind. Die entsprechenden Seiten wurden in die sechs Untergruppen UWL, UWZ, UML, UMZ, UVL und UMZ zusammengefasst.

In den Abkuerzungen steht das „U“ fuer „Untergruppe“, „W“, „M“ und „V“ fuer „wenige“, „mittelviele“ und „viele“ und „L“ und „Z“ ensprechend fuer „Links“ und „Zitate“. Das ist leicht verstaendlich; dennoch gebe ich zwei Beispiele, denn ich werde ab sofort nur noch diese Abkuerzungen verwenden.
Die Seiten in der „UWL“ kennzeichnen sich alle dadurch aus, dass sie … in der Tabelle vom letzten Mal nachschau … null bis maximal 5 … also Wenige, Links zu anderen Seiten haben. Wieviele Zitate die Seiten in der UWL haben ist aber NICHT festgelegt (das wird an spaeterer Stelle uebrigens nochmal wichtig).
Die Seiten in der „UMZ“ kennzeichnen sich alle dadurch aus, dass sie 20 bis maximal 1000, also Mittelviele, Zitate zu anderen Seiten haben. Wieviele Links die Seiten in der UMZ haben ist NICHT festgelegt.

Nach der Vorrede kann ich ohne weitere Abschwiffe gleich das erste Ergebniss zeigen. Dieses Diagramm zeigt, wie schnell die Seiten in den Untergruppen beliebige (!) andere Seiten (also auch die der eigenen Gruppe) sehen (die Linien dienen wieder nur der besseren Visualisierungen, denn es gibt keine gebrochenen Linklevel):

Die Kurven beginnen natuerlich bei LL0 und gehen deutlich weiter als bis LL6. Von Interesse ist aber nur der Punkt, an dem die Seiten in den Untergruppen (als (Untergruppen)Ensemble gesehen) im Durchschnitt die Haelfte aller Seiten gesehen haben. Zur Erinnerung: wenn man alle Seiten zusammen betrachtet, lag dieser Uebergang zwischen dem 3. und 4. Linklevel (aber etwas naeher an LL3 als an LL4).
Es gibt natuerlich kein „zwischen“ zwei Linkleveln. Das ist so zu verstehen, dass im Durchschnitt bis LL3 die meisten Seiten noch NICHT 50 % aller anderen Seiten gesehen haben, waehrend auf LL4 die meisten Seiten (im Durchschnitt) sehr wohl 50 % aller anderen Seiten gesehen haben.
„Naeher an LL3“ ist so zu verstehen wie der Ordinatenwert fuer diese Stelle ist: bis dahin wurden (im Durchschnitt) fast 40 % aller anderen Seiten schon gesehen. Es sollten also bereits merkbar viele Seiten auftreten (aber noch nicht die Mehrzahl), bei denen (im uebetragenen Sinne) bereits ein Muenzwurf ausreicht um zu entscheiden ob (im Durchschnitt) eine beliebige andere Seiten gesehen wurde oder nicht. Waehrend die ueber 80 % auf LL4 bedeuten, dass das Ensemble aller Seiten diesbezueglich einen riesigen Schritt gemacht hat und nun die Mehrzahl der Seiten (im Durchschnitt) vier von fuenf beliebigen andere Seiten gesehen hat.

Hier nun sehen wir zwei wichtige Dinge:
1.: die Ergebnisse fuer die Gruppen (wenige, mittelviele, viele Links / Zitate) unterscheiden sich wie erwartet; Seiten mit mehr Links sehen eine beliebige andere Seite eher als Seiten mit weniger Links. Das war erwartet (siehe oben). Dennoch freut es mich, dass die Unterschiede so deutlich sind … ich waere etwas ratlos gewesen, wenn dem nicht so gewesen waere.
2.: die Ergebnisse fuer die der paarweisen Untergruppen liegen nahe genug beisammen, sodass ich das als „das ist innerhalb des Fehlers gleich“ betrachten, und zunaechst nicht auseinanderklamuesern muss. Man sieht zwischen den paarweisen Untergruppen kleine Unterschiede (am grøszten sind die fuer die zwei Gruppen mit den wenigen Links / Zitaten), aber darauf gehe ich an anderer Stelle ein.

Prima! Nun andersrum: wie schnell werden die Seiten der Untergruppen von anderen Seiten gesehen:

Im linken Diagramm zunaechst eine „grøbere“ Uebersicht um zu zeigen, dass die Untergruppen bzgl. des kumulativen Anteils jeweils høhere „Schlussprozente“ erreichen. Zur Erinnerung: ueber alle Seiten gesehen wird im Durchschnitt ueber das gesamte Linknetzwerk aller Seiten jede Seite fast 2 1/2 Mal von jeder anderen Seite gesehen.
Fuer die Untergruppen war zu erwarten, dass die nach der Anzahl der (von anderen Seiten erhaltenen) Zitate sortierten Gruppen auch entsprechend høhere Schlussprozente haben. Ist ja logisch, eine Seite die nur ein Mal zitiert wird, wird letztlich auch nur ein Mal von allen anderen Seiten gesehen (wenn auch vermutlich auf unterschiedlichen Linkleveln). Eine Seite die 1000 Zitate von anderen Seiten erhaelt hat hingegen eine (hohe) Chance im Linknetzwerk einer Urpsrungsseite mehrfach aufzutreten und wird somit mehrfach von jeder (Ursprungs)Seite gesehen. Dieses Phaenomen spiegelt sich in den „Schlussplateaus“ der hellfarbigen Kurven im linken Diagramm wider.

Das gleiche Verhalten ist ebenso im Durchschnitt der Untergruppen zu erwarten, die nach der Anzahl der Links sortiert wurden. Zur Erinnerung: (im Durchschnitt!) gibt es (wie wir seit langem wissen) einen Zusammenhang zwischen der Anzahl der Links und der Anzahl der Zitate, welche mittels eines maechtigen Gesetzes mit positivem Exponenten beschrieben werden kann. Das bestaetigt sich in der (normal) roten und (normal) blauen Kurve.
Fuer die (normal) lila Kurve, also die Seiten der UVL, gilt dies jedoch nicht. Das ist ein wichtiger Unterschied und ich komme darauf an anderer Stelle zurueck.

Im rechten Diagramm zeige ich den hier und heute interessanten Bereich von Nahem. Von den Ergebnissen fuer die UVL abgesehen gilt i.A. das Gleiche was ich bzgl. den Ergebnissen zum kumulativen Anteil der neuen Links sagte. Die Unterschiede sind deutlich zu sehen und verhalten sich wie erwartet. Paarweise gesehen sind die Kurven fuer die UWL / UWZ bzw. UML / UMZ zwar nicht so schøn beisammen wie beim kumulativen Anteil der neuen Links aber hier und heute sind mir die Diskrepanzen klein enug genug um das innerhalb des Fehlers als das Gleiche zu betrachten. Letzteres gilt wie gesagt fuer die UVL und UVZ nicht.

Somit ist fuer heute festzuhalten: Seiten die bestimmten Untergruppen zuzuordnen sind, verhalten sich anders und die Andersartigkeit ist i.A. wie erwartet.
Nichtsdestotrotz gibt es unerwartete Unterschiede die erklaert gehøren. Das dauerte eine Weile bis ich die Erklaerung beisammen hatte und ist das was ich in diesem Beitrag schon mehrfach andeutete. Mehr dazu beim naechsten Mal.

Als ich die sog. „verlorene(n) Dekade(n)“ das erste Mal erwaehnte, zeigte ich Bilder von øffentlich zugaenglicher Infrastruktur und meinte, dass das fuer mich alles nach 30 Jahren (mehr oder weniger) normaler Entwicklung aussieht.

Infrastruktur muss aber auch gebaut werden und das Geld dafuer muss irgendwo herkommen. Letzteres sind die Gewinne privater Firmen oder Steuern … oder Kredite … mhmmmmm … Japan ist seit Jahrzehnten und mit weitem Abstand der Staat mit der grøszten Verschuldung der Welt (noch vor Griechenland) … und gerade die Leute in Dtschl. haben ja fast schon ’nen Fetisch diesbezueglich … andererseits habe ich nicht den Eindruck, dass die Glaeubiger (wer auch immer das ist) kein Vertrauen mehr in Japan haben was (nach herrschendem økonomischen Dogma) ganz schlecht waere (siehe Griechenland) … und die USA haben auch eine sehr hohe Staatsverschuldung … der Kosovo oder die (sog.) Demokratische Republik Kongo hingegen nicht … mhmmmm … also im Groben wird diese Kenngrøsze schon wichtig und richtig sein, aber im spezifischen muss man wohl genauer hinschauen … … …

OI, da bin ich aber abgeschwiffen … ich wollte darauf hinaus, dass Infrastruktur bezahlt werden muss und das Geld dafuer kommt i.A. aus dem von Arbeitern produzierten Mehrwert. Oder anders: „verlorene Dekade“ verbinde ich mit hoher Arbeitslosigkeit, weil weniger Arbeitsplaetze da sind, weswegen nix produziert wird und dadurch kein Geld fuer Infrastruktur vorhanden ist. Die Bilder im verlinkten voherigen Beitrag sprechen dagegen und bei der Betrachtung der Arbeits“losigkeit“ stellte sich heraus, dass sich dort ein langanhaltender Trend findet, der nix mit (einer oder mehreren) „verlorene(n) Dekade(n)“ zu tun hat.

Zwei andere Messgrøszen bzgl. des Vorhandenseins von Arbeit sind die offenen Arbeitsstellen und die offenen Stellen pro Bewerber; beide sind in diesem Diagramm dargestellt:

Im Wesentlichen sieht man bei den offenen Arbeitsstellen den gleichen, in den 70’er Jahren gestarteten, langanhaltenden Trend wie bei der Arbeitslosigkeit und die Stellen pro Bewerber sind seit den 70’er Jahren bis ungefaehr 2010 konstant bei einem Wert von ca. 0.7 .
Oder anders: auch hier ist wieder nix von einer „verlorenen Dekade“ (und schon gar nichts von mehreren) zu sehen.

Mglw. aendert sich das generelle Verhalten der roten Kurve ab 2010. Das ist in den groszen Schwankungen schwer auszumachen, weil noch nicht genug Zeit vergangen ist.
Sollte das eine tatsaechliche Aenderung im verherrschenden Trend sein, so faellt diese mit dem bereits mehrfach angesprochenen demografischen Wandel in Japan zusammen. Deswegen wuerde es mich nicht wundern, wenn die rote Kurve eine Weile grøszere Werte annimmt. Alte Leute konsumieren schlieszlich nicht weniger als vorher; wenn aber nicht so viele junge Leute nachkommen um die frei werdenden Stellen zu besetzen, nimmt das Verhaeltnis der Stellen pro Bewerbung zu.
Aber auch das hat natuerlich nix mit dem Gebrabbel der Økonomen zu tun … wobei ich annehme hoffe annehme, dass das nur solche Økonomen brabbeln, die Karl Marx so ganz vortrefflich als „Vulgaerøkonomen“ bezeichnete … aber das ist ein ganz anderes Thema.

Beim letzten Mal kuendigte ich eine Untergruppenanalyse an … natuerlich mit Blick auf die Frage wieviele Schritte eine Seite im Durchschnitt machen muss um eine andere Seite zu erreichen.

Bzgl. der Untergruppen schrieb ich zunaechst was von „wichtigen“ und „unwichtigen“ Seiten, aber das sind natuerlich schwer (bzw. gar nicht) zu quantifizierende Begriffe.
Hier kommt mir nun zu Hilfe, dass ich mich bereits an einem aehnlich schwer zu quantifizierenden Begriff, naemlich der Relevanz, abgearbeitet habe. Dort nahm ich einen „Umweg“ ueber die Anzahl der Zitate die eine Seite erhielt um dieser dann einen „Relevanzwert“ zuzuordnen. Ungefaehr so mache ich das hier auch.

Wie in den letzten beiden Artikeln dargelegt muss die Frage aus zwei „Richtungen“ beantwortet werden; wie schnell erreicht eine Seite andere Seite und wie schnell erreichen andere Seiten (die) eine Seite.
Die Zugehørigkeit einer Seite zu einer bestimmten Gruppe laeszt sich dann durch die Anzahl der Links die die Seite hat bzw. die Zitate die diese (direkt) von anderen Seiten bekommt bestimmen. Anstatt Gruppen fuer „unwichtige“, „mittelwichtige“ und „wichtige“ Seiten habe ich nun also Gruppen fuer Seiten mit „wenigen“, „mittelvielen“ und „vielen“ Links bzw. Zitaten.

Wieviele Links bzw. Zitate das jeweils sein muessen scheint zunaechst immer noch subjektiv zu sein, aber ich versuche heute darzulegen inwieweit das „objektiviert“ werden kann (um mich dann beim naechsten Mal der eigtl. Untergruppenanalyse zu widmen).
Dazu nehme ich zwei vorhergehende Resultate zu Hilfe: die Kurven der kumulativen Links / Zitate per Seite in (logarithmischer) Abhaengigkeit von der Anzahl eben diesen Links / Zitate.

Zur Erinnerung: die Kurven berechnete ich aus den Histogrammen. Bei Letzteren war die Anzahl der Links pro Seite bzw. Zitate die eben diese erhielt auf der Abzsisse abgetragen, waehrend die Ordinate nur „zaehlte“, wie oft eine Seite mit so vielen Links / Zitaten in der Wikipedia vorkommt.
Fuer die „kumulativen Kurven“ wird die Abzisse beibehalten. Fuer jeden Wert auf der Abzsisse rechnete ich dann zunaechst das Produkt aus diesem Wert (also die Anzahl der Links / Zitate) mit dem entsprechenden „Zaehler“ des Histogramms aus. Das Produkt deswegen, weil bspw. 23 Seiten mit jeweils 10 Links zum kumulative-Links-Signal 230 „Punkte“ beitragen. Wie fuer kumulative Kurven ueblich, addierte ich schlussendlich die Werte von links (also null) beginnend auf und nach „Normierung“ auf 100 % hatte ich die entsprechenden Diagramme.

Von Interesse ist jetzt die S-Form der Kurven (bei logarithmischer Abzsisse). Es gibt drei deutlich unterscheidbare Bereiche.
– Einen Anfang, bei dem trotz der hohen Anzahl von Seiten das Signal nur sehr langsam ansteigt, weil diese nur sehr wenige Links / Zitate haben.
– Einen mittleren Bereich, in dem die Kurve linear ansteigt. Weil die Abzsisse logarithmisch ist, bedeutet das, dass „in Echt“ der Anstieg der Kurve URST KRASS ist, trotzdem die Anzahl der Seiten nach einem maechtigen Gesetz abnimmt … obige Multiplikation ist dafuer verantwortlich.
– Ein Ende, in dem trotz der hohen Anzahl an Links / Zitaten das Signal (wieder) nur sehr langsam waechst, weil es da nur sehr wenige Seiten gibt die so viele Links / Zitate haben. Also die umgekehrte Situation zum Anfang.

Diese drei Bereiche entsprechen den oberen Gruppen … wobei das Adjektiv „mittelviele“ unguenstig gewaehlt ist … aber mir faellt kein anderes ein. Das folgende Diagramm verdeutlicht die Situation und macht (hoffentlich) klar, dass man die obige (zunaechst) subjektiv erscheinende Situation „objektivieren“ kann (man beachte die unterschiedlichen Abzsissen):

Die Tabelle enthaelt die „Kennwerte“ fuer die drei gewaehlten Bereiche (wenige, mittelviele, viele) die dann in nochmal zwei Untergruppen (Anzahl Links oder Zitate) unterteilt sind:

Gruppe||AbkuerzungLinks von … bisumfasst so viele Seiten||AbkuerzungZitierungen von … bisumfasst so viele Seiten
"wenige"||U(ntergruppe) W(enige) L(inks) = UWL0 … 5778,958 (13.43 %)||U(ntergruppe) W(enige) Z(itate) = UWZ0 … 32,198,825 (37.92 %)
"mittelviele"||UML16 … 1002,515,857 (40.9 %)||UMZ20 … 1k1,149,358 (18.95 %)
"viele"||UVL1k … Schluss2,380 (0.04 %)||UVZ10k … Schluss703 (0.01 %)

Am Diagramm und den Zahlen in der Tabelle sieht man, dass die Gruppen NICHT identisch sind, ja deutliche Unterschiede aufweisen. Das fetzt, macht es das ganze naemlich interessant.
Natuerlicherweise befinden sich viele der Seiten die nach der Anzahl der Links eingruppiert wurden auch in der gleichen Gruppe bezueglich der Zitate. Der Grund liegt im „maechtigen Zusammenhang“ zwischen der Anzahl der Links und der Anzahl der Zitate.
Genauer gesagt sind 562,474 der Seiten in der Gruppe mit wenigen Links auch in der Gruppe mit wenigen Zitaten. In den Gruppen mit den „mittelvielen“ Links / Zitaten sind es 863,304 Seiten. Allerdings sind es nur 33 Seiten in der Gruppen mit den vielen Links / Zitaten. Letzteres erklaert sich daraus, dass in diesem Bereich der oben erwaehnte „maechtige Zusammenhang“ fuer viele (die meisten?) der sich dort befindenden Seiten nicht mehr gilt.

Das Verhalten dieser sechs Gruppen wird beim naechsten Mal jeweils paarweise analysiert. Die Statistik fuer die ersten beiden sollte gut genug sein, sodass ich dort trotz der Unterschiede nur geringe Diskrepanzen erwarte, was die „Richtung“ der Beantwortung der Frage angeht.
Augrund des geringen Ueberlapps wuerde mich bei den Gruppen mit den vielen „Links / Zitaten unterschiedliche Resulte nicht verwundern … ich kønnte mir sogar denken, dass die relativ grosz sind … aber das dann erst beim naechsten Mal.

*kicher* … der Titel ist geil. Ausgerechnet der Poststrukturalismus hat was systematisiert … ich hoffe doch, dass sich die Poststrukturalisten der Ironie bewusst sind … tihihi.

Wieauchimmer, es soll ja eigtl. um etwas gehen, was der Max Planck gesagt hat. Ich schliesze diese Miniserie heute ab mit ein paar Zitaten aus seinem Essay ueber Religion und Naturwissenschaften (ab Seite 151 in seiner Wissenschaftlichen Autobographie).

Schon im ersten Teil schreibt er (S. 156):

I need not go here into a more detailed discussion of the fact that the victory of atheism would […] destroy the most valuable treasures of our civilization […].

Schade, dass er nicht weiter darauf eingeht, denn die Argumentation haette mich interessiert; aber prinzipiell geh ich da mit. Nicht nur Bach setzte unter seine Werke das Kuerzel S.D.G. — Soli Deo gloria. Bzw. sind die zwei schlimmsten totalitaeren Regime des letzten Jahrhunderts hinlaenglich bekannt dafuer alles vernichtet zu haben, das auch nur im Entferntesten gegen die entsprechende Ideologie stand. Und Religion ist prinzipiell und per definitionem antagonistisch gegenueber allen (sog. „weltlichen“) Autoritaeten.
Ich nøchte von Max Plancks Meinung insofern abweichen, dass ich es nicht derart absolut ausdruecken wuerde. Ich hoffe, dass ein informierter Atheismus schøne Dinge bestehen lassen kann, auch wenn diese einen religiøsen Ursprung haben.

Mit „informierter Atheismus“ meine ich etwas, was Max Planck dann im zweiten Teil des Essays anspricht (S. 163):

[…] a religious symbol, be it ever so venerable, never represents an absolute value but is always only a more or less imperfect sign of something higher and not directly accessible to human senses.

Oder anders (und aus dem oben verlinkten Wikipediaartikel zum Poststrukturalismus zitierend):

[…] [he] questions the objectivity or stability of the various interpretive structures that are posited by [atheism] […].

[…] [he understands that] there is concrete reality on the one hand, abstract ideas about reality on the other hand, and a „third order“ [e.g., art] that mediates between the two.

ACHTUNG: die Einfuegungen sind von mir um das Zitat dem hiesigen Zusammenhang anzupassen. Der Sinn bleibt aber definitiv erhalten.

Deswegen kann ich hier nur (wieder?) vor Technokraten (im weitesten Sinne) warnen, die implizit den objektiven (oftmals technischen) „Fortschritt“ vor alles andere stellen. Ohne Bach, Beethoven, Shakespeare, Vigeland, Schiele (und viele viele Andere) ist naemlich auch der Quantencomputer (mglw. gar das Ueberleben der Menschheit in die ferne Zukunft) nicht viel wert … und den Quantencomputer hab ich deswegen als Beispiel genommen, weil Max Planck der „Vater der Quanten“ ist und diesen Essay geschrieben hat … den alle Technokraten lesen sollten … wobei ich bezweifle, dass das viel helfen wuerde, wenn sie solche Meinungen haben … aber ich hoffe, dass Menschen (i.A.) es prinzipiell schaffen Ideen zu abstrahieren und auf andere Gebiete zu uebertragen.

Beim letzten Mal stellte ich die WildC.A.T.s vor und erzaehlte etwas ueber den (damals) neuen Ansatz der beim (damals) neuen Verlag Image Comics probiert wurde. Neu sowohl bzgl. der (Mitsprache)Rechte der Kuenstler was ihrer Kreationen anbelangt, als auch wie die Comics an sich waren. Aus dem gleichen Verlag stammt das Comic Cyber Force

… welches damals auch ganz neu war und aufgrund der enormen Bekanntheit ihres Schøpfers sich wie geschnitten Brot verkaufte … ach was sage ich … deswegen gab es damals einen ursten Hype in der Comicszene. Letzteren habe ich aber nur noch indirekt mitbekommen, denn zum Einen musste der erstmal ueber den Atlantik schwappen. Zum Zweiten befand ich mich im comicskeptischen Dtschl. wo es zum Dritten und i.A. schwer war an Comics heranzukommen.

Und zum Vierten lagen zwischen dem ersten Auftauchen der Cyber Force in den Comiclaeden (in den USA) und meinen ersten Beruehrungen „mit der Szene“ (auch nur sehr passiv durch Comics lesen) noch ca. ein halbes Jahrzehnt.

Wieauchimmer, Cyber Force erschien in Dtschl. nur beim damaligen Splitter-Verlag (ueber den ich mich bereits beim letzten Mal ausliesz) und ich beschaffte mir die Hefte dann erst im Ramschverkauf nach deren Konkurs.

Soviel dazu … beim erneuten Lesen der Comics muss ich sagen, dass auch hier wieder der Nachteil des „Image Modells“ hervorkommen. Klar, die Zeichnungen und die dort dargestellte Action sind gerade am Anfang der Serie echt toll (und wie gesagt, das war damals auch irgendwie neu), aber die Story laeszt sehr schnell nach … oder besser gesagt ist nie wirklich da und auch irgendwie ziellos. Und ’ne Characterentwicklung findet auch nur sehr spaerlich statt.

Anders als bei den WildC.A.T.s gab es hier keinen Alan Moore der dem Ganzen fuer eine Weile wenigstens ein bisschen Qualitaet verpasste. Deswegen war ich auch nicht traurig, als meine Cyber Force Comics dann zu Ende waren. Und trotzdem besagtes Ende in der Mitte einer laengeren Geschichte geschah, schaute ich diesmal nicht, ob die mir fehlenden Ausgaben im Internet vom Laster gefallen sind.

Vor vielen Jahren (mich duenkt noch zu Zeiten des Vordiploms, aber es kønnte auch danach gewesen sein) hørte ich jemanden sagen, dass er versucht ein Mensch zu sein.

Dieser jemand ging nicht naeher darauf ein was er damit meint (oder ich hab’s vergessen), aber es fuehlte sich instinktiv richtig an und wenn ich mich richtig erinnere fand ich gar nicht all zu lange danach heraus wie diese Aussage einzuordnen ist. Dazu aus der heutigen Wikipedia:

Mensch (Yiddish: מענטש, mentsh […]) means „a person of integrity and honor“ […], a mensch is „someone to admire and emulate, someone of noble character. The key to being ‚a real mensch‘ is nothing less than character, rectitude, dignity, a sense of what is right, responsible, decorous.“

Und ja, das strebe ich an in den Augen und dem Bewusstsein anderer (!) zu sein (meine eigene Meinung ueber mich zaehlt hier naemlich nicht im Geringsten) … wohlwissend, dass ich sehr oft (meistens? allermeisens? immer?) daran scheitere, die zurecht sehr hohen Huerden zu ueberwinden, welche nøtig sind sind um die Bezeichnung Mensch zu verdienen.

Das wollte ich schon laengere Zeit mal niedergeschrieben haben.

In einem komplizierten Verhaeltniss mit der ungenutzten Arbeitskraft vom letzte Mal steht die Rate der Personen die am Erwerbsleben teilnehmen. Kurz gesagt ist das der Quotient aus allen Menschen die Arbeit haben oder (inklusives oder) arbeiten wollen und allen Menschen im „arbeitsfaehigen Alter“.
Der Nenner ist etwas salopp formuliert und ist eigtl. die Grøsze der jeweiligen Alterskohorte. Der Nenner enthaelt also ALLE Leute. Im Zaehler hingegen sind Menschen NICHT mitgezaehlt wenn diese nicht arbeiten wollen und dadurch aus der Arbeitslosenstatistik raus fallen … ich diskutierte das etwas detaillierter beim letzten Mal.

Die (Rate der) Beteiligung am Erwerbsleben sieht fuer Japan nun so aus:

OI … das ist ja vøllig anders als die Arbeitslosenrate vom letzten Mal. Aber wenn man das der Reihe nach durch geht und die Geschichte mit in Betracht zieht ist die Kurvenform erklaerbar.

Zunaechst denke ich, ist es plausibel davon auszugehen, dass im kriegszerstørten Japan viele Frauen gar keine Wahl hatten und arbeiten mussten (das war ja bspw. in Dtschl. nicht anders). Deswegen hat die Kurve am Anfang hohe Werte.

Mit dem wirtschaftlichen Aufschwung wurden aber viele Frauen aus dem Arbeitsleben gedraengt. Und von allem was ich weisz (was zugegebenermaszen nicht viel ist und nur halb (oder weniger) richtig sein kann) erwartete die japanische Gesellschaft das von den Frauen. Wobei natuerlich auch zu bedenken ist, dass es gesamtgesellschaftlich nicht nur schlecht ist wenn so viel Reichtum ueber fast alle Einwohner verteilt ist, sodass nur die Haelfte der Leute arbeiten muss und das Geld trotzdem reicht. Leider bedeutet das in der Realitaet immer, dass die Maenner arbeiten gehen und die Frauen zu Hause bleiben. Wenn ich auf Ersteres hinweise, dann bedeutet das natuerlich NICHT, dass ich die wirtschaftliche Abhaengigkeit der Frauen von den Maennern befuerworte; GANZ IM GEGENTEIL! … Aber ich schweife ab, das Thema ist deutlich komplizierter und darueber will ich gerade nicht schreiben.
Der Prozess den ich eben beschrieb fuehrt aber NICHT dazu, dass die Frauen dann arbeitslos sind. Das zeigt ein Blick auf das Diagramm vom letzten Mal: die Arbeitslosenrate bleibt niedrig. Die Frauen „fallen raus“ aus den Personen im Zaehler des Quotienten (weil die japanische Gesellschaft eben erwartete, dass sie sich NICHT arbeitssuchend melden). Im Nenner sind sie aber noch mit dabei … oder anders: der Quotient wird kleiner und das ist genau das was man sieht.

Ca. Anfang der 70’er Jahre ist der beschriebene Prozess zu Ende und die Werte der Kurve unterliegen keinen wesentlichen Aenderungen bis zum Ende des 20. Jahrhunderts. … … … Wait! … What? … in der „verlorenen Dekade“ haette ich erwartet, dass mehr Leute gezwungen sind sich Arbeit zu suchen (auch wenn sie die nicht unbedingt finden), der Nenner somit grøszer wird und die Kurve wieder ansteigt. Aber dem ist anscheinend nicht so … vielmehr setzt sich auch hier wieder ein Trend fort, der 20 Jahre vorher begann.

Was mich zurueck zum Anfang des Arguments bringt was ich oben nicht weiter verfolgte: anscheinend ging es der Gesellschaft auch in der „verlorenen Dekade“ weiterhin so gut, dass es reichte, wenn nur die Maenner arbeiten gegangen sind. … Mhmmmm … dann kann die Zeit ja gar nicht so „verloren“ gewesen sein … finde ich.

Das soll reichen fuer heute. Zum Abschluss sei nur noch schnell der Rest der Kurve erklaert.
Ab 2000 schlaegt die Demographie wieder zu: die vielen Leute aus den vorhergehenden Jahren fangen an in Rente zu gehen. Der Zaehler nimmt also ab (waehrend der Nenner weiter waechst, wenn auch langsam) und die Werte der Kurve werden kleiner. … … … Was natuerlich auch wieder gegen mehrere „verlorene DekadEN“ spricht, denn das sieht mir hier mitnichten nach „Alterarmut“ aus, die ich damit in Verbindung bringe … meiner Meinung nach.
Ab 2010 sieht man das Umgekehrte: Rentner fangen an zu sterben. Der Zaehler bleibt im Wesentlichen gleich, waehrend der Nenner abnimmt und die Kurve steigt wieder an.
Das sind aber alles lang anhaltende Trends die keiner singulaeren Erklaerung beduerfen.

Obiges ist natuerlich komplizierter (und vermutlich auch langweiliger fuer die meisten Leute) als _ein_ Grund der sich gewaltig (und zunaechst sogar plausibel) anhørt.
Jetzt habe ich geschaut _ob_ die Leute arbeiten, beim naechsten Mal schaue ich mir an wieviel Arbeit es ueberhaupt gab.

Vor vielen Jahren (zum Zeitpunkt des Erscheinens des Artikels definitiv mehr als 5 Jahre, wahrscheindlich ca. 10 Jahre, ziemlich sicher weniger als 15 Jahre) hørte ich (mich duenkt in einem Hackerpodcast), dass der (ein?) Hackspace (?) in Stuttgart ein Arduinoprojekt erstellt hat, mit dem man Feinstaub selber messen kann. Und Arduino … das kann ich doch :).

Jahrelang wollte ich das immer mal machen, hatte da aber nie die Musze, mich mal im Detail zu informieren.

Vor nicht ganz so vielen Jahren (um meinen 40. Geburtstag rum) tat ich das dann doch endlich mal und fand das entsprechende Projekt auch. Die Quellen von damals verlinke ich nicht, denn irgendwann ist das alles umgezogen (und umstrukturiert) auf sensor.community. Mit den dem damals dort verfuegbaren (und heute sehr anderem) Tutorial fand ich raus was ich dafuer brauche um Feinstaub bei mir selber zu messen. Noch viel wichtiger war, dass ich auch den Eindruck bekam, dass ich das wirklich ohne Hilfe hinbekommen kønnte … ahnte ich doch noch nicht, dass der Treiber fuer den Sensor einen Fehler enthielt.

Also bestellte ich schnurstracks den Sensor und wartete ganz hibbelig. Ihr, meine lieben Leserinnen und Leser muesst nicht so lange rumhibbeln, denn ich zeig euch das Gute Dingens ohne Umschweife …

… von vorne (oberes Bild) und von hinten (unteres Bild).

Das Alles ist (und funktioniert) …
– … ein Ventilator der durch …
– … den Schlauch Luft einzieht …
– … durch die dann ein Laser „schieszt“ und das Licht wird an den in der Luft befindlichen Teilchen gestreut; …
– … ein Sensor erfasst das gestreute Licht, das Signal ist abhaengig von der Grøsze und Dichte besagter Teilchen, …
– … welchesdurch die Auswerteelektronik ausgewertet wird um dann …
– … die Resultate  via der Anschluesse an den Arduino zu schicken.

An das Ende des Schlauches habe ich noch einen unabhaengigen Temperatur- (da muss man schon ganz genau hinschauen, denn der ist so klitzeklein) und einen weiteren (ebenso unabhaengigen) Feuchtigkeitssensor (der auch die Temperatur messen kann) angebracht.

So weit, so einfach … Der Code fuer den Arduino war auch „geradeaus“ und nicht all zu schwer zu verstehen.
Aber irgendwie klappte das nicht so wie das sollte. Nach langem Herumprobieren stellte sich heraus, dass ein Pin der Anschluesse des Sensors was anderes macht, als vom Treiber angenommen … bzw. war es noch schlimmer, denn es war eigentlich spezifiziert, dass der Treiber das weisz und beruecksichtigt … tat er aber nicht. Bevor ich DAS nach etlichem systematischem Herum- und Ausprobieren herausfand, raufte ich mir viele Male die Haare … denn ich nehme doch immer erstmal an, dass der Fehler auf meiner Seite liegt (oder, dass was kaputt ist) und nicht im Treiber … denn an Treiber(software) trau ich mich nicht ran … ist zu weit ab dessen was ich kann.

Auszer in diesem Falle … und ich bin da maechtig gewaltig stolz drauf. Nicht nur fand ich raus woran es liegt, sondern ich konnte den Bug auch beheben UND den modifizierten Treiber einsetzen, sodass dann alles ging.

Prima, wa!

Mehr will ich zum Technischen auch gar nicht sagen. Beim naechsten Mal dann die Ergebnisse.