Archive for the ‘Allgemein’ Category

Heute mal in kurz eine Leseempfehlung: The Lessons of Lucasfilm’s Habitat. Dort schreiben zwei der Schøpfer des allerersten groszformatigen (mehr als 10-tausend Spieler) MMORPG ueber ihre Erfahrungen.

Eigentlich gebe ich fuer solche Artikel keine Leseempfehlungen. Weder ist das extra dolle spannend, noch super gut geschrieben (es ist normal gut geschrieben), und auch nicht besonders wichtig. Aber fuer Gamer und Leute die mit Technik (und insb. Programmieren) zu tun haben ist das eine schøne Erinnerung, sich mal zu besinnen, wie das frueher war.

In den technischen Teilen (die nicht so schwer verdaulich sind) wird auf Sachen eingegangen, die wir mittlerweile als einfach gegeben hinnehmen.
Es war bspw. laengst nicht immer so, dass alle Computer mit allen anderen „sprechen“ konnten. Jedes Netzwerk, oder jeder Computerhersteller, hatte eigene Protokolle wie die Bits ausgetauscht (und strukturiert) werden muessen. Zum Zeitpunkt als Habitat lief, wurden bereits seit laengerer Zeit allgemeine Protokolle diskutiert und entwickelt. Schon „komisch“ zu sehen, dass auch mal andere Sachen als TCP/IP ernsthaft in Betracht gezogen wurden, als die Sprache des Internets (auch wenn ich das schon vorher wusste, aber eher auf einem abstrakten Niveau).
Eine (andere) witzige Sache ist, dass die Autoren den Lesern objektorientiertes Programmieren versuchen schmackhaft zu machen. Ich wusste, dass es das nicht immer gab. Ich wusste aber nicht, dass die Speicherverwaltung bei objektorientierten Sprachen auch mitbedacht werden muss … krassomat … so viele Sachen sind mir nicht bekannt und vor mir „versteckt“, damit mein Leben und Arbeiten mit den Maschinen einfacher ist.
Und natuerlich ist die Beschreibung des Arbeitens mit damals cooler und weitverbreiteter, aber dennoch sehr beschraenkter Hardware durchaus interessant mal zu lesen. Ich wusste gar nicht, dass zehntausende Menschen mit dem Commodore 64 ins Internet (damals natuerlich noch nicht das WWW) gegangen sind. Mir war zwar bewusst, dass das ging, aber nicht wie relativ einfach das gewesen sein muss, dass das nicht nur ’ne handvoll Hacker geschafft haben.
Als Letztes sei diesbezueglich erwaehnt, dass es cool ist zu sehen, dass viele der Vorschlaege von damals wirklich umgesetzt wurden … die haben getraeumt und deren Traeume sind wahr geworden

Fuer Gamer eher von Interesse sind die Anekdoten, wie sich diese erste aller wirklich groszen online-gaming-Gemeinschaften verhalten und entwickelt hat. Es gab bspw. damals schon Trolle, die alle einfach so umgebracht haben. Im Gegenzug ist da dann aber auch der griechisch-orthodoxe Priester (in echt jetzt), der dem ganz prinzipiell entgegen stand und dann eine der allerersten Onlinereligionen gegruendet hat (die wohl auch ein relativer Erfolg war).
Auch schøn zu lesen war, wie unterschiedlich Konflikte geløst werden kønnen und ich frage mich, ob da heutige Communities nicht viel von lernen kønnten.

Wieauchimmer, viel Spasz beim lesen (und ich ermuntere nochmals, sich durch die eher technischen Abschnitte durchzubeiszen)

Heute schreibe ich dann endlich mal worauf ich eigentlich hinaus wollte mit der ganzen Serie.

Als kurze Wiederholung: beim letzten Mal simulierte ich den IQ von 100 Millionen Personen und zeigte die Verteilung mit linearer und logarithmischer Ordinate. Ersteres verdeutlichte sehr gut, dass extrem wenige Menschen wirklich schlau sind weil man im Bereich ab einem IQ von 160 nix sieht bei linearer Ordinate. Letzteres zeigte, dass es da aber dennoch ein „Signal“ gibt.
Ich schloss beim letzten Mal dann ab, dass bei der Simulation noch kein Laplace dabei war (IQ = 190) und ich die Simulation deswegen nochmal durchfuehrte mit 8 Milliarden „Menschen“.

Hier ist das Ergebniss im relevanten Bereich (plus eine Standaradabweichung nach link):

Das was hier zu sehen ist, ist der gesamte rote Bereich, der beim letzten Mal in der linearen Darstellung (fast) nicht zu sehen war. Und obwohl das Maximum der Glockenkurve die Skala der Ordinatenachse gar nicht mehr „nach oben zieht“ so macht sich  der relevante Bereich ab einem IQ von 160 gerade so „bemerkbar“.
Weltweit sollten wir fast 72-tausend Kopernikuesse haben, ungefaehr 800 Keplers und sogar 4 Laplaces (oder 3 Laplaces und 1 Newton) … ich frage mich, wie viele davon gerade versuchen im laendlichen Indien oder China in ’nem Reisfeld ihr Abendbrot anzubauen … Einen Leibniz sehe ich immer noch nicht.

Nun muss ich etwas ausholen, um dann direkt zu meinem eigentlichen Argument ueber zu gehen.

Auch wenn ich meine, dass …

[…] so Aussagen wie „Wenn das Baby gestillt wird, dann erhøht das den IQ im Schnitt um drei Punkte“ […] albern und groszer Quatsch auf individuellem (!) Niveau [sind]

… so ist hierbei zu beachten, dass ich explizit „auf individuellem (!) Niveau“ schreibe. Auf gesamtgesellschaftlichem Niveau scheint das naemlich durchaus zu stimmen (Kapitel 9 ist eine Rundschau ueber mehrere Studien diesbezueglich). Und da scheint sogar ein Effekt uebrig zu bleiben, wenn man die offensichtlichsten Størfaktoren (bspw. die Intelligenz der Mutter oder das Einkommen der Familie) „herausrechnet“.

Es kønnte also unter Umstaenden extrem einfach sein, die Intelligenz der Gesamtbevølkerung positiv zu beeinflussen. Man kønnte bspw. Vaetern und Muettern nach der Geburt eines Kindes gesetzlich lohnarbeitsfreie Zeit zugestehen.
Der Einfachheit halber nehme ich mal, dass das Stillen den IQ im Durchschnitt um 5 Punkte erhøht. Anschaulich gesagt bedeutet dies ganz einfach, dass sich der Mittelwert der Normalverteilung um 5 Punkte nach rechts verschiebt. Das wiederum bedeutet dann, dass im relevanten Bereich der besonders schlauen Menschen, die hier blauen dargestellten Anteile  hinzu kommen:

Anstatt 4 Laplaces haben wir nun 33! Und endlich auch einen Leibniz (naja fast, die Verschiebung der Verteilung fuehrt zu einem Ereignis bei einem IQ von 202).

Und nun kønnte man ueberlegen, ob mglw. taegliches frisches Obst im Kindergarten und in der Schule auch einen +5 Punkte Effekt hat. Und Aha! Kindergarten! Das macht vielleicht auch nochmal +5 Punkte. Oder da war doch auch was mit Blei. Das kønnte man doch endlich mal aus dem Flugbenzin (zugegeben fuer kleine Flugzeuge mit Kolbenmotor) und der Umwelt an sich (gesetzlich) entfernen … kein Blei im Blut hat einen Effekt von 10 IQ Punkten!!! (Anmerkung: hach ist das schøn, wenn die Resultate øffentlicher Forschung ohne Umstaende auch der Øffentlichkeit zur Verfuegung stehen) … das ist uebrigens auch meine grøszte Sorge wenn Solarzellen sich immer weiter verbreiten, denn die enthalten ein paar Gramm Blei (Punkt 22.1) … andererseits arbeitet die Industrie wohl bereits daran dies deutlich (oder gar komplett) zu reduzieren … aber ich schweife ab.

Natuerlich kann man die Intelligenz auf diese Art und Weise nicht bis ins Unendliche erhøhen. Aber mich duenkt, dass +15 Punkte durchaus møglich sind ohne all zu exotische Masznahmen. Bspw. indem wir einen mitteleuropaeischen Lebensstandard ueberall verwirklichen … ohne dabei den Planeten kaputt zu machen, denn dann bringen +15 IQ Punkte auch nix mehr.
Ich habe da mal ein Diagramm vorbereitet:

Wait! What? Es gibt pløtzlich ueber 2 Millionen Kopernikuesse, ueber 70-tausend Keplers und fast 1000 Laplaces? … … … Ich sagte ja schon in einem frueheren Beitrag, dass sich das nichtlinear verhaelt … Aber Moment, das wird noch besser, denn im Leibniz-IQ Bereich (200 Punkte und mehr; ist in meinen Daten, aber auszerhalb des Diagramms) gibt es nun auch pløtzlich fast 100 Ereignisse! … … … Moment nochmal. Wenn wir fuer Leibniz ganze IQ-Bereiche nehmen, dann sollten wir das auch fuer die anderen machen.

Kopernikuesse
154-168
Keplers
169-183
Laplaces
184-198
Leibnize
>199
normal1,424,89519,5191190
+5 Punkte4,804,335
x3 zu normal
90,695
(fast) x5 zu normal
686
(fast) x6 zu normal
1
To Infinity …
+15 punkte39,630,210
x28 zu normal
1,424,895
x73 zu normal
19,519
x164 (!) zu normal
119
… and Beyond!

O! M! F! F! G! … das ist ja wohl mal voll krass, was eine relativ saubere Umwelt und die Kapitalisten gesetzlich weitestgehend dazu zu zwingen die Menschen auch als solche zu behandeln (mitteleuropaeisches Niveau eben), doch fuer krasse Auswirkungen haette!

Bei so vielen wirklich schlauen Menschen die nicht als Kind an Durchfall verrecken oder als Jugendlicher zum „Verbrecherkønig“ werden, braeuchten wir uns ueberhaupt keine Sorgen um die Umwelt machen! Denn irgend einer von denen wuerde schon auf die Løsung kommen, wie man es schafft, dass beim Flugzeug anstatt Kohlendioxid warmer Bluemchenduft aus den Turbinen kommt. Und der Warpantrieb wuerde dann vielleicht auch nicht mehr lange auf sich warten lassen.

So! Und das ist der Grund, warum ich da vier Artikel drueber geschrieben habe!

DAS REGT MICH NAEMLICH SO SCHEISZVERDAMMT UND KACKNOCHMAL AUF, DASS WIR DAS NOCH NICHT LAENGST GETAN HABEN SONDERN LIEBER DIE OFFENSICHTLICH-DUMM-WIE-BROT-SCHEISZKAPITALISTEN WEITERMACHEN LASSEN WIE BISHER, NUR DAMIT DIE IHRE MACHT BEHALTEN KØNNEN!

Und das ist eigentlich das worauf ich bei meinen Einschueben zum Gebrauch gewisser Wørter in meiner Kevin Bacon Reihe hinaus wollte.

Ich nehme an, dass es klar ist was ich sagen will. Ich denke, dass das Argument an sich relativ einfach zu verstehen ist. Es „versteckt sich“ nur in ’ner relativ komplizierten Mathematik und kleinen Haeufigkeiten. Es hilft auch nicht, dass sich immer alle nur auf den Mittelwert konzentrieren, dass so getan wird als seien super schlaue Leute was ganz Besonderes deren Existenz nicht in unserer Hand liegt (sondern in der Hand eines „Gottes“) und dass das Thema Intelligenz so „vergiftet“ ist.

Aber nun habe ich das wenigstens alles mal angerissen und ihr, meine lieben Leserinnen und Leser, kønnt in Ruhe drueber nachdenken.

… dass moderater Alkoholkonsum gut fuer einen ist.

Die gute Nachricht (sollte frei zugaenglich sein) ist, dass sich nach mehreren Jahrzehnten, in denen selbst die WHO den moderaten Konsum von Alkohol empfohlen hat, wohl bei den Verantwortlichen endlich ankommt, dass dem nicht so ist. An anderer Stelle werde ich ein bisschen genauer darauf eingehen, dass dieser Mythos schon ein bisschen laenger etwas suspekt aussah.

Wieauchimmer, das „Mehr“ im Titel kommt daher, weil ich dazu in 2018 schonmal was schrieb. Ich stolperte jetzt aber ueber einen wirklich tollen und interessanten Artikel von Holmes, M. V. et al., mit dem Titel „Association between alcohol and cardiovascular disease: Mendelian randomisation analysis based on individual participant data“ (sollte auch frei sein) in BMJ, 2014; 349:g4164.
Das lohnt sich schon allein wg. des „et al.“ mal draufzuklicken, denn das geht ueber 2 Seiten (jaja, ist ja nix gegen Artikel in der Teilchenphysik). In dem Fall ist das wichtig, denn es zeigt indirekt, wie viele Daten weltweit fuer diese Studie gesammelt wurden.

Nun muss ich etwas weiter ausholen.
Das Problem mit vielen medizinischen Studien ist, dass man keine randomisierte, kontrollierte Studie durchfuehren kann. Ein Grund beim Alkohol ist ethischer Natur: man kann niemandem sagen bitte jeden Tag 4 Flaschen Bier zu trinken, um zu schauen wie stark das die Gesundheit in 20 Jahren beeintraechtigt. Es gibt viele andere Gruende, warum solche „Goldstandardstudien“ nicht durchfuehrbar sind. Man kann natuerlich Beobachtungsstudien durchfuehren, aber die daraus geschlossenen Ursache-Wirkung Beziehung stellen sich gerne mal aus falsch heraus — wie bspw. bei dem worueber dieser Beitrag handelt, aber es gibt etliche solcher Faelle.
Wenn man keine bessere Methode hat, ist das mglw. dennoch besser als gar nichts. Und der von mir bereits øfter erwaehnte Selbstkorrekturmechanismus der Wissenschaft sorgt dann schon dafuer, dass falsche Aussagen berichtigt werden sobald das møglich ist. Das Problem ist das „sobald das møglich ist“, denn das dauert unter Umstaenden eine Weile,  weil es meist viele und lange und teure Studien benøtigt … oder die Entwicklung einer neuen Methode, welche sich dann aber auch erstmal durchsetzen muss … oft genug ist Beides vonnøten und genau das ist in diesem Falle passiert … hier muss ich nun noch ein bisschen weiter ausholen und thematisch einen Sprung machen.

*Hops*

Ab ungefaehr der Mitte des vorvorigen Jahrzehnts wurde die Untersuchung der Gene des Menschen mehr und mehr zum Standard in der Medizin. Damit meine ich, dass ueber die Zeit und durch die Arbeit vieler Menschen, mehr und mehr spezfische Gene ganz konkreten kørperlichen „Erscheinungen“ zugeordnet werden konnten. Letzteres sind offensichtlich genetische Krankheiten aber auch so Sachen wie, dass die Mutation eines Gens die Verarbeitung von Alkohol modifiziert … darauf komme ich spaeter nochmal zurueck, denn ich muss noch ein bisschen weiter ausholen und thematisch nochmal springen.

*Hops*

Wenn Keinzellen entstehen, findet keine gewøhnliche Zelltelung mittels Mitose statt. Diese wuerde naemlich nur das genetische Material identisch (!) verdoppeln und dann die Zelle teilen. Keimzellen entstehen mittels Meiose  .oO(ich frage mich, warum ich die dtsch. Wikipedia ueberhaupt noch probiere. Die enttaeuscht mich doch eh nur … *seufz*). Bei der Meiose wird das genetische Material auch erstmal verdoppelt. In einem zweiten Schritt werden dann aber genetisch kompatible Abschnitte der muetterlichen und vaeterlichen Chromosomen miteinander vermischt. Das geht, denn jedes Chromosom tritt doppelt auf (einmal vom Vater und einmal von der Mutter). Und das ist der wichtige Schritt, auf den ich hinaus will, denn die Vermischung ist komplett zufaellig … oder anders: randomisiert. Am Ende wird die Zelle dann drei mal geteilt, sodass vier Zellen mit je der Haelfte des (zufaellig vermischten) genetischen Materials vorliegt (denn Keimzellen haben ja nur die Haelfte der Chromosomen).

Bezogen auf das Problem dieses Beitrags sei so viel gesagt: die Verarbeitung von Alkohol wird im Kørper durch Enzyme geregelt welche in den Genen kodiert sind. Eines dieser Gene heiszt ADH1B. Wenn nun an einer ganz bestimmten Stelle dieses Gens ein einziges (!) Nukleotidpaar vertauscht ist, erhaelt man die ADH1B rs122984 Variante. Diese sorgt dafuer, dass der Kørper Alkohol schneller in ein „unangenehmes Abfallprodukt“ abbaut, weswegen Menschen mit dieser Genvariante die negativen Folgen von Alkoholkonsum eher spueren. Dies fuehrt dann umgekehrt dazu, dass diese Leute im Durchschnitt weniger trinken. Das „im Durchschnitt“ ist wichtig, denn Alkoholkonsum ist massiv durch das soziale Habitat gepraegt und selbst Leute die Traeger dieser Mutation sind, trinken viel, wenn das so erwartet wird von der Gesellschaft … im Durchschnitt aber immer noch weniger als „normale“ Leute … und weil mir das zu umstaendlich zu schreiben ist, nenne ich Menschen die die mutierte Form des Gens besitzen einfach Mutanten.

Ebenso wichtig fuer diesen Beitrag ist, dass diese Mutation NICHT mit irgendwelchen positiven oder negativen Einfluessen auf das Herz in Verbindung steht. Ebenso ist es NICHT assoziiert mit anderen Effekten die gut fuer’s Herz sind (bspw. dass man gerne Sport treibt oder weniger zu Bluthochdruck neigt). Und ich „hacke“ so auf dem Herz herum … naja, der geneigte Leser møge sich nochmal den Titel des Artikels von Holmes et al. anschauen ;) .

Damit bin ich fertig mit dem weiter ausholen und kann sagen, dass sich die Methode der „Mendelschen Randomisierung“ die komplett zufaellige Verteilung von mutierten Genen (deren Einfluss bekannt und klar definiert ist) in der Gesellschaft  zunutze macht. Mendelsche Randomisierung ist eine Methode … (alle Zitate sind aus dem ganz am Anfang verlinkten Artikel, Hervorhebungen sind von mir) …

[…] in which genetic variation that could have no plausible association with typical confounding factors, […] can test the relationship between […] [a] causal factor and the outcome.

Wichtig: die Mutation  …

[…] is associated reliably with exposure to a putative causal factor […].

Oder anders:

The assumption is that the genotype itself has no direct effect on the outcome and no role in the outcome apart from a mediating effect via the causal factor. If the genetic variation turns out to be associated with the outcome, there is a reasonable presumption that this is through the putative cause.

Der Genotyp sind die Gene an sich, in dem Falle also mit der Mutation, waehrend der Phaenotyp die konkrete Ausformung (bspw. die Kørperform aber auch psychische und soziale Dinge) besagter Gene in der gegebenen Umwelt ist. Der Genotyp beeinflusst den Phaenotyp natuerlich massiv (mir werden nicht pløtzlich Fluegel wachsen), aber ist nicht allein entscheidend (es gibt durchaus alkoholkranke rs122984-Mutanten, nur mit geringerer Wahrscheinlichkeit).

Mendelsche Randomisierung ist nicht ohne Nachteile, aber wenn man nun Observationsstudien durchfuehrt UND die Gene der Teilnehmer untersucht UND eine Mutation hat, die mit der Fragestellung der Studie auf oben beschriebene Weise zusammen haengt, dann kønnen die schwerwiegenderen Nachteile besagter Observationsstudien ueberkommen werden:

[i]t is less susceptible to confounding, misclassification and reverse causation than prospective cohort studies […].

Der Grund liegt natuerlich darin, dass eine Randomisierung bei der Meiose der Keimzellen stattfand, aus welchen spaeter der Proband „gebaut“ wurde. Das wiederum fuehrt zu einem weiteren Vorteil dieser Methode: man sieht den Einfluss des untersuchten Effekts ueber das ganze Leben und nicht nur zum Untersuchungszeitpunkt.

Ich hoffe ich habe es geschafft, die Grundlagen der Methode, auf der die oben erwaehnte Studie von Holmes, et al. basiert, darzulegen. Nun ist dieser Beitrag aber jetzt schon so lang und deswegen habe ich entschieden diese Studie nicht hier, sondern in einem zukuenftigen Artikel naeher vorzustellen.

Ach ja, so viel sei doch noch gesagt. Das bemerkenswerte „et al.“ kommt dadurch zustande, dass Holmes und seine direkten Kollegen versucht haben wirklich _jede_ relevante Studie ausfindig zu machen. Das waren 56 insgesamt und die Einbeziehung so vieler Studien fuehrt natuerlich zu sehr vielen Koautoren.
Das ist aber auch sehr gut aus zwei Gruenden. Zum Einen ist die statistische Grundlage bei mehr als 250-tausend Probanden robust und das ist wichtig, denn die entscheidende Mutation tritt nur in 7 % aller Menschen auf. Zum Anderen sind die Studien aus mehreren Weltgegenden und damit fallen mehrere „kulturelle Størfaktoren“ weg. Letzteren kønnten (wuerden?) auftreten, wenn man bswp. nur Teilnehmer aus den USA haette. Diese Aussage unterliegt einer Einschraenkug: es handelt sich bei allen Teilnehmern um Individuuen mit europaeischer Abstammung. So gleich wir Menschen auch sind, so kann doch unser Genotyp (und dessen Mutationen) unterschiedlich genug sein, sodass es einen Unterschied fuer solche Studien machen kann.

Aber wie gesagt, mehr dazu ein andermal.

Im ersten Teil zitiere ich den Artikel von Whitmire, D. P. der (im Wesentlichen) argumentiert, dass alle Zivilisationen immer sich selbst und alles Leben in unmittelbarer Naehe um sich herum komplett ausløschen.

Whitmire wiederum zitiert Gott … dieser hat in Nature, Vol. 363, p. 315–319 (1993) einen Artikel mit dem Titel „Implications of the Copernican principle for our future prospects“ geschrieben (*hust*), welcher gut in diese Reihe passt. Die Resultate des Artikels kønnen wohl als „Doomsday Argument“ zusammengefasst werden. Ganz kurz dachte ich, dass Whitmire hier einen Witz eingeworfen hat … dann aber sah ich, dass das echt war. Dies wiederum erinnerte ich mich hieran und ich dachte dann: .o(war ja klar, dass Gott in diesem Feld arbeitet und das Doomsday Argument vertrtitt) … tihihihi.

Auch wenn ich einige Abschnitte mehrfach lesen musste um das Dargestellte wenigstens halbwegs zu verstehen, so ist dieser Artikel doch ganz hervorragend geschrieben und liest sich wirklich gut. Die Einfachheit und Klarheit der dargelegten Argumente ist ganz wunderbar.

Das kopernikanische Prinzip ist einfach nur, dass man bei Abhandensein anderer Fakten davon ausgehen muss, dass man ganz gewøhnlich ist. Das bedeutet, dass der Zeitpunkt zu dem ich die Menschheit beobachte normalverteilt ist waehrend der Zeit in welcher die Menscheit existiert. Nur damit (und mit ein bisschen Mathematik) kann man dann die wahrscheinliche Lebensdauer der Spezies Mensch berechnen.

Da ist zwar prinzipiell noch viel Luft, aber ja, irgendwann ist mal Schluss mit Menschheit.
Und wieder einmal wurde ich mit der logisch zwingenden Endlichkeit aller Dinge konfrontiert …
Und wieder einmal fragte ich mich, warum ich darob dessen was ich ueber die Gleichgueltigkeit des Universums weisz, noch kein Nihilist geworden bin? … Bestimmt, damit ich die Schønheit von solchen Artikeln und Argumenten auch weiterhin genieszen kann :) … oder weil ich dem Universum grundsaetzlich eher positiv eingestellt bin und „das Ende der Menschheit“ natuerlich auch bedeuten kønnte, dass sich die Spezies weiterentwickelt.

Und damit sei diese Serie dann auch abgeschlossen.

Endlich komme ich zur Normalverteilung und wie diese

[…] mit dem Fortschreiten der Menschheit in eine ganz wunderbare Zukunft zu tun hat.

Aber bevor ich weiterschreibe møchte ich darauf hinweisen, dass ich die Argumente ueber die ich hier schreibe von woanders (mehr oder weniger direkt aus dem dortigen Punkt 2) uebernommen habe. Natuerlich mit Modifikationen und ein paar anderen (auch weiterfuehrenden) Quellen. Ehre wem Ehre gebuehrt heiszt es ja so schøn, nicht wahr.

Ich erwaehnte letztes Mal, dass die Verteilung der Ergebnisse von Intelligenztests auf eine Normalverteilung projiziert wird mit einem Mittelwert von 100 und einer Standardabweichung von 15. Das ist also im Grenzfall unendlich vieler Menschen eine klar definierte Funktion.

Ich erwaehnte im ersten Beitrag dieser Serie, dass der Fortschritt der Menschheit (im Gegensatz zur Aufrechterhaltung des zugrundeliegenden Wohlstands!) von besonders schlauen Menschen abhaengig ist.
Da kønnte man annehmen, dass der Fortschritt schneller fortschreitet, wenn wir viel mehr wirklich schlaue Leute haben. Ob das gut oder schlecht ist, ist eine ganz andere Frage und soll hier nicht diskutiert werden … meine Meinung in ganz kurz: „JA, das ist gut, ABER …“.
Aber wie schlau ist denn eigentlich „wirklich schlau“?

Das Problem ist nun, dass spezifische, allgemein als wirklich schlau anerkannte, Individuen nicht unbedingt Intelligenztests gemacht haben. Dies gilt natuerlich insb. fuer historische Figuren, als es diese Tests noch nicht gab. Man kann das aber prinzipiell abschaetzen und hierbei kam mir ein Text zugute, auf den mich die „obskure Quelle“ vom letzten Mal aufmerksam machte. .oO(Da sieht man mal wieder, wie wichtig es ist, auch die Quellen seiner Quellen zu checken.)
Besagter Text ist: Anne Roe, The making of a scientist, Dodd, Mead & Company, 1953 … und ’ne Kopie zu finden war erstaunlich einfach und es wundert mich ueberhaupt nicht, dass es dort war (man beachte, dass das auf der selben Domain liegt, auf der obiger Artikel publiziert wurde, von dem ich die Argumente fuer diesen Beitrag hier klaute der mich zu diesem Beitrag inspirierte). Wieauchimmer, man wenn man in diesem Buch zur Tabelle auf Seite 155 (Seite 81 in der PDF-Datei) schaut, dann sieht man Abschaetzungen der IQ’s prominenter historischer Figuren.

An dieser Tabelle møchte ich besonders herausheben, dass die dort aufgefuehrten Personen ohne Zweifel als unheimlich wichtig fuer den Fortschritt der Menschheit, und damit unseren heutigen zugrundeliegenden Wohlstand, anerkannt sind.
Wenn man sich die IQ’s anschaut, dann sieht man, dass da keiner unter 160 liegt … und das ist der Wert, den ich nehme ich als Grundlage fuer die weitere Diskussion bzgl. der Anzahl „wirklich schlauer Leute“ nehme.

Wie viele sind das denn nun ganz konkret? Nun ja, ganz konkret kann das niemand sagen weil wir ja keine Messdaten haben. Und selbst wenn wir die haetten, so ist es schwierig IQ-Tests zu erstellen fuer Menschen mit besonders hohem IQ. Aber wenn wir davon ausgehen, dass die obige Definition bzgl. der Verteilung der IQ-Punkte richtig ist, dann kønnen wir das zumindest abschaetzen.
Ein Wert von 160 ist vier Standardabweichungen vom Mittelwert entfernt. Da die Funktion der Normalverteilung bekannt ist, muss man also nur das Integral von 160 bis Unendlich berechnen um den Anteil wirklich schlauer Menschen zu erhalten … super einfach wa … die Løsung des Integrals steht im Bronstein … oder auch bei der Wikipedia.

Dummerweise enthaelt die Stammfunktion die Fehlerfunktion. Diese hat einen spezifischen IQ-Wert als Argument und enthaelt dann ein weiteres Integral in welchem dieser Wert als obere Grenze des Integrals genommen wird. Immer noch erstmal easy-peasy, nicht wahr. Dummerweise ist dieses Integral (im Wesentlichen) die Fehlerfunktion selber … oder anders: die Fehlerfunktion kann nicht mittles elementaren Funktionen ausgedrueckt werden … Verdammt!

Das kann man aber (sehr genau) abschaetzen und gluecklicherweise haben andere Menschen das  schon mal fuer ein paar IQ-Werte getan. Ich verlasse mich darauf und sehe, dass nur eine von 31,574 Personen einen IQ hat, der vier Standardabweichungen ueber dem Mittelwert liegt. Man beachte, dass man den dort angegebenen Wert verdoppeln muss, denn ich bin ja nur an vier Standardabweichungen UEBER dem Mittelwert intessiert.

Das ist ’ne nette Zahl, aber auch nur ’ne Obergrenze. Leider kommt hinzu, dass die Wahrscheinlichkeit fuer noch schlauere Menschen nichtlineaer abnimmt. Einen Kopernikus oder Buffon kann ich prinzipiell in Stendal finden, aber nur _einen_, nicht Beide. Fuer Kepler oder Gay-Lussac braucht es schon ein Berlin (wieder nur fuer Einen der Beiden). Und fuer Newton oder Laplace muss man dann ganz China absuchen (dito) … Und Leibniz IQ wurde mit 205 abgeschaetzt … HA! War mir schon immer klar, das Newton ein intellektuelles Leichtgewicht war im Vergleich zu Leibniz!
Das muss jetzt fuer alle Werte dazwischen gemacht werden und schwupps hat man den Anteil wirklich schlauer Menschen … … … mich duenkt ich erwaehnte bereits die Schwierigkeiten das Integral der Normalverteilung selbst fuer konkrete IQ-Werte zu løsen … *seufz*.

Gluecklicherweise ist ein anderer Weg viel einfacher: ich kann das Ganze auch einfach simulieren! Die Simulation sieht dann so aus, dass ich zufaellig IQ-Werte aus einem „Beutel“ ziehe und dann schaue wie viele davon grøszer als 160 sind. In dem „Beutel“ sind die IQ-Werte normal verteilt. Ich ziehe da also den IQ-Wert 100 am haeufigsten heraus und nach „unendlich vielen“ Ziehungen habe ich ca. 31,574 mal mehr Werte die kleiner sind als 160.

In diesem Bild versuche ich die Problemstellung nochmals im Gesamten zu veranschaulichen.

Ich habe zwei Mal jeweils 100 Millionen „Ziehungen“ aus dem „IQ-Werte-Beutel“ gemacht. Beim ersten Mal habe ich die komplette Verteilung notiert (schwarze Kurve/Balken) und beim zweiten Mal nur wenn ein Wert grøszer oder gleich 145 war (rote Kurve/Balken). Warum ich schon aber einem IQ -Wert von 145 schaue wird beim naechsten Mal klar.
Im oberen Bild, mit einer linearen Ordinate, sieht man, dass die gesamte Verteilung (schwarze Kurve) die charakteristische Glockenkurve ergibt. Man sieht auch, dass man im IQ-Bereich der hier von Interesse ist (rote, ausgefuellte Kurve) nix sieht. Die Gruende schrieb ich oben nieder.
Stellt man das Ganze mit einer logarithmischen Ordinate dar, tritt die Information die im roten Bereich liegt viel besser hervor. Es zeigt sich ganz deutlich, warum man bei einer linearen Darstellung nichts sieht, denn die Anzahl der Ziehungen mit einem IQ von 160 betraegt nicht einmal 1000.

Ich habe hier mit Absicht zwei Simulationen gemacht, um zu zeigen, dass das statistisch zwar alles ganz klar ist, aber bei realen endlichen Ereignissen Schwankungen in dem Bereich durchaus relevant sind. 100 Millionen entspricht fast der Anzahl der Menschen in Dtschl. Bei der einen Simulation habe ich aber 10 Ereignisse mit einem IQ-Wert von 175 und bei der anderen 13. Ich denke, dass es doch einen gewaltigen Unterschied macht, ob man 13 Keplers hat oder nur 10. Was natuerlich weniger an dem Unterschied von 30 % liegt, sondern an der „Gewaltigkeit“ eines Keplers.
Bei nur 100 Millionen „Ziehungen“ war dann auch noch kein Laplace dabei.

Wieauchimmer, da hier noch kein Laplace dabei war, habe ich die Simulation nochmals durchgefuehrt fuer die gesamte Menschheit … 8 Milliarden Ereignisse insgesamt … aber weil der Artikel schon so lang ist, muesst ihr, meine lieben Leserinnen und Leser, darauf bis zum naechsten Mal warten.

Zu allem Gesagten kann man immer Gegenargumente bringen. Wenn die richtig sind, dann kønnen die zwei Folgen haben:
1.: eine Modifikation der Ergebnisse, wobei die urspruengliche Interpretation aber grundsaetzlich „ueberlebt“.
2.: eine Argumentation die darlegt, dass Schritte in der urspruenglichen Interpretation derart falsch sind, dass Letztere nicht haltbar ist.

Beides ist wichtig und Teil des wissenschaftlichen Diskurses und Fortschritts.

Den besten Einwand bzgl. der Ergebnisse von Sandberg, Drexler und Ord, habe ich hier gefunden.

Beim Artikel von SDO fand ich den (mglw. etwas provozierenden) Titel durchaus angebracht. Das ist beim verlinkten Einwand mitnichten der Fall. Ja, die dortigen Ergbnisse sind deutlich optmistischer bzgl. mehr als einer Zivilisation in unserer Galaxis. Aber auch diese Rechnungen kommen zu dem Schluss, dass es eine ueber 6-prozentige Wahrscheinlichkeit gibt, dass wir allein sind. Und 6 % ist (zumindest fuer mich als Physiker) ziemlich hoch.

Somit faellt der Einspruch unter Erstens, denn das urspruengliche Ergebniss …

[t]he Fermi observation […] provides only very weak evidence about whether we will soon go extinct or whether interstellar communication or travel is impossible

… bleibt im Grunde erhalten.

Der Vollstaendigkeit halber, und weil es das Richtige ist, wollte ich aber wenigstens mal erwaehnen, dass es Einwaende bzgl. der Argumente SDO’s gibt.

Es ist ja bekannt, dass die Intelligenz normalverteilt ist. Der Mittelwert liegt bei 100 und die Standardabweichung betraegt 15 Punkte.

Ach so, bevor ich fortfahre: wie (fast) immer laeszt die dtsch. Wikipedia sehr zu wuenschen uebrig. Deswegen ist so ziemlich alles was ich hier bespreche mehr oder weniger dem entsprechenden englischen Wikipediaartikel entnommen.

Bevor ich beim naechsten Mal dann endlich das bespreche, was ich eigentlich besprechen wollte, møchte ich hier ein paar wichtige Dinge anreiszen. Fuer eine volle Diskussion bin ich nicht qualifiziert.

Mir ist sehr bewusst, dass der IQ auf individuellem Niveau ein eher grobes „Messinstrument“ ist. Dennoch zeigt es gar nicht mal all zu schlecht in die richtige Richtung. Denn wenn man ehrlich ist, so erwartet man nicht, dass jemand mit einem IQ von 85 Professor fuer theoretische Physik wird, selbst wenn bei einem anderen Test ein IQ von 96 heraus kommt. Aber so Aussagen wie „Wenn das Baby gestillt wird, dann erhøht das den IQ im Schnitt um drei Punkte“ sind albern und groszer Quatsch auf individuellem (!) Niveau.

Eine andere Sache ist, dass es verschiedene Intelligenztests gibt. Das macht aber im Grunde nix, denn das Ergebnis jedes Intelligenztests, die Verteilung der (testabhaengigen) IQ-Werte, wird auf die oben erwaehnte Normalverteilung projiziert.
In der Praxis hat man also bspw. mehrere Fragen mit mehreren Antworten (von denen auch mehrere richtig sein kønnen). Jede richtige Antwort gibt einen Pluspunkt, jede falsche Antwort gibt einen Minuspunkt. Am Ende hat man eine Verteilung bei der die geringste Gesamtpunktzahl ich sag jetzt Mal 23 Punkte und die høchste Gesamtpunktzahl 69 Punkte sind. Das hat nun aber nix mit dem ganz oben erwaehnten „Mittelwert von 100, Standardabweichung von 15“ zu tun. An der Stelle kommt es dann zu besagter Projektion auf diese Normalverteilung.

Dann ist es so, dass zumindest frueher viele IQ-Tests zu viel kulturelles (Hintergrund)Wissen voraussetzten. Als (schlechtes) Beispiel kønnte ich mich selbst nehmen. Mein Vokabular englischer Vokabeln ist nicht grosz genug, um bei Wortassoziationsaufgaben gut abzuschneiden. Ich muesste da dann natuerlich dtsch. Wortassoziationsaufgaben vorgelegt bekommen, aber dies verdeutlicht den kulturellen Aspekt von Fragen eigtl. ganz gut denke ich.

Und letztlich ist da auch noch der Fakt, dass es verschiedene „Intelligenzen“ gibt. Man denke bspw. an sprachliche, mathematische oder soziale Intelligenz. Wenn man das genauer untersucht, gibt es Menschen die wirklich gut sind bei der einen Sache, aber normalverteilt bei den anderen. Das ist aber laenglich durchzufuehren und wuerde (so weit ich das verstanden habe) letztlich dennoch zu einer erhøhten Gesamtpunktzahl fuehren.

Auf gesellschaftlichem Niveau hingegen ist die IQ-Verteilung, also NICHT nur der Durchschnittswert (!), durchaus von Interesse. Und genau deswegen ist das Thema in der Wissenschaft leider „entzuendet“.
Aufgrund verschiedenster historischer Ursachen ist es naemlich so, dass bestimmte Gruppierungen von Menschen in Intelligenztests im Durchschnitt weniger Punkte erhalten, als die „weisze Ober- und Mittelschicht“.
DAS ist meiner Meinung nach ganz stark den schlechten Lebensumstaenden geschuldet. Zum Beispiel ist seit langem bekannt … *hust*, […]

[…] that there is a straight-line relationship between the amount of lead in the body and careful measures of disturbed behavior and learning problems.

Wer lebt nun in bleiverseuchten Umgebungen, in Windrichtung der Fabrikschornsteine? Richtig! NICHT die weisze Ober- und Mittelklasse. Natuerlich ist das nicht nur Blei sondern es gibt da ganz viele andere Sachen mit aehnlichen (oft noch nicht mal erforschten) Effekten. Und das beschraenkt sich nicht nur auf Chemikalien, sondern auch auf soziologische Aspekte wie schlechte Schulen oder dass man als Kind arbeiten gehen muss (zu Letzterem siehe auch (mal wieder) viele Seiten in Marx‘ Das Kapital).

Diese Luecke in den IQ-Werten, oder richtiger: dieser Unterschied in der Verteilung der IQ-Werte verschiedener gesellschaftlicher Gruppierungen, wird nun (natuerlich) von menschenverachtenden Spinnern genommen um zu sagen, dass bspw. nicht-weisze oder arme Menschen genetisch minderwertig seien.
Deswegen ist entsprechende grosz angelegte Forschung diesbezueglich verpønt und findet nicht statt. Anstatt das zu machen um die Ursachen fuer den IQ-Abstand besser zu verstehen und zu beseitigen.

Einschub: Forschung die letzten Jahrzehnte zeigt, dass besagter IQ-Abstand zwischen farbigen und weiszen Gemeinschaften in den USA stetig geringer wird. Das ist natuerlich auf die allgemein besseren Lebensumstaende (verglichen mit den 40’er, 50’er, 60’er Jahren) zurueck zu fuehren und entbløszt die menschenverachtenden Spinner als genau solche.

Achtung: das heiszt nicht, dass Intelligenz NICHT von den Genen abhaengt. Dem ist mit ziemlicher Sicherheit so. Hier Ich schrieb bzgl. der Ashkenazijuden etwas dazu und um uns herum sehen wir ja selber, dass schlaue Menschen oft auch schlaue Kinder haben. Aber das ist natuerlich nicht Alles, denn selbst wenn jemand keine schlauen Eltern hat, kann ein Individuum in der groszen Genverteilungslotterie gut abgeschnitten haben. Und Letztere sind ja u.A. worauf ich hinaus will mit dieser kleinen Serie.

Soweit zu den Sachen die mindestens kurz angesprochen werden muessen, wann immer man IQ-Verteilungen diskutieren will.

Wie ich nunmal bin, versuchte ich also Rohdaten von grosz angelegten Intelligenzverteilungsuntersuchungen zu finden. Ich dachte mir, dass es die doch geben muss. So sehr wie die linke Seite des politischen Spektrums eben solche verteufelt … bzw. so sehr wie die rechte Seite des politischen Spektrums versucht ihren menchenverachtenden Dreck damit zu rechtfertigen.

Aber da ist nuescht! Oder fast nix.

Es gibt alte Buecher, aus der Zeit als die ganze Forschung darum am Entstehen begriffen war. Und da findet man dann auch mal eine IQ-Verteilungen (Bild #2). Aber die Daten darin lassen sehr zu wuenschen uebrig. Zum Ersten, weil es nicht die Rohdaten an sich sind (die Kultur Messdaten zu teilen ist ja selbst heute nicht weit verbreitet … *seufz*). Zum Zweiten, weil alle oben erwaehnten Unzulaenglichkeiten des kulturellen Hintergrundwissens noch nicht bekannt waren und man versuchte die intrinsischen Fehler zu vermeiden. Und zum Dritten weil die Untersuchungen eher limitiert waren (es ist halt nur eine Studie pro Buch). Deswegen vermied ich solche alten Buecher.

Aus neuerer Zeit gibt es das OpenPsychometrics Projekt. Der Test und die Daten sind neuerer Natur und die Rohdaten sind verfuegbar und beinhalten mittlerweile ueber 3000 Teilnehmer (die Statistik waere also ganz gut). Aber auf der Testseite steht zu Recht:

WARNING: Every on-line IQ test is bad

… … … *seufz*.

Dann fand ich heraus, dass U.S. Bureau of Labor Statistics Querschnitssuntersuchungen macht. Und eine davon ist die National Longitudinal Survey Youth, 1979, mit ueber zehntausend Teilnehmern aus allen gesellschaftlichen Bereichen. Das ist zwar schon ein bisschen her, aber nicht all zu lange … und die Rohdaten sind verfuegbar … Hurra.
Es dauerte ein Weile, bis ich verstanden hatte, wie die Daten aufgebaut sind und wie deren Nutzergrenzschnitt zu bedienen ist … aber so ist das ja immer und was mache ich nicht alles, um an Rohdaten zu kommen.

Es stellte sich dann leider heraus, dass weniger als 1000 Leute IQ-Tests gemacht hatten … im Grunde genommen war das also auch nur eine Untersuchung … *seufz*.
Bei der (gleichen) Querschnitssuntersuchung aber im Jahre 1996 gab es dann gar keine IQ-Tests mehr … *doppelseufz* … das waere doch mal voll interessant gewesen.

Meine Suche fuehrte mich zu immer obskureren (wenn auch durchaus interessanten) Quellen (der Direklink funktioniert ohne, dass man da ein Profil haben muss). Aber auch dort wird nur auf ganz wenige, ziemlich alte und limitierte Untersuchungen (natuerlich ohne Rohdaten) verwiesen.

Das scheint also ein systemisches Problem zu sein, ich denke verursacht durch oben angesprochenes Tabu derartiger Forschung. Nach Stunden der erfolglosen Recherche sah ich ein, dass ich so nicht weiterkomme, um meine urspruengliche Aufgabenstellung zu bearbeiten.

Zum Glueck ist das nicht streng nøtig, da ja die Ergebnissse von Intelligenztests ohnehin auf eine klar definierte Verteilung projiziert werden. Das worauf ich eigentlich hinaus will, kann ich also auch mittels einer Simulation veranschaulichen. Aber dazu mehr beim naechsten Mal.

Hier wies ich darauf hin, dass die Krabben irgend ein wichtiges Geheimnis kennen, weswegen Verkrabbisierung bereits mindestens fuenf Mal unabhaengig voneinander im Laufe der Evolution auf diesem Planeten stattgefunden hat. Nun bin ich neulich drauf aufmerksam geworden, dass Knurrhaehne, aktiv daran arbeiten zur Krabbenform ueberzugehen:

Lizenz: gemeinfrei, Urheber: NOAA’s Fisheries Collection; Collection of Brandi Noble, Quelle (Achtung, das ist NICHT die Originalquelle; Letztere ist dort angegeben, fuehrt aber in eine der vielen Sackgassen des Internets).

Man beachte die (teilweise) zu Krabbenfueszen umevolutionierten Brustflossen!

Ich sag doch, dass da was im Busch ist! … Oder vielmehr im Wasser. Und deswegen verbleibe ich auch heute wieder mit dem was im Titel dieses Beitrags steht.

Beim letzten Mal erwaehnte ich, dass fuer die Parameter der Drake-Gleichung derartig unterschiedliche Werte geschaetzt werden, dass man da urst krass verschiedene Resultate heraus bekommt. Das geht von einem leeren Universum (von uns mal abgesehen) bis zu so vielen auszerirdischen Zivilisationen, dass die sich fast schon gegenseitig auf die Fuesze treten. Die Literatur (meist die populaere, aber oft genug auch die wissenschaftliche) tendiert zu Letzterem — und das ist ja das Fermi Paradoxon.

Nun ist es aber so, dass bei der Berechnung von N, der Anzahl der Zivilisationen in unserer Galaxis, immer punktgenaue Werte fuer die Parameter genommen werden. Manchmal nehmen die Autoren dann noch andere (punktgenaue) Werte um zu zeigen wie unsicher die Rechnung ist. Das løst dann zwar nicht das Paradoxon, soll aber als ein Ausdruck fuer unser (wissenschaftliches) Unwissen angesehen werden. Und das ist eigentlich auch genau der richtige Weg … nur ist das nicht die richtige Herangehensweise, denn ein paar Werte in einer Gleichung zu aendern ist nicht systematisch.

Sandberg, A., Drexler, E. und Ord, T. (hiernach nur als SDO abgekuerzt) schauten sich unser Unwissen bzgl. der Parameter deswegen mal sytematisch an und meiner Meinung nach ist der Titel ihres Artikels mit „Dissolving the Fermi Paradox“ recht passend gewaehlt … wenn auch etwas provozierend, aber mich duenkt, dass das kalkuliert war (Wortspielkasse).
Als eine Nebenbemerkung: ich weisz nicht, wie ich arXiv-Artikel zitieren soll, auszer, dass ich den Link setze (in welchem die DOI steht fuer den Fall, dass der Link mal stirbt).

Aber der Reihe nach. SDO argumentieren, dass wir nicht nur irgendwelche zufaelligen Werte in die Drake-Gleichung einsetzen kønnen um irgendwas „zu zeigen“. Vielmehr sollten alle bisher publizierten Werte fuer die Parameter in ihrer Gesamtheit betrachtet werden. Dann ist der Unterschied in diesen Werten ein Ausdruck fuer unsere (wissenschaftliche) Unsicherheit. In den (zum Artikel) zusaetzlichen Dateien gibt es eine Tabelle, in der SDO alle (wissenschaftlichen) Quellen fuer die Parameter angeben, die sie finden konnten. Und die Unterschiede kønnen schon gewaltig sein. So gehen bspw. die Abschaetzungen fuer die durchschnittliche Lebensdauer einer Zivilisation von 45 Jahren bis 1 Milliarde Jahre. Oder die Werte bzgl. des Anteils der Planeten in der habitablen Zone mit Leben geht von 10-30 (!) bis 1. Ersteres ist echt urst krass klein, aber Letzteres bedeutet, dass Leben im Wesentlichen garantiert ist auf jedem Planeten der sich dafuer eignet. Andere Parameter hingegen haben eine viel kleinere Unsicherheit; die Schaetzungen der Sternentstehungsrate liegt bspw. zwischen 1 und 50 Sternen pro Jahr.

Das sind aber nur die Extremwerte. In viele Abschaetzungen findet man sehr aehnliche Werte fuer die Parameter. Das ist dann natuerlich Ausdruck fuer eine gewisse (wissenschaftliche) „Sicherheit“. Nicht unbedingt im Sinne von vorhandenen Messungen (die ohnehin nicht durchgefuehrt werden kønnen) aber im Sinne der Abschaetzungen eines Spock die Captain Kirk den sicheren Fakten anderer vorzieht. Nehmen wir bspw. nochmals die Werte fuer die Entstehung von Leben. Der extrem kleine Wert von 10-30 wird nur ein Mal angegeben. Hingegen wird in 17 Faellen abgeschaetzt, dass die Entstehung von Leben (beinahe) garantiert ist. Und dann natuerlich die Werte dazwischen.

In der Statistik spricht man von Sachen wie Varianz, Mittelwert und Median einer Verteilung. Man beachte, dass, abhaengig von der Art der Verteilung, solche Werte nicht immer angegeben oder gar definiert werden kønnen. Aber die Werte der Parameter der Drake-Gleichung sind logarithmisch normalverteilt (das bedeutet, dass der Logarithmus der Werte genommen wird und dann sind diese (logarithmierten) Werte normalverteilt) und da ist das alles kein Problem.
Damit kann man dann aber stochastische Modelle erstellen, in denen unsere Unsicherheit modelliert werden kann und wie sich das auf N auswirkt.

Was mit „unsicherheit modellieren“ gemeint ist, møchte ich eine mehr intuitive Erklaerung des Prozesses geben (um dann die rigorose statistische Modellierung SOD zu ueberlassen).

Wir wissen nicht, welche Werte fuer die Paramter „richtig“ sind. Und wie oben erwaehnt werden dann oft ganz andere Werte genommen, welche ein  vøllig unterschiedliches Resultat zur Folge haben. Dieses wird dann im Umkehrschluss angesehen als „Beweis“, dass die Drake Gleichung nicht brauchbar ist.
Was aber, wenn wir nicht nur eine Rechnung, sondern eine Million Rechnungen machen? Und jedes Mal waehlen wir aus allen publizierten Werten (inklusive derjenigen die mehrfach auftauchen!) zufaellig aus, welcher denn fuer eine gegebene Rechnung benutzt werden soll. Dieser Prozess des „zufaelligen Ziehens“ von (publizierten) Werten modelliert auf eine gewisse Weise unsere Unsicherheit bzgl. der Parameter. Und weil wir das eine Million mal machen, kønnen wir statistische Aussagen ueber unsere Unsicherheit bzgl. N modellieren. Ich komme darauf nochmal zurueck, weil ich ja noch den Bogen kriegen muss, warum dies das Paradoxon aufløst.

Das habe ich mal gemacht und die Frage war dann: wie oft erhalten wir mittels dieser Methode „vertraute“ Resultate fuer N und wie oft Werte die ein leeres Universum bedeuten? Das Ergbniss meiner Rechnungen sieht man hier:

Man beachte, dass die Abzsisse logarithmisch ist. Sonst benutze ich die nicht-logarithmischen Werte (in diesem Fall fuer N) um die Achse zu beschriften und variiere den Abstand der kleinen Teilstriche entsprechend. Dieses mal benutze ich den logarithmierten Wert, also den Exponenten der Grøszenordnung des Wertes (vulgo, das „hoch y“ in „x mal zehn hoch y“). Von Strich zu Strich steigert sich der Wert von N also um einen Faktor zehn (!) auch wenn das linear aussieht!
Ich musste das so machen, weil es sonst nicht so schick ausgesehen haette, denn ich wollte das Ausmasz zeigen, ueber wie viele Grøszenordnungen sich N strecken kann. Und eigentlich geht das noch 15 Grøszenordnungen runter, denn die kleinsten Werten haben einen Exponenten von -65.

Das Maximum dieser Verteilung (jaja … da ist noch ein Nebenbuckel aber ich irgnoriere den mal) liegt bei 100 Zivilisationen in der Galaxis. Sehr haeufig erhaelt man sogar deutlich høhere Werte; bspw. eine Million oder gar eine Milliarde Zivilisationen in unserer Galaxis. Zunachst kønnte man da denken, dass das dann doch genau wieder das Fermi Paradoxon ist und in dem Sinne stimmt das auch, aber dann ignoriert man das, was Links des Peaks ist.

Die blaue Linie bei 100 markiert unsere (einzige) „Messung“: eine Zivilisation in unserer Galaxis. Und man sieht, dass die Wahrscheinlichkeit dort und auch bei Werten noch weiter links davon erstaunlich hoch ist. Geht man noch weiter zur (oliv)gruenen Linie, dann sind wir schon bei einem komplett leeren (observierbaren) Universum.

Kurze Abschweifung: New Horizons hat nicht nur ein paar Bilder vom Pluto gemacht (auch wenn mir scheint, dass dies das Einzige ist, was in der Øffentlichkeit wahrgenommen wird), sondern hat neben der Kamera auch noch ein paar andere Messinstrumente fuer uns mitgenommen. Eines davon hat gemessen, wie dunkel das Weltall denn eigentlich ist.
Das ist wichtig, denn in der Umgebung der Erde kann man das nicht machen. Hier gibt es total viel Staub und deswegen „glitzert und blinkert“ das auf allen Bildern von Messinstrumenten in der Naehe der Sonne (Naehe muss in diesem Satz gesamtsonnensystemtechnisch interpretiert werden). Das fuehrt dann dazu, dass man ganz schwache, weit entfernte Galaxien nicht sehen kann, weil die schwaecher leuchten als das „glitzern und blinken“. Aber wenn man weisz, wie stark das „glitzern und blinken“ ist, dann kann man aus der Anzahl der weit entfernten Galaxien die wir sehen abschaetzen, wie viele Galaxien wir nicht sehen kønnen.
Vor ein paar Jahren haben das mal ein paar Leute gemacht und die kamen zu dem Schluss, dass wir ca. 90 % der Galaxien nicht sehen. Die geschaetzte Zahl aller Galaxien im Universum lag dann (plusminus) bei 2 mal 10 hoch 12.
New Horizons hat nun, fern abseits des „Glitters“ im inneren Sonnensystems, festgestellt, dass das Universum deutlich dunkler ist als erwartet. Das wiederum bedeutet, dass es deutlich weniger unentdeckte Galaxien gibt. Man nimmt jetzt an, dass nur ungefaehr die Haelfte aller Galaxien nicht gesehen werden kønnen. Damit nimmt die Anzahl aller Galaxien im Universum um eine Grøszenordnung auf (plusminus) ca. 2 mal 10 hoch 11 ab.
Aber genug der Abschweifungen. Ich wollte nur kurz sagen wo der Wert des (oliv)gruenen Striches herkommt, weil das coole Wissenschaft (Wortspielkasse) ist.

Jedenfalls sehen wir im obigen Histogramm, dass selbst bei der (oliv)gruenen Linie noch ein betraechtliches „Signal“ ist! Die kumulative Wahrscheinlichkeit verdeutlicht besser, was dieses „Signal“ eigentlich bedeutet:

Die hier zu sehende Kurve stellt dar, wie grosz die Wahrscheinlichkeit ist, ein N zu erhalten welches kleiner oder gleich dem Wert auf der Abzisse ist. Man summiert also alle individuellen Wahrscheinlichkeiten (die einzelnen Balken im Histogramm) bis zu dem gegebenen N auf.

Wenn wir nun den Wert bei N = 100 ablesen, so erhalten wir eine kumulative Wahrscheinlichkeit von fast 31 %. So weit, so gut, aber was bedeutet das eigentlich? … Dafuer muss ich etwas weiter ausholen.

Um es gleich zu sagen: dieses Resultat bedeutet NICHT, dass wir mit einer Wahrscheinlichkeit von 31 % allein sind in unserer Galaxis.
Aber wie oben erwaehnt kennen wir die genauen Werte fuer die Parameter der Drake-Gleichung nicht. Unsere Unsicherheit drueckt sich in den verschiedenen (publizierten) Werten aus. Einige werden sicher naeher an der Wahrheit liegen als andere. Aber das wissen wir eben nicht. Bei den 1 Million Berechnungen wurde diese Unsicherheit „implementiert“, indem Werte zufaellig ausgewaehlt wurden und das hat das oben praesentierte Histogramm zur Folge.
Die kumulative Wahrscheinlichkeit (die ja aus dem Histogramm folgt) sagt uns nun, dass bei unserem derzeitgen Wissensstand, oder vielmehr bei unserer derzeitigen Unsicherheit bzgl. der Parameter, wir uns nicht wundern sollten, dass wir keine galaktischen Nachbarn sehen … oder høren? … aber Radiowellen sind ja auch nur elektromagnetische Wellen, also ist „Sehen“ gar nicht so verkehrt. Wieauchimmer, Letzteres ist die „Fermi Beobachtung“ und diese liegt absolut innerhalb dessen was zu erwarten ist, bei adaequater Betrachtung unserer Unsicherheiten.
Im Wesentlichen ist das das gleiche Argument, warum Physiker zehn Fantastilliarden Messungen machen bevor wir  eine Entdeckung verkuenden. Selbst dann, wenn nach der 23. Messungen schon klar ist, was man vor sich hat. Eben um den „Raum der Møglichkeiten“ weiter einzuschraenken — oder anders: um unsere Unsicherheiten kleiner zu machen.

Aber mich duenkt SDO druecken das besser aus (alle Hervorhebungen von mir):

[…] this conclusion does not mean that we are alone (in our galaxy or observable universe), just that this is very scientifically plausible and should not surprise us. It is a statement about our state of knowledge, rather than a new measurement.

Und das ist dann auch die Aufløsung des Paradoxons! Denn …

[t]he Fermi observation […] provides only very weak evidence about whether we will soon go extinct or whether interstellar communication or travel is impossible.

Die Fermi Beobachtung ist unser (einziger) Messwert, der im Zusammenhang mit punktgenauen Angaben fuer die Parameter der Drake-Gleichung oft als Paradoxon interpretiert wird. Und dieses Paradoxon wird oft genug maximal fatalistisch interpretiert. Nur die Interpretation als Paradoxon ist bereits falsch, denn wenn man die Unsicherheiten ordentlich mit einbezieht, dann ist das ueberhaupt kein Paradoxon. Vielmehr ist die Fermi Beobachtung einfach nur eine weitere, gar nicht mal so unwahrscheinliche Møglichkeit in Raum aller Møglichkeiten. Oder anders (und wieder besser) in den Worten von SDO:

While using point-estimates in the Drake equation frequently generates estimates of N that would produce a Fermi paradox, this is just an artefact of the overconfidence implicit in treating them as having no uncertainty.

Und das finde ich natuerlich ziemlich knorke, wenn wir nicht alle garantiert sterben muessen.

Die obigen Berechnungen sind nur eine ganz krude Implementierung unserer Unsicherheit in die Diskussion rund um die Ergebnisse der Drake-Gleichung. SDO haben das dann noch rigoros mathematisch behandelt und kommen (bei unserem derzeitigen (Un)Wissensstand) auf gar noch deutlich høhere Wahrscheinlichkeiten, fuer das keiner-da-zum-spielen-Szenario.

Wobei zu sagen ist, dass diese Erkentniss nicht an und fuer sich neu ist. Im wissenschaftlichen (im Gegensatz zum populaeren) Diskurs wurde die Møglichkeit dass N = 1 ist immer als ein wahrscheinliches Resultat akzeptiert.

Zum Abschluss des Artikels møchte ich dann noch sagen, dass das obige Ergebniss auch komplett anders interpretiert werden kann: (sehr) grosze Werte liegen mit guten Wahrscheinlichkeiten innerhalb des Møglichkeitraumes und wir sollten absolut Lauschen ob einer unserer Nachbarn „Hallo“ sagt :)

Eigentlich wollte ich was ueber die Normalverteilung schreiben und wie das mit dem Fortschreiten der Menschheit in eine ganz wunderbare Zukunft zu tun hat.

Dummerweise geht das nur, wenn man ueber die Anzahl wirklich intelligenter Menschen redet. Selbstverstaendlich tragen alle Maedchen und Jungs, Maenner und Frauen (und alle nichtbinaeren Leute natuerlich auch) dazu bei, dass es den Menschen um sie herum gut geht … das ist wichtig fuer so eine Art grundlegenden Wohlstand. Aber es braucht nun mal einen Gauss, Goethe, Gates etc. pp. um neue Ideen zu entwickeln und eben _voran_ zu schreiten … was ueber die Menschheitsgeschichte gesehen als eine Rueckkopplung immer einen gehobenden grundlegenden Wohlstand zur Folge hatte … trotz aller furchtbaren Sachen die dabei auch geschehen … aber ach, ich will hier eigentlich gar nicht in eine derartige Richtung abschweifen.

Aber wenn man ueber die Intelligenz von Menschen redet … neee … das ist ja genau das Problem! Es gibt dazu nix handfestes! Und schon gar nicht in neuerer Zeit.
Aber ich greife vor. deswegen nochmal von vorne.

Meine zwei Einschuebe von neulich lieszen mich etwas unbefriedigt zurueck. Ich wollte klar machen, dass allgemeine Bildung extrem wichtig ist. Nicht nur fuer das Individuum oder besagten grundlegenden Wohlstand, sondern eben gesehen auf unsere gesamte Spezies und hunderte, ja tausende Jahre zurueck geschaut bzw. in die Zukunft projiziert.

Aber dann ist es eigentlich so, dass Bildung nur eine Art „Stellvertreter“ fuer ein viel unklareres Konzept ist. Dieses Konzept habe ich auch bereits angesprochen: Wohlstand.  Eine Erhøhung des Wohlstands, ob zeitlich und ørtlich lokal, oder global gesehen, geht immer mit einer Erhøhung des Bildungsniveaus einher. Aber auch das ist nur ein Stellvertreter fuer ein noch unklareres Konzept: Fortschritt.

Das Bildungsniveau ist (trotz aller Kritik) messbar auf dem individuellen, gesellschaftlichem, und globalen Level. Zensuren sagen zwar laengst nicht alles, sind aber i.A. doch korelliert mit spaeteren Lebenslaeufen. Auf „høheren“ Ebenen waeren konkrete Messgrøszen dann bspw. die Anzahl der Studienabschluesse, die Anzahl wissenschaftlicher Artikel oder (*schauder*) Patente pro Land und Jahrzehnt.
Das ist alles ganz und gar nicht „unkompliziert geradeaus“, aber man sieht zumindest statistisch robuste Korrelationen zwischen diesen Messgrøszen und der Anzahl der (weiterfuehrenden) Schulen und Schuljahre.

Wohlstand zu messen wird dann schon deutlich schwieriger. Das Bruttoinlandsprodukt ist gar nicht mal so schlecht. Dennoch muss man nur mal in die USA oder nach Sachsen schauen um zu sehen, wie wenig Wohlstand in groszen Gebieten und bei vielen Menschen vorhanden ist, trotz eines richtig guten Bruttoinlandsprodukts. Dennoch, auch fuer die allermeisten Menschen in diesen Bevølkerungsgruppen kommt der Strom zuverlaessig aus der Steckdose und das Wasser aus der Wand … verglichen mit all zu vielen nicht-„westlichen“ Laendern ist das ein immenser Wohlstand.

Und wo kommt der ganze Wohlstand heutzutage her? Na ganz klar, weil ein paar Individuen sich hingesetzt haben und erkannt haben, dass sich die Erde um die Sonne bewegt, dass ’ne Dampfmaschine benutzt werden kann um Minen zu entwaessern, dass man Stickstoff aus der Luft ziehen kann um damit Duenger herzustellen, dass man mittels abgestorbener Krankheitserreger Menschen immun machen kann gegen furchtbare Krankheiten, dass Halbleiter ganz toll sind um elektrisches Zeug zu schalten usw. usf. ueber viele Jahrtausende.

Aber wie zum Teufel soll man das messen? „Smart“phones sind definitiv Wohlstand, aber auch Fortschritt? Das Internet (was ist das eigentlich?) ist sicherlich Fortschritt, aber wie viele „Schritte“ hat es die Menschheit denn voran gebracht? Der Transistor und Strom (aus der Steckdose) sind definitiv als Fortschritt zu erkennen und diese zwei haben die Menschheit gewaltig viele Schritte voran gebracht. Aber was „messe“ ich denn da eigentlich und wie ist die Skala eingeteilt?

Ach du meine Nase!

Wir wollen Fortschritt, dass Konzept ist aber nicht klar definiert und kann somit nicht gemessen werden. Wir (als Menschheit) sind deswegen auf andere Konzepte ausgewichen und haben uns dann (als Menschheit) die Scheuklappen aufgesetzt und nur diese diskutiert.

Durch die Rueckkopplungsschleifen zwischen diesen drei Dingen wird es aber noch viel komplizierter.
James Clerk Maxwell konnte sich nur Gedanken um die Natur elektromagnetischer Wellen machen (Fortschritt), weil er die nøtige Bildung dafuer hatte. Und die nøtige Bildung hatte er nur, weil er nicht auf dem Feld Weizen anbauen mussten (Wohlstand). Er musste keinen Weizen anbauen, weil (nicht nur) die agrartechnischen Produktionsmethoden so viel besser waren als waehrend des rømischen Reiches.

Bildung zeugt Fortschritt zeugt Wohlstand zeugt Bildung … oder: Fortschritt zeugt Wohlstand zeugt Bildung zeugt Fortschritt … oder: Wohlstand zeugt Bildung zeugt Fortschritt zeugt Wohlstand.

Soweit ganz kurz zu den Sachen die diesem Artikel dieser kleinen Serie hier zugrunde liegen. Dieses ganze Themengebiet schwirrt mir schon seit vielen Jahren durch den Kopf. Meist im Zusammenhang mit, wohlwollend ausgedrueckt, eher konservativen Meinungen. In der direkten Form waeren solche Meinungen von der Art „Die Faulen sind selber Schuld, dass es denen so schlecht geht“. Aber sehr oft trifft man besagte Meinungen auch in der hinterhaeltigen Form an wie beispielsweise: „Wenn viele Leute die Homoehe nicht wollen, sollte man das dann gesetzlich verankern?“ … also im Sinne dessen, dass man Bevølkerungsgruppen die nicht sowieso schon am Reichtum teilhaben, die Teilnahme an besagtem Reichtum doch lieber nicht erlauben sollte … nur halt derart ausgedrueckt, dass es den Anschein hat, als ob der Rest der Bevølkerung das auch meint; deswegen „hinterhaeltig“.

Meine Antwort zu all diesen konservativen Meinungen ist: damit die Menschheit zu den Sternen gelangen kann, muss die Lebenssituation (a.k.a. Wohlstand) aller (!) Menschen verbessert werden. Dies nicht nur auf globalem, sondern auch auf lokalem, ja individuellem Niveau.
Der Grund ist, dass ich ueberzeugt bin, dass es immer noch viel zu viele Menschen wie Srinivasa Ramanujan gibt, nur dass auf diese niemand durch Zufall aufmerksam wird. Deswegen muessen sie ihr Potential benutzen um zu ueberleben anstatt den Warpantrieb zu erfinden. Etwas tangential, aber dies doch betreffend, frage ich mich bspw., wie viele „Verbrecherkønige“ eigentlich wirklich schlaue Menschen sind, die einfach nur ganz unten auf die Welt kamen und das der einzige realistische Ausweg war? … *seufz*.

Das ginge alles ganz einfach zu beweisen, wenn man zeigen kønnte, dass es urst viele wirklich schlaue Menschen in furchtbaren Lebensumstaenden gibt, und der Menschheit am besten geholfen waere, wenn man sich nicht auf zufaellige Entdeckungen durch Maezenin und Maezen verlaeszt. Wie soll man aber die Exzistenz von etwas beweisen, was es _offiziell_ gar nicht gibt?
Selbstverstaendlich gibt es diese intelligenten Menschen in furchtbaren Lebensumstaenden. Rein statistisch muss das schon so sein und die vielen Anekdoten tun ihr Uebriges um auf deren Vorhandensein zu schlieszen. Aber _offiziell_ gibt es diese Menschen erst, wenn sie bspw. in einer Studierendenstatistik auftreten oder wissenschaftiche Artikel verøffentlichen. Dies geschieht aber so oft nicht, weil die Lebensumstaende das nicht zulassen. Ergo, muessen wir die Lebensumstaende aller Menschen verbessern, weil wir begabte Individuen eben NICHT gezielt førdern kønnen, bevor diese „erkannt“ sind. Die Lebensumstaende aller werden aber nicht gehoben, weil das nicht als notwendig anerkannt ist fuer den Fortschritt (durchaus aus moralischen Gruenden aber mehr auch nicht). Somit bleiben begabte Menschen in besagten Lebensumstaenden  … da schlieszt sich der Kreis.

Und damit komme ich zum ganz konkreten Problem was ich im allerersten Satz dieses Artikels anriss. Damit das aber keine rein theoretische Diskussion wird, wollte ich es ueber einen ganz pragmatischen Ansatz versuchen: Fortschritt haengt von wirklich schlauen Leuten ab, von denen gibt es aber nicht so viele. Schlauheit messen wir nun ueber den „IQ“ (jaja, das Fass mache ich naechstes Mal ganz kurz auf … und dann ganz schnell wieder zu), und wenn wir den Durchschnitts-IQ aller Menschen erhøhen (bspw. durch Masznahmen welche die Lebensumstaende verbessern), dann fuehrt dies zu ueberproportional mehr wirklich schlauen Mensche und somit geht es schneller voran.

Dummerweise ist die Vermesung der Intelligenz ein schwieriges und  entzuendetes Thema in der Wissenschaft und Gesellschaft … aber ich møchte an dieser Stelle abbrechen, denn der Text hier ist schon wieder so lang. Ach verdammt … das sollte doch nur ein Artikel werden (siehe ganz oben) und nun wird’s doch wieder ’ne (kurze) Serie … nun ja, so ist das eben.