Statistikkens gåde: Virkeligheden er ikke en perfekt terning

Der findes et fænomen inden for statistikken, som man ikke så gerne taler om: Hyppigheden af sjældne udfald falder, jo flere data man har. Det giver ingen mening, ingen forstår det, og klassiske statistiske test kan ikke håndtere sagen.

'Viel Geschrei und wenig Wolle,' sagde bonden, da han klippede sin so. Sådan kan man efterhånden også beskrive den moderne forsker og hans arsenal af eksperimentelle data. Til at begynde med viser de måske opsigtsvækkende resultater og stærke korrelationer, men jo oftere man gentager eksperimentet, jo mere skrumper de store effekter til det ubetydelige.

Tænk på de storsælgende antidepressive lægemidler som Fontex og Cipramil, der virkede fint for ti år siden. I dag er deres beviselige effekt skrumpet til en tredjedel eller mindre. Tænk på smitsomheden af svineinfluenzaen AH1N1, der faldt, jo større epidemien blev. Tænk på kold fusion. Tænk på antallet af fatale trafikuheld per capita, som aftager med antallet af bilister. Tænk på forretningsverdenen, hvor man længe har vidst, at profitten har tendens til at falde med kapitalvoluminet, uden at man egentlig ved hvorfor.

Hvad er det, der sker? Der synes at eksistere en henfaldstid for sjældne fænomener, som om de var radioaktivt materiale. Sunde dobbeltblinde eksperimenter med signifikante resultater kan ofte ikke gentages. Protokollerne er i orden, data korrekt indsamlet, fejlkilderne de samme - men alligevel er udfaldene dårligere end før. De signifikante data forsvinder som dug for solen. Utallige forskere har oplevet, hvordan deres eksperimenter simpelthen mister deres reproducerbarhed, og hvis der er noget, som pr. definition er uvidenskabeligt, er det ikke-reproducerbare data.

(Tegning: Lars Refn)

Oversanselige evner - ESP

Videnskaben har kendt til fænomenet længe. Men i stedet for at kaste et kritisk blik på den videnskabelige metode, har man som regel blot forkastet de eksperimenter, der udviste den slags datainflation og i stedet mistænkt forskerne for fusk. Ikke usandsynligt er dette en grund til, at de såkaldt 'bløde' videnskaber som sociologi, psykologi og medicin har fået et dårligere ry end fortjent.

Faktisk stammer de første beretninger om denne tabuiserede og endnu ikke navngivne effekt fra den 'alternative' scene. Psykologen Joseph Banks Rhine fra Duke University udviklede i 1930'erne en test for telepati ved hjælp af de såkaldte Zener-kort - 25 kort med ét af fem forskellige symboler printet på den ene side af hvert kort. Forsøgspersoner skulle gætte, hvilket symbol der var på kortene.

Som forventet ramte de plet i cirka 20 pct. af tilfældene - undtaget studenten Adam Linzmayer, en helt almindelig arbejdersøn fra New Jersey. Han ramte rigtigt i 36 pct. af tilfældene. Sandsynligheden for, at sådan noget sker, er en ud af to millioner. Men Linzmayer gjorde det tre gange i træk, og i et uofficielt forsøg i Rhines bil ramte Linzmayer 21 ud af 25. Dette burde kun ske i ét ud af 92.027.922.393 forsøg.

Rhine var begejstret og skrev flere forskningsartikler om eksperimentet. Men da han senere ville reproducere sine resultater, kunne Linzmayer ikke mere. Han havde mistet evnen. Senere forsøgte Rhine sig med andre 'medier', men han måtte se det samme tab af evne ske igen. I mellemtiden opfandt Rhine begrebet parapsykologi, inspirerede utallige forskere til at eksperimentere med telepati, telekinese og andre oversanselige evner (også kaldet ESP, en forkortelse for 'extrasensory perception'), og var samtidig en af de første, der beskrev dette forfald af 'spændende' data i en metaanalyse i 1940.

Man skal huske på, at den videnskabelige viden om ESP var meget begrænset i 1940'erne og 1950'erne. Derfor kunne forskere stadig håbe på at offentliggøre data fra deres blinde eksperimenter i respekterede fagblade som Nature (dobbeltblinde eksperimenter var endnu ikke opfundet). Men efterhånden blev det klart, at det eneste, disse velkontrollerede eksperimenter viste, var, at der findes et stabilt og uforståelig fald i antallet af 'overnaturlige' fænomener: De begynder med at være mange, men udviskes til sidst til at være uskelnelige fra støjsignaler.

Den gængse forklaring på fænomenet er den såkaldte publikationsbias, også kaldet 'file-drawer'-effekt: kun de eksperimenter, som viser en positiv korrelation, bliver publiceret, mens dem, som ikke viser nogen effekt (eller en negativ effekt) forbliver i skuffen. Problemet er dog, at publikationsbias umuligt kan være hele forklaringen. Mange eksperimenter er vitterlig blevet gjort under velkontrollerede forhold, hvor alt er blevet publiceret. Effekten viser sig stadig.

Heller ikke de store tals lov, dvs. en simpel konvergens hen imod et gennemsnit, er en tilstrækkelig forklaring. Det kan f.eks. ikke forklare, hvorfor der i begyndelsen er så mange usandsynlige. Den amerikanske statistiker John Ioannidis fra Tufts University mener, at forskere altid jagter signifikans, og at årsagen må findes i en dybereliggende bias end en publikationsbias. En slags psykologisk refleks hos forskeren, som bider sig fast i en hvilken som helst korrelation, og bliver blind for alt andet.

Mønstre overalt

I en meget læseværdig artikel i The New Yorker fra 13. december skriver Jonah Lehrer om andre forskere, der har oplevet fænomenet. Den danske zoolog Anders Pape Møller fra Uppsala Universitet sparkede f.eks. i 1991 en hel serie af eksperimenter i gang, da han opdagede, at svalehunner har en langt større tendens til at parre sig med symmetriske svalehanner end med hanner med en asymmetrisk fjerdragt.

Inden længe opdagede man fænomenet (kaldet fluktuerende asymmetri) hos alt fra bananfluer til mennesker, men jo flere undersøgelser der kom, jo mindre blev effekten. I 1993 var det 10 ud af 10 artikler, der bekræftede fænomenet, i 1994 8 ud af 14, i 1995 4 ud af 8, og frem til 1998 var det 3 ud af 12. Og selv dem, som understøttede Møllers teori, så korrelationen falde med 80 procent.

En andet eksempel fra New Yorker-artiklen er psykologen Jonathan Schooler, som i de sene 1980'ere opdagede, at vi mennesker har tendens til at glemme ting, som vi har beskrevet med ord. Han kaldte fænomenet 'verbal overshadowing', og blev berømt på det. Men samtidig blev det sværere og sværere for ham at gentage sine egne eksperimenter. Han gjorde præcis det samme som før, men effekten aftog, jo mere han forsøgte. Schoolers private betegnelse for denne statistiske mærkværdighed var 'cosmic habituation', og han indrømmer, at den var meget frustrerende.

Forklaring søges

Selvom statistikere siden 1950'erne har udviklet dobbeltblindtest og funnelgrafer, er der altså stadig noget underligt på færde. Ifølge Dean M. Brooks fra Ekaros Analytical Inc. i Vancouver var den første, der tog problemet alvorligt den engelske matematiker og filosof George Spencer-Brown, der havde været kollega til Bertrand Russell og studeret under Ludwig Wittgenstein. Desværre er Spencer-Browns arbejde stort set glemt i eftertiden.

I bogen Probability and Scientific Inference fra 1957 foreslog Spencer-Brown, at alle disse typer af ESP-eksperimenter ikke var andet end tilfældighedsmaskiner, og hans tanke var, at forfalds-effekten måske var tegn på en subtil defekt ved sandsynlighedsteorien som sådan. For at teste sin hypotese gentog han Rhines klassiske Zener-kort-eksperiment, men denne gang var det ikke en person, som skulle gætte, men et andet sæt Zener-kort, der skulle simulere forsøgspersonen, godt blandet. Det var smart, for på den måde blev alle eventuelle paranormale og subjektive komplikationer visket af bordet som irrelevante.

Eksperimentet viste den velkendte effekt: Sjældne hændelser, som f.eks. at ramme rigtigt syv gange i træk, klyngede sig sammen i begyndelsen, men aftog med tiden. I et forsøg med kun 100 gæt ville den første fjerdedel have signifikant flere sjældne udfald (p<0,05) end den sidste fjerdedel. Da Spencer-Brown offentliggjorde resultatet i fagbladet Nature, var der kritik, men en uafhængig kontroltest bekræftede sagen. Mærkeligt nok blev Spencer-Browns arbejde hurtigt glemt.

I nyere tid er sagen dukket op igen - i en ny forklædning. Forskere som Herbert Simon, Benoit Mandelbrot og danske Per Bak opdagede nemlig, at naturen består hovedsageligt af denne type af distributioner (tænk på jordskælv, artsuddøen, skovbrande og trafikpropper).

Data fra den virkelige verden er ofte givet ved Benfords lov, Zipfs lov, Smeeds lov og lignende empiriske power-love - alle sammen kendetegnet ved at være udpluk fra en dynamisk proces. Hvis Spencer-Browns eksperiment derfor er et udslag af ikke-ligevægtsdynamik, så er vores forståelse af, hvad et tilfældigt tal er, stadig alt for primitiv.

Som løsning foreslog Spencer-Brown i 1957 at teste tilfældighed ved ikke kun at bruge standardmetoden, nemlig at kigge på sekvensen af individuelle hændelser, som man definerer som (håber på er) uafhængige. Man skal også teste for uafhængigheden af grupper af hændelser (to et-taller i træk i forhold til andre totalskombinationer, tre sekstaller i træk i forhold til andre tretalskombinationer, etc.). Denne procedure vil afsløre, at korrelationer kan leve længe, og at ægte tilfældighedsmaskiner er meget (meget!) svære at lave i virkeligheden.

Helten hedder Edwin Jaynes

Ifølge Brooks findes der dog en god forklaring på, hvorfor Spencer-Brown og alle os andre ser hyppigheden af sjældne udfald falde, jo flere data der haves. Forklaringen blev faktisk givet samme år af fysikeren Edwin T. Jaynes i en artikel i Physical Review Series II, og er siden blevet kendt som princippet om maksimal entropi - eller blot 'MaxEntteorien'.

MaxEnt går kort fortalt ud på at antage, at vores viden om et givent datasæt er så ufuldstændig, at vi må maksimere entropien af distributionen, for i det mindste at få et retvisende billede af vores uvidenhed. Det svarer lidt til, når du bliver sendt i supermarkedet af din kone for at købe ind til aftensmaden, desværre uden at du har hørt efter, da hun fortalte, hvad der skal kokkereres. Kvik som du er, køber du de mest sandsynlige ting for de penge, som hun har givet dig i hånden, for på den måde at maksimere muligheden for at ramme plet. Dette svarer til at maksimere sin entropi.

Det gode ved Jaynes tilgang er, at den er komplet uafhængig af det konkrete fysiske system. Den har ikke nogen foretrukken kausalitet, og kan bruges i enhver situation, også i situationer, hvor data er genereret af en ukendt flux. Metoden kan derfor bruges til at luge ud i de ofte hjemmelavede sandsynlighedsfordelinger over fysiske processer, hvor forskeren har svært ved at adskille viden og uvidenhed. Den bruges allerede med stor succes inden for fysisk modellering og kvantemekanikken, men har endnu ikke fundet indpas inden for de statistiske signifikanstest (kaldet Diehard), der anvendes af lægevidenskaben og andre evidensbaserede forskningsområder.

Som et konkret eksempel, tag en terning og kast den rigtig mange gange. Teoretisk set vil MaxEnt-distributionen konvergere mod den klassiske distribution, idet vores uvidenhed om udfaldet er maksimeret ved at sætte sandsynlighederne for de seks sider ens - en sjettedel til hver. I det virkelige liv findes der dog ikke nogen perfekt terning. Det kan være, at kanten mellem 5 og 6 er skæv og hjørnet mellem 1 og 2 og 3 er en smule fladt.

Antag, at det gennemsnitlige udfald bliver 3,4 og ikke 3,5 som forventet ved en perfekt terning. Den klassiske statistiske test, som automatisk antager perfekte og uafhængige data, vil inden længe 'opdage' kold fusion og en mystisk kur mod cancer, som dog aldrig kan reproduceres. Princippet om maksimal entropi vil blot vise, at der er noget i gære, og få forskeren til at arbejde videre og tænke sig om en ekstra gang.

Kommentarer (21)

Det uhyggelige er, at efter blot nogle få varme år, tror videnskabsfolk over hele verden, at jorden nærmer sig sin undergang - og ikke nok med det, man opfinder underlige skatter og bilder en hel generation ind at enden er nær - men sådan er der jo så meget....

  • 0
  • 0

Spencer-Brown skulle have fortsat sin målerække indtil signifikansen ligeledes forsvandt fra hans egne målinger, hvilket havde været det ypperste bevis for at han havde ret... og tog fejl på samme tid.

Altså hans eget eksperiment er en statistisk anomali, der beviser at sådanne anomalier forsvinder efterhånden som man tester videre.

Pudsigt nok har vel fulgt nøjagtig de samme videnskabelige metoder, som alle de andre, der også har en tidlig overrepræsentaton af anomalier.

  • 0
  • 0

Det er nok derfor - når man spiller wist med familien til jul og først på aftenen kan der være mange gode spil hvor man har gode kort, men efterhånden bliver kortene bedre blandet og spillene bliver dårligere..... Nå ja en lille juleteori :-)

  • 0
  • 0

Lad os sige, at man vil undersøge, om æblekerner mindsker gigt.

I en dobbelt-blindtest finder man, at 30 personer ud af 100 i en placebogruppe "ja" til, at de har mindre smerter. I æblekernegruppen er tallet 29 ud af 100.

Man konkluderer altså, der æblekerner ikke virker. Fint.

Nu gentager man forsøget med:

  • Gulerødder
  • Pistacienødder
  • Guitarspil (placebogruppen spiller mundharpe i stedet for guitar)
  • Sang (placebogruppe skal tale i stedet for at synge)
  • Dyne med elektriske felter
  • Kyllingekød
  • Dyne med magnetiske felter

Og man får tallene (placebo, ikke-placebo):

31, 26
30, 30
26, 28
60, 61
30, 25
37, 34
60, 11

Vi kan ved "Dyne med magnetiske felter" se, at 60% - 11% = 49% får det bedre, statistisk set! Altså må det hjælpe.

Så hvis man udfører et tilstrækkeligt stort antal eksperimenter, så vil man på et tidspunkt ad tilfældighedens vej finde en mirakelkur med statistisk set fantastiske resultater. Men eksperimentet kan ikke reproduceres.

I visse tilfælde vil et resultat kunne reproduceres. Men dette har også været en statistisk fluktuation hvilket skaber endnu mere forvirring, som Linzmayer i artiklen oplevede.

I dag hvor meget forskning sker automatisk med datamining af kæmpe mængder statistiske data fra sygehuse, fødevareinstanser, mv, vil der opstå mange af den slags ikke-reproducerbare resultater.

  • 0
  • 0

Det forholder sig vel oven i købet sådan, at denne effekt bliver forstærket, når man ser på almindelige mediers gengivelse af videnskabelige resultater?

Medierne er stærkt tilbøjelige til ensidigt at omtale videnskabelige undersøgelser med mærkværdige og usædvanlige resultater. Med den virkning, at offentligheden får et fordrejet billede - selv om de pågældende undersøgelser kan være helt efter bogen, altså videnskabeligt korrekt udført.

Specielt når det drejer sig om noget med sundhed og ernæring kan det være et problem, vil jeg mene.

  • 0
  • 0

Ja, en journalistkollega fortalte at det f.eks. er meget hyppigt at man hører en historie, får den bekræftet af en kilde eller to, men jo mere man graver i historien, jo mindre kød er der på den. Til sidst forsvinder den helt.

  • 0
  • 0

Eksempel 1:
"Jo flere biler på vejene, jo mindre virkning."
Ordet "biler" er en definition er ændrer sig, uden at en statistiker opdager det. I den fysiske verden sker der et skifte, at jo flere biler i et land, jo bedre biler, og jo bedre veje, og bedre skiltning, bedre kørelærere, og så videre.

Eksempel 2:
"Jo flere der bruger pille X, jo mindre virkning."
Ordet "flere" er et antal af mennesker, hvor "mennesker" bliver forandret over tid, uden at en statistiker opdager det. I den fysiske verden, er altid en ændringskurve over hvilke kunder der anvender en vare. I begyndelsen er det kun nysgerrige, der anvender en helt nyopfunden vare, dernæst bliver varen købt af de kunder der har et meget stort behov for varen, dernæst af en endnu større mængde af kunder som kun delvist har et behov, dernæst ankommer kunder der kun kopierer uden at have et behov, og efterhånden optræder en skuffelse og træthed i markedet, varen udfases. (Desuden ankommer der konkurrent-varer og falske varer til markedet).

Eksempel 3:
"Smitsomhed af sygdom C falder, jo flere er er ramt af sygdommen."
Når en statistiker påstår dette, forstår han/hun ikke hvad der foregår i den fysiske verden. Når en sygdom begynder af sprede sig, har mennesker intet kendskab til sygdommen, undlader at ændre adfærd. Jo mere sygdommen udspreder sig, jo mere begynder mennesker at undgå den adfærd der muliggør en spredning.

Generelt om statistik: Fagområdet er et redskab til at udsprede misinformation. Det anvendes kun af ledere til at narre beslutningstagere til at træffe forkerte beslutninger. Der er altid en falsk agenda, et komplot. Den eneste undtagelse er, når man laver en statistik til sig selv, for da kender man til alle svaghederne i det påståede statistiske resultat. Kun meget sjældent bliver statistik lavet til selvforbrug. Fordi: Det er meget sundere at kigge på alle originale data, tilpasse sin adfærd til disse, end at styre ved hjælp af et indskrænket billede.

  • 0
  • 0

  • forsøget, hvor partikler opbygger et bølgemønster bag dobbeltspalterne. Først lander de meget "individuelt" uforudsigeligt, men efterhånden som inteferensmønstret opbygges falder uforudsigeligheden.
    Vi kan ikke forudsige mønstrets opbyggelse, kun at det vil opbygges.
  • 0
  • 0

En parallel med kvantemekanikken var Dean Brooks også ind på da jeg interviewede ham. Hans analogi er som følger: forestil dig et stort badekar med vandmolekyler (virkeligheden som du kender den). Så hælder du en spand kogende vand i (din idé) og måler på temperaturen af badekaret forskellige steder - i gennemsnit vil den være steget (du ser en signifikant effekt). Men for hver gang man laver et nyt eksperiment, øges badekarrets volumen, og den resulterende effekt udvandes fordi entropien maksimeres hen over hele det kendte system.

Lyder rigtigt, men jeg forstår stadig ikke, hvordan ét uafh. eksperiment kan kende til et andet uafh. eksperiment. Entaglement?

  • 0
  • 0

Jakob, det er den konsekvente overrepræsentation af anomalier i begyndelsen, der er artiklens kerne, og ikke den trivielle pointe om at de store tals lov vil vinde i sidste ende.

  • 0
  • 0

Jakob, det er den konsekvente overrepræsentation af anomalier i begyndelsen, der er artiklens kerne, og ikke den trivielle pointe om at de store tals lov vil vinde i sidste ende.

Hej Robin Tak for svar.
Jeg tror jeg har fattet det, men måske er jeg bare triviel... ;-)

Min pointe er at Spencer-Browns forsøg i sig selv repræsenter en sådan initiel overrepræsentation af anomalier, og at hvis han han gentog sin målerække mange gange, så ville hans anomalier også forsvinde hen ad vejen. Faktisk ville hans forsøg kun kunne bevise sig selv ved at modbevise sig selv.

Altså hvis der kom en meta-Spencer-Brown og studerede Spencer-Brownske forsøg, så ville metaSpenceren iagtage at det kun var de første Spencer-Brown forsøg, der rummede den anomali at de kunne påvise initielle anomalier.

OK maybe this is above my station, men Robin har du tænkt godt nok over det jeg famlende prøver at formulere, eller er du sprunget til den antagelse at det er en triviel misforståelse?

  • 0
  • 0

Sendes elektroner mod dobbeltspalten usamtidigt, synes de at have en aftale om at opbygge et smukt inteferensmønster. Disse forsøg kan ikke forklares med en partikelmodel af elektronen. Elektronerne synes her ikke bare at være sammenfiltret i rum men også i tid. Og om tid ved man ikke ret meget, J.Trefil: Fysikeren ved ikke hvad tid er, kun hvordan den måles.
Mere end noget andet er netop dette i kvantefysikken vendt og drejet i en uendelighed. Forsøget er "tilfredsstillende" forklaret, men alligevel kan forskerne ikke slippe det og forsøger at afsløre en dybere forståelse - med Einsteins ord "Jeg vil kende Guds tanker". Bohr klarede sig fint uden, og synes vi skal lade Gud være i fred.

  • 0
  • 0

Hej Jakob, måske er jeg trivielt galt på den, men spørgsmålet må være, hvorfor det absolut altid er den første og anden Spencer-Brown der finder de store anomalier, og ikke den 117. Spencer-Brown. Faktisk finder den 117. Spencer-Brown som regel en underrepræsentation af anomalier, hvilket jeg heller ikke forstår. Hvorfor er anomalierne ulige fordelte?

  • 0
  • 0

Hej Robin nu tror jeg vi forstår hinanden!

Så Spencer-Browns forsøg er først rigtigt verificeret, når det ikke længere kan reproduceres.

Mht hvorfor anomalierne er ujævnt fordelte, en lille betragtning fra mit arbejde med computere. I halvfemserne producerede jeg multimedie, og den tids udtsyr havde det med at crashe flere gange om dagen. Op til Deadlines crashede udstyret endnu mere end normalt, hvilket man jo umiddelbart instinktivt tilskriver en form for 'væsen' i computeren "Ghost in the Machine".

En af mine kolleger kom med den pragmatiske betragtning at computerne crashede hyppigere fordi vi mennesker ændrede adfærd op til Deadlines, og pressede maskineriet mere end normalt.

Det lyder banalt, men det er bare endnu et eksempel på at de eksterne fænomener vi observerer, og tror er uafhængige af vores handlinger i virkeligheden ER påvirket af os.

Jeg tror også det er derfor jeg synes at det er interessant at fastholde fokus på Spencer-Browns paradoks.

  • 0
  • 0

Ville det i øvrigt ikke være særlig interessant, om dette statistiske fænomen optræder på helt samme måde i eksperimenter, hvor man får kvantemekaniske effekter til at optræde i makroskopisk målestok?

Jeg tænker på sådan noget som det her:

http://www.videnskab.dk/composite-5909.htm

Der kunne måske være god grund til omhyggeligt at bevare resultaterne fra samtlige forsøg omkring dette fænomen. Måske dette statistiske fænomen så ikke optræder på samme måde (fordi man får kvantefysik og klassisk fysik til at "kollidere").

  • 0
  • 0

Er det også dette paradoks som forårsager begynders held i spil?

Uden at ane hvad jeg taler om vil jeg fremføre, at det jo i hvert fald netop er karakteristisk for en begynder at adfærden er anderledes, end senere hvor spilleren ikke længere er begynder. Det er nok og forventeligt at eb begynder typisk vil have en mere anormal adfærd end senere, hvor adfærden i højere grad vil blive låst ind i faste mønstre, som udgør spillerens 'stil'.

  • 0
  • 0

Som bekendt er menneskers subjektive opfattelse af tilfældighed ikke helt i overensstemmelse med rent matematisk sandsynlighed. Hvis man for eksempel beder en gruppe mennesker om at fordele sig tilfældigt på en åben plads, så vil de bevæge sig rundt i et stykke tid, indtil de finder et mønster, som de alle er enige om virker tilfældigt. Det mærkelige er så bare, at dette mønster typisk mangler noget, der netop optræder ved egentlig tilfældighed: små klynger af personer, der står relativt tæt sammen.

Gad vidst hvordan denne afvigelse fra gældende "matematisk tilfældighed" forholder sig til den problematik, der omtales i artiklen?

  • 0
  • 0

I Apples musikprogram iTunes kan man afspille numre i tilfældig rækkefølge - fx på tværs af samtlige artister. I begyndelsen var denne funktion bare normalt 'computer-tilfældig', hvilket jo fx medførte at numre af samme kunstner kunne klumpe sig sammen i rækkefølge.
Dette oplevede brugerne ikke som rigtigt tilfældigt, så Apple har nu introduceret en slider som har almindeligt tilfældigt i midten, og så større eller mindre klumpighed mod hver ende.

Måske kunne man lave lidt marketingsstunt med en 'Ægte videnskabelig tilfældighed', hvor man med en Spencer-Brownsk emulator, emulerer samme dynamiske tilfældighedsforløb, som observeret i forsøg udført efter 'den videnskabelige metode', altså med en overrepræsentation af anormale valg i starten, og så efterhånden en forsvinden af anormaliteten.
Hvordan det så end skulle manifestere sig.
Måske noget med at den i starten valgte numre med Hansi?

  • 0
  • 0

Den meste videnskab drives af forskeres forsøg på at afdække nye interessante fænomener. Endvidere formidles videnskabelige resultater udfra deres underholdningsværdi (omend definitionen af underholdning kan være nok så nørdet indenfor de fleste faggrupper).

Pointen er at de mange eksperimenter, som ikke udviser nogen form for anomali videnskabeligt set er uinteressante og/eller umulige at formidle. Vi hører derfor ikke om dem.

Hvis Spencer-Brown havde lavet sit forsøg og havde fundet nogenlunde de resultater, som statistikken forudsagde, havde han nok ikke forsøgt at publiceret det, men blot konstateret at det jo var hvad man kunne forvente. Havde han forsøgt at publicere sådanne resultater ville de formentlig blive afvist eller i sidste ende ignoreret med let overbærenhed af læseren.

Så mon ikke en del af forklaringen ligger i at vi ikke gider høre om de kedelige resultater?

  • 0
  • 0