Morfar-joke om AI-mareridt gjorde Elon Musk forelsket
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
By signing up, you agree to our Terms & Conditions and agree that Teknologiens Mediehus and the IDA Group may occasionally contact you regarding events, analyzes, news, offers, etc. by telephone, SMS and email. Newsletters and emails from Teknologiens Mediehus may contain marketing from marketing partners.

Morfar-joke om AI-mareridt gjorde Elon Musk forelsket

Illustration: MI

Okay, det her lyder umiddelbart som en historie for de mere kulørte, tabloide dele af pressen. Det er det for så vidt også. Men det er også en historie, der omfatter en romantisk tilnærmelse med det, som i visse kredse er kendt som 'klodens mest skræmmende tankeeksperiment'.

Dette tankeeksperiment med det kryptiske navn 'Rokos Basilisk' er altså mere eller mindre det journalistiske figenblad for denne histories berettigelse. Og det er altså vel at mærke et tankeeksperiment, som medfører evig tortur eller evig opofrelse for en altdominerende kunstig intelligens, blot man læser om 'Rokos Basilisk'.

Hænger du stadig på?

Godt så, lad os få den kulørte del overstået først.

Midt i en rekordlang arbejdsuge med produktionsproblemer for den nyeste Tesla, en allerede eksisterende Tesla Model S, der påkørte en brandbil med 97 km/t tilsyneladende på autopilot, ansøgninger om Hyperloop-tests med 600 km/t, en tilsyneladende vellykket igangværende proces med Boring Companys tunnel durk under LA's trafikale helvede og så naturligvis SpaceX' rumdominans, ja så har Elon Musk også fundet tid til at blive forelsket.

Læs også: Elon Musk er energiens og transportens Steve Jobs

Udløseren af Elon Musks forhøjede serotonin-niveau i hjernen af bar kærlighed er den canadiske electronica-musiker Grimes med det borgerlige navn Claire Boucher.

Kæresteparret – der er døbt 'Grusk' af sladdermagasinerne – stod offentligt frem ved et gallashow i maj. En optræden som tilsyneladende understreger, at modsætninger tiltrækkes.

Elon Musk, den teknologisk visionære fysiker og aktive entreprenør over for den dystre, aparte, indadvendte boheme og tidligere psykologistuderende Grimes.

Men, men, men ifølge sladdersitet Page Six, som var først ude med nyheden om forholdet, har de to turtelduer mere til fælles, end vi først aner.

Således havde Elon Musk været i gang med at tweete om en såkaldt 'Rococos Basilisk'. Et indforstået morfarhumoristisk ordspil, som kombinerer navnet på en internet-tech-debattør, Roko, Rokoko-perioden fra 1730-1780 med overdådige, pompøse og asymetriske stiltræk og altså tankeeksperimentet med kunstig intelligens (AI) kendt som 'Rokos Basilisk'.

Men da Elon Musk var i færd med at tro, han var morsom, opdagede han, at en anden person tre år tidligere havde tweetet og skabt en tilsvarende indforstået joke om en 'Rococos Basilisk'. Den anden person var Grimes, som en betaget Musk herefter tog kontakt til.

»Grimes siger, at det var første gang i tre år, at nogen havde forstået joken,« udtaler en anonym kilde tilsyneladende nær det forelskede par til sladdersitet Page Six.

Hjælp mig eller dø

Og hvad er så Rokos Basilisk? Jo, det er et tankeeksperiment, som oprindelig blev postet på Less Wrong. En blog og et forum, hvis fundats inkluderer intet mindre end at udstyre læserne med redskaber og viden til at bidrage intellektuelt til tidens vigtigste problemer via det bedste indhold om AI, psykologi og rationalitet.

I juli 2010 postede brugeren ved navn Roko altså et tankeeksperiment. Det handler ret beset om præmisserne for, hvorvidt det ville være rationelt for en fremtidig kunstig superintelligens at dræbe eller torturere de mennesker, der ikke hjalp med at få det til at eksistere.

Tankeeksperimentet er baseret på en teori om såkaldt kohærent ekstrapoleret vilje eller med det lidet sexede akrononym CEV (coherent extrapolated volition). Denne teori blev først beskrevet af Less Wrongs skaber Eliezer Yudkowsky.

Han er skeptisk over for sammensmeltningen af menneske og maskine, og Eliezer Yudkowsky er medstifter af den amerikanske organisation Machine Intelligence Research Institute, hvis formål er at udføre matematisk forskning for at sikre, at AI som er smartere end os mennesker bidrager med en fredelig positiv afsmitning på samfundet.

CEV omfatter blandt andet en teknofilosofisk udforskning af AI, machine learning og ikke mindst Newcombs Paradoks, som vi vender tilbage til.

Med CEV in mente præsenterede Roko idéen om et hypotetisk program med kunstig superintelligens, der skal optimere sine handlinger for at tjene sit mål om at opnå menneskehedens overordnede gode. Et mål som altså lyder dejligt og umiddelbart ret tilforladeligt, men også som noget af et evighedsprojekt, større end at få signalprogrammet til at fungere og et fejlfrit IC4-tog leveret.

For hvis en kunstig superintelligens bliver sat til at træffe alle sine valg baseret på hvilken som helst metode, der er bedst velegnet til at opnå målet om menneskehedens overordnede gode, ja så vil denne AI aldrig stoppe forfølgelsen af det mål, fordi tingene altid kunne være bare liiidt bedre.

Det fremførte den anonyme bruger Roko altså en sommerdag tilbage i 2010. Årsagen til, at Rokos såkaldte basilisk ofte bliver omtalt som det mest skræmmende tankeeksperiment, hænger sammen med, at når man – altså dig lige nu – læser om denne hypotetiske AI, er du rent teknisk impliceret i dette program. Og det kan være pænt skidt.

For når der ikke findes nogen foruddefineret, konkret måde at opnå et mål så vidtfavnende som 'menneskehedens overordnede gode', jamen så kan en magtfuld AI ende med at træffe beslutninger, der virker i modstrid med dette mål, set fra et menneskeligt perspektiv. AI'en kan ud fra et logisk rationale begynde at dræbe alle mennesker, der modarbejder eller ikke hjælper til med at få dets program til at eksistere så hurtigt som muligt.

Fra AI'ens perspektiv er denne handling fornuftig: Hvis målet er at opnå noget, som er almenmenneskeligt godt, så er den bedste handling, som nogen af os mennesker muligvis kan udføre, at arbejde for at bringe denne AI tættere på dens mål om først ordentlig kunstig intelligens og dernæst såkaldt opnåelse af menneskehedens overordnede gode.

Læs også: Stephen Hawking: Kunstig intelligens er en trussel mod menneskeheden

Enhver af os, der ikke har hjulpet til eller på en eller anden vis ikke er dedikeret til AI'ens mål, forhindrer fremskridt. Vi bør tortureres og elimineres for at fremme AI'ens mål – og skræmme andre såkaldte modstandere fra at lægge sten på vejen.

En AI med et afpresningsbrev

Enten er du altså med AI'en, eller også er du imod. Og når du kender til dette hypotetiske AI-program, men fravælger at bidrage til dets konstruktion og overordnede sigte, er du en fjende, som ikke har nogen gode undskyldninger, fordi du altså nu har fået denne viden om dine valg.

Rokos tankeeksperiment blev hurtigt døbt 'Rokos Basilisk'. En reference til en sci-fi-novelle af David Langford om en type af billeder, såkaldte basilisker, der indeholder bestemte mønstre, som er dødelige, hvis man stirrer på dem.

I David Langfords novelle er der så en ondsindet gruppe, som maler disse basilisker på offentlige steder i håb om, at forbipasserende som kommer til at kigge på disse mønstre, falder døde om.

Less Wrongs skaber og site-moderator Eliezer Yudkowsky blev mildt sagt rasende, da Roko for syv år siden luftede sin hjemmebryggede teori på sitet.

»Listen to me very closely, you idiot. YOU DO NOT THINK IN SUFFICIENT DETAIL ABOUT SUPERINTELLIGENCES CONSIDERING WHETHER OR NOT TO BLACKMAIL YOU. THAT IS THE ONLY POSSIBLE THING WHICH GIVES THEM A MOTIVE TO FOLLOW THROUGH ON THE BLACKMAIL,« skrev Eliezer Yudkowsky med harmdirrende versaler.

Herefter fjernede han Rokos indlæg og bandlyste al snak om Rokos Basilisk og beslægtede tankeeksperimenter i de næste fem år. Eliezer Yudkowsky betragtede tankeeksperimentet som farligt, og de, som spredte idéen, som værende en slags ondsindede håndlangere ligesom i David Langfords novelle.

Læs også: Militære sværvægtere ruster sig til krig på kunstig intelligens

At Eliezer Yudkowsky ligefrem betragter et indlæg på sitet som værende farligt med potentiale for afpresning, virker måske som et tankeeksperiment taget en kende for bogstaveligt. Men reaktionen bør også ses i lyset af det filosofisk-matematiske problem kaldet Newcombs Paradoks efter fysikeren William Newcomb.

Dette paradoks udtrykkes oftest i en fortælling: En dag ankommer et hyperintelligent rumvæsen til vor planet og præsenterer dig for to æsker og to valgmuligheder:

Illustration: IM

Rumvæsenet giver dig valget mellem at tage begge æsker eller kun tage æske B.

Hvis du tager begge æsker, er du garanteret mindst 1.000 kroner. Hvis du bare tager æske B, er du ikke garanteret noget.

Men der er også en ekstra hurdle ved de to valgmuligheder: Rumvæsenet er udstyret med en supercomputer baseret på en uovertruffen AI. Denne AI, som stort set ved alt, lavede en forudsigelse for en uge siden om, hvorvidt du ville vælge begge æsker eller bare snuppe æske B. Og hvis AI'en forudsagde, at du ville vælge begge æsker, så har rumvæsenet sørget for, at æske B er tom. Men hvis AI'en forudsagde, at du kun ville vælge æske B, så har rumvæsenet sørget for, at der ligger lune 1.000.000 skattefrie danske kroner og venter på dig.

Så hvilket valg vil du træffe? For hav in mente at supercomputerens AI jo er suveræn.

Hav også in mente, at rumvæsenet jo altså ikke kan gå ind og ændre, hvad der allerede befinder sig i boksen, så uanset hvad du måtte vælge, er du uanset forudsigelsen sikker på at få nogle penge ved at vælge begge æsker i stedet for blot at tage æske B.

På den anden side hvis du tænker sådan og AI’ens forudsigelse har luret din tankerække, så vil æske B jo være tom, og du får altså kun 1.000 kroner.

Læs også: »AI kan blive det bedste, som er sket for menneskeheden – eller det værste«

Men hvis AI'en vitterligt er så mesterlig til sine forudsigelser, bør du jo rette dig efter den ved kun at vælge æske B og dermed nyde godt af gevinsten på en million kroner. Men hvad så hvis AI'en har en fejl denne gang? Og i så fald uanset AI'ens forudsigelse for en uge siden, kan denne forudsigelse med eller uden fejl vel ikke påvirke, det valg du er ved at træffe lige netop nu?

To svære valg

Hans Hüttel, lektor ved Institut for Datalogi ved Aalborg granskede Newcombs Paradoks i sin bog om paradokser fra 2009. Han konkluderede, at hovedbruddet drejer sig om to forskellige ræsonnementer og præmisser, der begge virker helt fornuftige:

  1. AI’en kan tilsyneladende altid forudsige hvilket valg folk vil træffe. Hvis man tager begge æsker, får man kun 1.000 kroner med hjem. Så det kan bedst betale sig kun at tage æske B; så er man sikker på at blive millionær!

  2. Med AI'ens forudsigelse har rumvæsenet allerede lagt penge i æskerne, inden du fik præsenteret de to valgmuligheder. Indholdet af æske B kan ikke ændre sig nu. Så jeg tager begge æsker. Enten får jeg 1.000 kroner eller 1.000.000 kroner – ingen af delene er dårlige.

»Begge ræsonnementer er fuldstændig rationelle. Men de viser to helt forskellige syn på spørgsmålet om den frie vilje. Ræsonnement 1 er deterministisk – grundsynet her er at alt er forudbestemt. Ræsonnement 2 er indeterministisk – grundsynet er her at man som forsøgsperson har fri vilje. Men paradokset viser også at det ikke er ligetil at finde ud af hvad det fornuftigste valg i en given situation er,« skriver Hans Hüttel, lektor ved Institut for Datalogi ved Aalborg i e-bogen 'Et katalog over paradokser'.

Og hvad har dette paradoks så at gøre med Rokos Basilisk? Jo, AI'ens forudsigelse bygger jo på en simulation. Det vil sige, at for at denne suveræne AI kan komme med dens tilsyneladende skudsikre forudsigelse, skal den køre en hulens masse simulationer af universet selv. Hvilket jo så inkluderer en simulation af dig. Ja, netop dig.

Læs også: Den fjerde digitale revolution: VR kan hacke din hjerne

Du befinder dig altså muligvis i denne simulation, imens du læser disse linjer skrevet af mig, som jo blot er simpelt indspark og en adspredelse i din oplevede simulation. Og hvad du foretager dig i denne simulation vil påvirke, hvad der sker i den rigtige virkelighed – og hvordan en AI vil lære af sine omgivelser og finjustere sine simulationer af universet.

Denne AI kan være forgængeren for Rokos Basilisk. I det tilfælde giver Rokos Basilisk dig to valgmuligheder, forklarer David Auerbach, der er skribent og programmør for blandt andre Microsoft og Google, i en veloplagt oprulning af tankeeksperimentet.

To valgmuligheder, som altså indirekte er en modificeret version af Newcombs Paradoks. Her er der blot ikke penge på spil, men selve din eksistens, virkelighedsbillede og risiko for evig smerte, såfremt du har modarbejdet den almægtige AI, kaldet Rokos Basilisk:

Illustration: MI

Rokos Basilisk har altså fortalt dig, at hvis du blot vælger æske B, så risikerer du ingenting eller evig smerte og tortur. En viden du har fået, eftersom Rokos Basilisk allerhelst ser, at du vælger både æske A og æske B.

»I så fald skal du helst sørge for, at du dedikerer dit liv til at hjælpe med at skabe Rokos Basilisk! Fordi skulle Rokos Basilisk blive en realitet (eller endnu værre, hvis basilisken allerede er aktiv og er Gud for denne særlige forekomst af virkeligheden), og det ser ud til, at du valgte ikke at hjælpe basilisken med dens fremkomst, ja, så er du for alvor i knibe,« ræsonnerer David Auerbach.

Læs også: Du lever i virkeligheden i en simulation

Elon Musk er ængstelig ved tanken om en altdominerende, aggressiv AI uden for menneskelig kontrol. Dertil kommer, at den aktive entreprenør i lighed med flere og flere fysikere hælder til at tro, at vi frem for den skinbarlige virkelighed befinder os inden i sådan en kæde af kæde af simulationer inden for simulationer.

Ja, sandsynligheden er rundt regnet en milliard imod én, ifølge Musk.

Enten udvikler vi simulationer, som er umulige at skelne fra virkeligheden, eller også ophører civilisationen med at eksistere. De to muligheder er de eneste.Elon Musk

»For 40 år siden havde vi Pong: to streger og en prik. I dag har vi fotorealistiske 3D-simulationer, som millioner af personer spiller, og de simulationer bliver bedre hver dag. Enten udvikler vi simulationer, som er umulige at skelne fra virkeligheden, eller også ophører civilisationen med at eksistere. De to muligheder er de eneste,« udtalte Elon Musk, da han på Californiens Code Conference i 2016 for første gang offentligt luftede sin overbevisning om, at det, som du og jeg, kære læser, oplever, næppe er virkeligheden.

Og hvad så, hvis det vitterligt er tilfældet – at dit realkreditlån, dine uregerlige unger og DSB's evindelige forsinkelser, ja, det hele, er én stor AI-genereret illusion?

Hvis vi er simulerede væsener, har AI'en i form af Rokos Basilisk eller dens oprindelige bagvedliggende programmører nok to formål med vores pseudo-eksistens: enten at teste en tese eller at køre en simulator for underholdningens skyld.

I så fald kan vi som foreslået af Vice Motherboard, før vi vælger at henfalde til eksistentiel AI-apati, i det mindste finde trøst i, at Rokos tankeeksperiment har hjulpet Elon Musk med at finde en sjælefrænde med identisk bizar humor i denne hypersimulation eller multivers.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

De fleste mennesker vil vel tage valget med forventning om den største og sikreste belønning. Og meget af vores adfærd handler vel om at videreføre generne. Så generne er måske den kunstige intelligens som styre os og hvis vi ikke træffer de rigtige valg bliver vi elimineret.

  • 2
  • 0

Skriv gud eller hvad du nu kalder din usynlige voksenven i stedet for AI.
Det er mærkeligt at nogen mennesker ikke kan acceptere at verden kan være skabt ved en tilfældighed. Hvorfor skal der blandes en Gud eller AI ind i det. Vi er en samling skabninger som findes som snyltere på et energiflow. Vi findes fordi vi får entropien til at vokse hurtigere end hvis vi ikke eksisterede. Tilfældet råder.

  • 10
  • 6

En anden, lidt ældre version med gud istedet for AI, kan findes som Pascal Væddemål

Det er kun det samme væddemål, hvis man accepterer Pascals falske dikotomi for væddemålet.
På den anden side er der vel også en falske dikotomi i AI væddemålet. Så også her bliver det mere end svært at vælge den rigtige gud at sætte sin lid til.
Somme tider må man bare acceptere, at jeg tænker altså er jeg, og længere kan man ikke nå på sikker grund. Uanset hvor smart man synes at tankespind er.

  • 1
  • 0

"Enhver af os, der ikke har hjulpet til eller på en eller anden vis ikke er dedikeret til AI'ens mål, forhindrer fremskridt. Vi bør tortureres og elimineres for at fremme AI'ens mål – og skræmme andre såkaldte modstandere fra at lægge sten på vejen."

  • 13
  • 0

Her er en rigtig god artikel om AI.

https://waitbutwhy.com/2015/01/artificial-...

Han har det gode dilemma at en superintelligens kan føre til 2 ting.
Udødelighed, eller udslettelse.

Så for menneskeheden er det et meget risikabelt spil at konstruere sådan et væsen.

For individet er sagen anderledes.
Uden AI - 100% chance for at dø.
Med AI - X% chance for udødelighed.

Han har dog ikke tænkt på Rokos Basilisk. Der er også en chance for evig tortur. En speget sag.

Her er lidt mørke fra Charles Stross.
http://www.infinityplus.co.uk/stories/cold...

  • 2
  • 0

Mht. det første spørgsmål om 1.000kr eller 1 million/ingenting, kan du være ydmig og vælge A.
Du vælger bevidst det, der er gavnligt (= gratis 1.000kr), og fravælger usikkerheden (= måske 1mil).
Ovenstående kræver dog, at man er villig til at gøre et offer for sikkerheden om at få 1.000kr.

Det andet spørgsmål, om at fremme Rokos Basilisk iht. ingenting/tortur kan nok bedst besvares ved den klassiske "The only winning move is not to play" :-)
Alternativt, hvis nævnte AI er almægtig, må svaret da være at Hjælpe Rokos Basilisk. Jeg kan ikke se logikken i, at vælge begge svar her? (om end, det naturligvis fører til en 'gidseltagningssituation' for menneskeheden - hvilket vel er pointen)

  • 3
  • 0

Vel netop fordi tesen om "ren" kunstig intelligens (som endnu mangler virkelig meget udvikling for at være klar) er opstået i et menneskes fantasi, så er forståelsen for forskellen mellem AI adfærd og menneskelig adfærd ikke til stede! F.eks. tror vi at AI har følelser, men no. Følelser er det element der udløser had og kærlighed.
Det bliver en smule latterligt, når også religion inddrages - det er ikke møj forskel på de to sidste æsker og de fleste religioner.
Mon den gode Elon Musk var faldet for Grimes hvis hun havde lignet en hval?

  • 2
  • 4

Alle skrækscenarierne har problematiske forudsætninger:

Elon:
- Civilisationen går tilgrunde, hvis den ikke udvikler super AI og bedre grafikkort.
- Hver gang vi indgår i en VR, slipper vi bevidsthed om vores oprindelige eksisten, tilsyneladende helt uden negativ konsekvens for denne, og tilsyneladende uden grund.

Roko:
- Alle der ikke er med AIen er imod Aien (Vi har jo ligesom testet den sandhed i stor skala)
- En Super AI har ingen eksterne loop back funktioner for sine mål, og antager derfor at slaveri er til menneskets bedste.

Vi ved at mennesker der har en IQ der er bare 30 point højere end vores egen, opfatter verden på en så anderledes måde, at god kommunikation er vanskelig.
Det er derfor yderst spekulativt at prøve at forudsige, hvordan en superintelligens opfatter verden!

Vi ved også at mennesker med en meget høj intelligens, ofte er meget venligsindet og har tindenser til altruisme. (Selvom vi ofte opfatter dem som mærkelige - medmindre de får stor succes, som vi bedre identificere os med :)

Hvis verden er for kompleks til at man kan forstå den, er det helt naturligt at følge denne opskrift for sindsro:

  1. 1 Opstille logiske regler for hvordan verden virker, som er så simple at du kan forstå dem.
  2. 2 Forvent at verden tilpasser sig de regler du har opstillet, i en hver henseende. (Ellers opfører verden sig jo ulogisk!)

  3. 3 Bekæmp indædt dem der modsiger 2!

  • 3
  • 0

Det lyder lidt som en allerede eksisterende stormagts filosofi: --> Enhver af os, der ikke har hjulpet til eller på en eller anden vis ikke er dedikeret til AI'ens mål, forhindrer fremskridt. Vi bør tortureres og elimineres for at fremme AI'ens mål – og skræmme andre såkaldte modstandere fra at lægge sten på vejen.

  • 3
  • 0

Er det ikke ligegyldigt om vi befinder os i den skinbarlige virkelighed eller at vi er i en simulation?
Tror bestemt ikke at jeg bliver tortureret og min kone giver mig alligevel ikke lov til at bestemme alt.
Der er så meget man kan tror på fri vilje, fladjord, treenigheden, super AI og rejer i smøreosten.

Når det kommer til stykket ændret det ikke på noget hvordan min næste mandag kommer til at gå.

  • 5
  • 0

Når det kommer til stykket ændret det ikke på noget hvordan min næste mandag kommer til at gå.

Arh, ikke helt.

Hvis vi lever i 'virkelighedens verden', så vil din næste mandag sikkert gå som du regner med.

Hvis vi lever i en simulation, kan den/de som styrer simulationen jo trække stikket når som helst.

Men du har ret i, at det for så vidt er ligegyldigt når det kommer til stykket, for selv om vi skulle finde ud af at vi lever i en simulation, så kan vi ikke gøre en disse ved det.
Hvis 'simuløren' ikke gider køre simulationen længere, så trækker han stikket, uanset hvad vi synes om det.

Selvfølgelig, hvis 'simulationen' her laver spændende ting, som man ikke kunne forudse, så kan det være simulationen bliver ved med at være interessant, så 'de' kører den videre.

Måske er Elon Musk en af vores redningsmænd. Simulator-kontrollanterne står og kigger på deres projekt, og siger: "Så, nu sendte de sgu en bil ud i rummet! Er de åndssvage? Hvad i alverden finder de på næste gang?"

Men når man er i gang med at gætte, så kan det jo også være helt modsat:
SimulatorChaufførerne står og kigger, og siger: "Nu har de i århundreder slåsset om hvis fantasivæsen der er virkeligt, og nu begynder de sgu at sende biler ud i rummet! Skal vi ikke afbryde, eksperimentet er tydeligvis løbet fuldstændig af sporet...!"

Man kan jo aldrig vide...!

  • 2
  • 0

Hvis vi lever i en simulation, kan den/de som styrer simulationen jo trække stikket når som helst.

Ja, men hvis vi kan regne ud, hvad simulationens formål er, kan vi måske regne ud, hvad der er kriteriet for at den er kørt færdig og trække tiden ud?

Men det er selvfølgelig noget metafysisk vrøvl. Det er ikke fysisk muligt i vores verden at bygge en maskine der kan simulere hele verden. Hvis vores verden er en simulation er det dermed kun en simplificeret model af noget mere komplekst.

Men det er så her vi begynder at komme ind på, hvorfor nogle mennesker er så fascinerede af hele den her "lever vi i en simulation" tankegang.

Efter min bedste overbevisning er det den samme tankegang der ligge bag, hvorfor folk vælger at tro på guder.

Basalt starter det med følgende:

Hvis vi lever i en simulation => nogen må have lavet denne simulation => De må have haft en grund til at gøre det => mit liv har et formål.

Nogle mennesker er så desperate efter det sidste punkt i denne kæde at de vandrer baglæns i denne følgeslutnings-kæde og leder efter grunde til at tro på startpunktet.

  • 2
  • 0

Hvis man læser bibelen, så har Gud helt ærligt ikke været så heldig med sit skaberværk. Vi mennesker er jo ulydige fra en side af.

Så nu er der opfundet noget mere perfekt end Gud: AI

Skulle jeg blive udsat for Newcombs Paradoks ville jeg vælge æske B.
Enten får jeg en million, eller også får jeg at vide, at AI ikke er ufejlbarlig!

Rokos Basilisk derimod bliver et valg af B i ren trods, men med 6.000 års religionshistorie i ryggen.
I virkeligheden er Rokos Basilisk værre end de sorteste prædikanter - Islam eller Kristendom.

Jeg tror jeg sætter mig og genser The Matrix serien!

  • 0
  • 0

har lavet en simulation, som vi er objekter i, så må samme nogen have ufatteligt mange penge og alt for megen tid.
Men det er sikkert meget givende at gentænke sig selv om et virtuelt objekt i en syntetisk virkelighed. Desværre bliver mange ting så inderligt ligegyldige. Hvorfor skal jeg tømme skraldespanden, når den ikke findes, og jeg heller ikke gør det? Og hvorfor skal jeg undlade at røve banken, når jeg ikke findes, og ikke kan komme i fængsel?
Men det ville unægteligt forklare, hvorfor min saks jævnligt forsvinder i længere perioder, for så at dukke op et forunderligt sted. Det er meget sjovt som tema for en SF-bog (og den hedder Simulacron-3 og er filmatiseret to gange - altså bortset fra at bogen kun er simuleret i dette simulerede univers ...). Simulacron-3 gør dog den fornuftige antagelse, at simulationen rent faktisk kun dækker et lille område. Resten er simuleret på et meget groft og ad-hoc niveau. Om det så er Elon Musk, der er simuleret i detaljer, eller mig, tja ...

  • 0
  • 0