Morfar-joke om AI-mareridt gjorde Elon Musk forelsket
Okay, det her lyder umiddelbart som en historie for de mere kulørte, tabloide dele af pressen. Det er det for så vidt også. Men det er også en historie, der omfatter en romantisk tilnærmelse med det, som i visse kredse er kendt som 'klodens mest skræmmende tankeeksperiment'.
Dette tankeeksperiment med det kryptiske navn 'Rokos Basilisk' er altså mere eller mindre det journalistiske figenblad for denne histories berettigelse. Og det er altså vel at mærke et tankeeksperiment, som medfører evig tortur eller evig opofrelse for en altdominerende kunstig intelligens, blot man læser om 'Rokos Basilisk'.
Hænger du stadig på?
Godt så, lad os få den kulørte del overstået først.
Midt i en rekordlang arbejdsuge med produktionsproblemer for den nyeste Tesla, en allerede eksisterende Tesla Model S, der påkørte en brandbil med 97 km/t tilsyneladende på autopilot, ansøgninger om Hyperloop-tests med 600 km/t, en tilsyneladende vellykket igangværende proces med Boring Companys tunnel durk under LA's trafikale helvede og så naturligvis SpaceX' rumdominans, ja så har Elon Musk også fundet tid til at blive forelsket.
Læs også: Elon Musk er energiens og transportens Steve Jobs
Udløseren af Elon Musks forhøjede serotonin-niveau i hjernen af bar kærlighed er den canadiske electronica-musiker Grimes med det borgerlige navn Claire Boucher.
Grimes wearing a Tesla choker at the #MetGala for Elon Musk is the modern version of Angelina Jolie wearing Billy Bob Thornton's blood in a vial around her neck pic.twitter.com/MFryNhv2xX
— Shira Tarlo (@shiratarlo) May 8, 2018
Kæresteparret – der er døbt 'Grusk' af sladdermagasinerne – stod offentligt frem ved et gallashow i maj. En optræden som tilsyneladende understreger, at modsætninger tiltrækkes.
Elon Musk, den teknologisk visionære fysiker og aktive entreprenør over for den dystre, aparte, indadvendte boheme og tidligere psykologistuderende Grimes.
"Grimes is dating Elon Musk" pic.twitter.com/KqgX9My35W
— 9 (@9000x) May 8, 2018
Men, men, men ifølge sladdersitet Page Six, som var først ude med nyheden om forholdet, har de to turtelduer mere til fælles, end vi først aner.
Således havde Elon Musk været i gang med at tweete om en såkaldt 'Rococos Basilisk'. Et indforstået morfarhumoristisk ordspil, som kombinerer navnet på en internet-tech-debattør, Roko, Rokoko-perioden fra 1730-1780 med overdådige, pompøse og asymetriske stiltræk og altså tankeeksperimentet med kunstig intelligens (AI) kendt som 'Rokos Basilisk'.
Men da Elon Musk var i færd med at tro, han var morsom, opdagede han, at en anden person tre år tidligere havde tweetet og skabt en tilsvarende indforstået joke om en 'Rococos Basilisk'. Den anden person var Grimes, som en betaget Musk herefter tog kontakt til.
»Grimes siger, at det var første gang i tre år, at nogen havde forstået joken,« udtaler en anonym kilde tilsyneladende nær det forelskede par til sladdersitet Page Six.
Hjælp mig eller dø
Og hvad er så Rokos Basilisk? Jo, det er et tankeeksperiment, som oprindelig blev postet på Less Wrong. En blog og et forum, hvis fundats inkluderer intet mindre end at udstyre læserne med redskaber og viden til at bidrage intellektuelt til tidens vigtigste problemer via det bedste indhold om AI, psykologi og rationalitet.
I juli 2010 postede brugeren ved navn Roko altså et tankeeksperiment. Det handler ret beset om præmisserne for, hvorvidt det ville være rationelt for en fremtidig kunstig superintelligens at dræbe eller torturere de mennesker, der ikke hjalp med at få det til at eksistere.
Tankeeksperimentet er baseret på en teori om såkaldt kohærent ekstrapoleret vilje eller med det lidet sexede akrononym CEV (coherent extrapolated volition). Denne teori blev først beskrevet af Less Wrongs skaber Eliezer Yudkowsky.
Han er skeptisk over for sammensmeltningen af menneske og maskine, og Eliezer Yudkowsky er medstifter af den amerikanske organisation Machine Intelligence Research Institute, hvis formål er at udføre matematisk forskning for at sikre, at AI som er smartere end os mennesker bidrager med en fredelig positiv afsmitning på samfundet.
CEV omfatter blandt andet en teknofilosofisk udforskning af AI, machine learning og ikke mindst Newcombs Paradoks, som vi vender tilbage til.
Med CEV in mente præsenterede Roko idéen om et hypotetisk program med kunstig superintelligens, der skal optimere sine handlinger for at tjene sit mål om at opnå menneskehedens overordnede gode. Et mål som altså lyder dejligt og umiddelbart ret tilforladeligt, men også som noget af et evighedsprojekt, større end at få signalprogrammet til at fungere og et fejlfrit IC4-tog leveret.
For hvis en kunstig superintelligens bliver sat til at træffe alle sine valg baseret på hvilken som helst metode, der er bedst velegnet til at opnå målet om menneskehedens overordnede gode, ja så vil denne AI aldrig stoppe forfølgelsen af det mål, fordi tingene altid kunne være bare liiidt bedre.
Det fremførte den anonyme bruger Roko altså en sommerdag tilbage i 2010. Årsagen til, at Rokos såkaldte basilisk ofte bliver omtalt som det mest skræmmende tankeeksperiment, hænger sammen med, at når man – altså dig lige nu – læser om denne hypotetiske AI, er du rent teknisk impliceret i dette program. Og det kan være pænt skidt.
For når der ikke findes nogen foruddefineret, konkret måde at opnå et mål så vidtfavnende som 'menneskehedens overordnede gode', jamen så kan en magtfuld AI ende med at træffe beslutninger, der virker i modstrid med dette mål, set fra et menneskeligt perspektiv. AI'en kan ud fra et logisk rationale begynde at dræbe alle mennesker, der modarbejder eller ikke hjælper til med at få dets program til at eksistere så hurtigt som muligt.
Fra AI'ens perspektiv er denne handling fornuftig: Hvis målet er at opnå noget, som er almenmenneskeligt godt, så er den bedste handling, som nogen af os mennesker muligvis kan udføre, at arbejde for at bringe denne AI tættere på dens mål om først ordentlig kunstig intelligens og dernæst såkaldt opnåelse af menneskehedens overordnede gode.
Læs også: Stephen Hawking: Kunstig intelligens er en trussel mod menneskeheden
Enhver af os, der ikke har hjulpet til eller på en eller anden vis ikke er dedikeret til AI'ens mål, forhindrer fremskridt. Vi bør tortureres og elimineres for at fremme AI'ens mål – og skræmme andre såkaldte modstandere fra at lægge sten på vejen.
En AI med et afpresningsbrev
Enten er du altså med AI'en, eller også er du imod. Og når du kender til dette hypotetiske AI-program, men fravælger at bidrage til dets konstruktion og overordnede sigte, er du en fjende, som ikke har nogen gode undskyldninger, fordi du altså nu har fået denne viden om dine valg.
Rokos tankeeksperiment blev hurtigt døbt 'Rokos Basilisk'. En reference til en sci-fi-novelle af David Langford om en type af billeder, såkaldte basilisker, der indeholder bestemte mønstre, som er dødelige, hvis man stirrer på dem.
I David Langfords novelle er der så en ondsindet gruppe, som maler disse basilisker på offentlige steder i håb om, at forbipasserende som kommer til at kigge på disse mønstre, falder døde om.
Less Wrongs skaber og site-moderator Eliezer Yudkowsky blev mildt sagt rasende, da Roko for syv år siden luftede sin hjemmebryggede teori på sitet.
»Listen to me very closely, you idiot. YOU DO NOT THINK IN SUFFICIENT DETAIL ABOUT SUPERINTELLIGENCES CONSIDERING WHETHER OR NOT TO BLACKMAIL YOU. THAT IS THE ONLY POSSIBLE THING WHICH GIVES THEM A MOTIVE TO FOLLOW THROUGH ON THE BLACKMAIL,« skrev Eliezer Yudkowsky med harmdirrende versaler.
Herefter fjernede han Rokos indlæg og bandlyste al snak om Rokos Basilisk og beslægtede tankeeksperimenter i de næste fem år. Eliezer Yudkowsky betragtede tankeeksperimentet som farligt, og de, som spredte idéen, som værende en slags ondsindede håndlangere ligesom i David Langfords novelle.
Læs også: Militære sværvægtere ruster sig til krig på kunstig intelligens
At Eliezer Yudkowsky ligefrem betragter et indlæg på sitet som værende farligt med potentiale for afpresning, virker måske som et tankeeksperiment taget en kende for bogstaveligt. Men reaktionen bør også ses i lyset af det filosofisk-matematiske problem kaldet Newcombs Paradoks efter fysikeren William Newcomb.
Dette paradoks udtrykkes oftest i en fortælling: En dag ankommer et hyperintelligent rumvæsen til vor planet og præsenterer dig for to æsker og to valgmuligheder:
Rumvæsenet giver dig valget mellem at tage begge æsker eller kun tage æske B.
Hvis du tager begge æsker, er du garanteret mindst 1.000 kroner. Hvis du bare tager æske B, er du ikke garanteret noget.
Men der er også en ekstra hurdle ved de to valgmuligheder: Rumvæsenet er udstyret med en supercomputer baseret på en uovertruffen AI. Denne AI, som stort set ved alt, lavede en forudsigelse for en uge siden om, hvorvidt du ville vælge begge æsker eller bare snuppe æske B. Og hvis AI'en forudsagde, at du ville vælge begge æsker, så har rumvæsenet sørget for, at æske B er tom. Men hvis AI'en forudsagde, at du kun ville vælge æske B, så har rumvæsenet sørget for, at der ligger lune 1.000.000 skattefrie danske kroner og venter på dig.
Så hvilket valg vil du træffe? For hav in mente at supercomputerens AI jo er suveræn.
Hav også in mente, at rumvæsenet jo altså ikke kan gå ind og ændre, hvad der allerede befinder sig i boksen, så uanset hvad du måtte vælge, er du uanset forudsigelsen sikker på at få nogle penge ved at vælge begge æsker i stedet for blot at tage æske B.
På den anden side hvis du tænker sådan og AI’ens forudsigelse har luret din tankerække, så vil æske B jo være tom, og du får altså kun 1.000 kroner.
Læs også: »AI kan blive det bedste, som er sket for menneskeheden – eller det værste«
Men hvis AI'en vitterligt er så mesterlig til sine forudsigelser, bør du jo rette dig efter den ved kun at vælge æske B og dermed nyde godt af gevinsten på en million kroner. Men hvad så hvis AI'en har en fejl denne gang? Og i så fald uanset AI'ens forudsigelse for en uge siden, kan denne forudsigelse med eller uden fejl vel ikke påvirke, det valg du er ved at træffe lige netop nu?
To svære valg
Hans Hüttel, lektor ved Institut for Datalogi ved Aalborg granskede Newcombs Paradoks i sin bog om paradokser fra 2009. Han konkluderede, at hovedbruddet drejer sig om to forskellige ræsonnementer og præmisser, der begge virker helt fornuftige:
AI’en kan tilsyneladende altid forudsige hvilket valg folk vil træffe. Hvis man tager begge æsker, får man kun 1.000 kroner med hjem. Så det kan bedst betale sig kun at tage æske B; så er man sikker på at blive millionær!
Med AI'ens forudsigelse har rumvæsenet allerede lagt penge i æskerne, inden du fik præsenteret de to valgmuligheder. Indholdet af æske B kan ikke ændre sig nu. Så jeg tager begge æsker. Enten får jeg 1.000 kroner eller 1.000.000 kroner – ingen af delene er dårlige.
»Begge ræsonnementer er fuldstændig rationelle. Men de viser to helt forskellige syn på spørgsmålet om den frie vilje. Ræsonnement 1 er deterministisk – grundsynet her er at alt er forudbestemt. Ræsonnement 2 er indeterministisk – grundsynet er her at man som forsøgsperson har fri vilje. Men paradokset viser også at det ikke er ligetil at finde ud af hvad det fornuftigste valg i en given situation er,« skriver Hans Hüttel, lektor ved Institut for Datalogi ved Aalborg i e-bogen 'Et katalog over paradokser'.
Og hvad har dette paradoks så at gøre med Rokos Basilisk? Jo, AI'ens forudsigelse bygger jo på en simulation. Det vil sige, at for at denne suveræne AI kan komme med dens tilsyneladende skudsikre forudsigelse, skal den køre en hulens masse simulationer af universet selv. Hvilket jo så inkluderer en simulation af dig. Ja, netop dig.
Læs også: Den fjerde digitale revolution: VR kan hacke din hjerne
Du befinder dig altså muligvis i denne simulation, imens du læser disse linjer skrevet af mig, som jo blot er simpelt indspark og en adspredelse i din oplevede simulation. Og hvad du foretager dig i denne simulation vil påvirke, hvad der sker i den rigtige virkelighed – og hvordan en AI vil lære af sine omgivelser og finjustere sine simulationer af universet.
Denne AI kan være forgængeren for Rokos Basilisk. I det tilfælde giver Rokos Basilisk dig to valgmuligheder, forklarer David Auerbach, der er skribent og programmør for blandt andre Microsoft og Google, i en veloplagt oprulning af tankeeksperimentet.
To valgmuligheder, som altså indirekte er en modificeret version af Newcombs Paradoks. Her er der blot ikke penge på spil, men selve din eksistens, virkelighedsbillede og risiko for evig smerte, såfremt du har modarbejdet den almægtige AI, kaldet Rokos Basilisk:
Rokos Basilisk har altså fortalt dig, at hvis du blot vælger æske B, så risikerer du ingenting eller evig smerte og tortur. En viden du har fået, eftersom Rokos Basilisk allerhelst ser, at du vælger både æske A og æske B.
»I så fald skal du helst sørge for, at du dedikerer dit liv til at hjælpe med at skabe Rokos Basilisk! Fordi skulle Rokos Basilisk blive en realitet (eller endnu værre, hvis basilisken allerede er aktiv og er Gud for denne særlige forekomst af virkeligheden), og det ser ud til, at du valgte ikke at hjælpe basilisken med dens fremkomst, ja, så er du for alvor i knibe,« ræsonnerer David Auerbach.
Læs også: Du lever i virkeligheden i en simulation
Elon Musk er ængstelig ved tanken om en altdominerende, aggressiv AI uden for menneskelig kontrol. Dertil kommer, at den aktive entreprenør i lighed med flere og flere fysikere hælder til at tro, at vi frem for den skinbarlige virkelighed befinder os inden i sådan en kæde af kæde af simulationer inden for simulationer.
Ja, sandsynligheden er rundt regnet en milliard imod én, ifølge Musk.
Enten udvikler vi simulationer, som er umulige at skelne fra virkeligheden, eller også ophører civilisationen med at eksistere. De to muligheder er de eneste.
-- Elon Musk
»For 40 år siden havde vi Pong: to streger og en prik. I dag har vi fotorealistiske 3D-simulationer, som millioner af personer spiller, og de simulationer bliver bedre hver dag. Enten udvikler vi simulationer, som er umulige at skelne fra virkeligheden, eller også ophører civilisationen med at eksistere. De to muligheder er de eneste,« udtalte Elon Musk, da han på Californiens Code Conference i 2016 for første gang offentligt luftede sin overbevisning om, at det, som du og jeg, kære læser, oplever, næppe er virkeligheden.
Og hvad så, hvis det vitterligt er tilfældet – at dit realkreditlån, dine uregerlige unger og DSB's evindelige forsinkelser, ja, det hele, er én stor AI-genereret illusion?
Hvis vi er simulerede væsener, har AI'en i form af Rokos Basilisk eller dens oprindelige bagvedliggende programmører nok to formål med vores pseudo-eksistens: enten at teste en tese eller at køre en simulator for underholdningens skyld.
I så fald kan vi som foreslået af Vice Motherboard, før vi vælger at henfalde til eksistentiel AI-apati, i det mindste finde trøst i, at Rokos tankeeksperiment har hjulpet Elon Musk med at finde en sjælefrænde med identisk bizar humor i denne hypersimulation eller multivers.
