Drømmer androider om elektriske får? Etik #1
Hvis robotter kan sove, vil de så drømme? Og vil det i givet fald så være om elektriske får?
Philip K. Dick er forfatteren, der maler dette obskure billede frem for vores indre øje - et billede der mest af alt genererer endnu flere kryptiske og komplekse spørgsmål.
Romanen af samme navn er fra 1968, og temaet med et både fremmed og genkendeligt univers, kan vi se levendegjort i Ridley Scott’s film Blade Runner fra 1982.
Kort fortalt har verden været ramt af atomkrig, og radioaktivt nedfald er hverdag. Folks følelsesmæssige tilstand kan afstemmes ved et såkaldt ‘stemningsorgel’, og ‘empatikasser’ kan åbne folks sind for den metafysiske verden.
Mange dyrearter er døde og erstattet af robot-dyr. Det samme er sket for menneskene; vi er dog ikke uddøde, men vi har måtte skabe androider (menneskelignende robotter) til at varetage en række nødvendige opgaver.
Både robot-dyrene og androiderne ligner deres forbilleder så meget, at der må hårde midler i brug for at skelne de “ægte” fra de “falske”. Men det er der også tænkt på. Mennesker kan føle empati, det kan androiderne ikke. ’Voigt-Kampff-instrumentet’ er en såkaldt empatitest, der er udviklet til at skelne menneskene fra androiderne.
Hvad der dog ikke er tænkt over er, hvordan man håndterer følelser på tværs af arterne; menneske og androide. For det kan jo ske at filmens helt (Harrison Ford, hvem ellers?) forelsker sig i en androide - og så har vi balladen.
Spændende og relevante temaer er der mange af i denne roman, men de kan i realiteten samles under ét overordnet metatema:
ETIK.
Altså; hvordan vi lever eller snarere ønsker at leve sammen som mennesker.
Og etik er hvad vi fra tid til anden lægger i korttidsterapi her på Teknopsykologens Briks. Mangt og meget er skrevet og sagt om etik, men mest interessant er i min optik, hvordan etikken praktiseres. Det skal vi kigge nærmere på denne gang.
Overordnede set er etik i teknologi, hvad min blog her på sitet handler om, når jeg behandler spørgsmål som;
Hvad berettiger at kunstig intelligens-teknologi (KI) griber ind i vores liv, som det gør og fremover i stigende grad vil gøre? Virker det fordrende for vores velbefindende eller ej? Og hvordan skal KI i givet fald designes og anvendes for at være ’etisk’ og dermed fordre det gode liv?
Jeg regner med, at vi hver gang kommer lidt nærmere et gyldigt og tilfredsstillende svar (og bliver tiltagende klogere sammen på vejen), så tag gerne en tur omkring i min blog-portefølje Teknopsykologens Briks, og læs med om min psykologfaglige tilgang til etik i praksis.
Nu vil jeg sætte fokus på, hvad man kan kalde det normative niveau og inddrage et par kloge hoveder i behandlingen af temaet.
Vi skal dykker ned i hvilke implikationer potentielt nye arter af androider og cyborgs kan medfører. De vil for eksempel nok opfatte noget så abstrakt som TID anderledes end os. De vil udvikle sig eller snarere “REPRODUCERE” sig markant anderledes og med en helt anden hast, end os. Og så kan de jo nok ikke dø, modsat os.
Lad os først vende os mod hvad en tidligere kending; Nick Bostrom spår om vores udsigter til et etisk liv med kunstig intelligens-teknologi.
Etisk forsvarlige algoritmer, tak
Laver man en ratatouille af ekspertviden om teoretisk fysik, neurovidenskab, logik, kunstig intelligens og filosofi, så får man den svenske Oxford professor Nick Bostrom. Men sin imponerende kapacitet står han bag en række interessante udlæg af, hvad kunstig intelligens er, og hvad den/det vil bringe os.
Tilbage i 2011 præsenterede han sammen med Eliezer Yudkowsky i Cambridge Handbook of Artificial Intelligence hvilke konsekvenser kunstig intelligens vil have for vores etik. (The Ethics of Artificial Intelligence).
Her slår de fast, at hvis KI skal erstatte menneskelig dømme- og arbejdskraft, som udviklingen synes at pege mod på nogle fronter, så skal følgende kriterier skrives ind i alle grundlæggende algoritmer for hele foretagende - hvis vi altså ønsker etisk forsvarlige kunstig intelligens-teknologi:
Gennemsigtighed - i forhold til at kunne revidere KIs databehandlingsproces.
Forudsigelighed - reglerne for de involverede er tydelige.
Robusthed - i forhold til datamanipulation.
Ansvarliggørelse - i forhold til konsekvenser af databearbejdning og valg truffet derpå.
Ukrænkelighed - i forhold til hensyn til individets ret til autonomi.
Ny art - ny etik
Ifølge Bostrom og Yudkowsky afhænger vores etik af vores fysiske og kognitive kvaliteter og kapacitet. Det betyder, at hvis nye intelligente arter kommer til såsom androider eller cyborgs (hybrid af menneske og maskine) med kunstig generel intelligens (Artificial Generel Intelligence, AGI) – så vil vi skulle revurdere vores forståelse af, hvad det vil sige at have moralsk status. Læs om cyborgs i min forrige blogserie; Sig Hej til din nye kollega - hun ved alt om dig! Cyborg #3
Lad os se på et par af de faktorer, der for alvor adskiller ’os fra dem’:
Reproduktionshastighed og tidsfornemmelse
Den nye art adskiller sig fra os, ved at den har en markant hurtigere såkaldt reproduktionshastighed; de kan duplikere sig selv i fuldt udviklet form ved - groft sagt - at installere et softwareprogram i mere eller mindre simpelt hardware. Det tager os humane aktører noget længere tid at opnå samme "duplikation".
Derudover kan de, på grund af deres enorme computerkraft, foretage hurtigere og mere omfattende kognitive operationer end os, hvorfor deres tidsfornemmelse også vil være markant anderledes.
AGI anslås at kunne bearbejde data op mod en million gange hurtigere end os, beregnet ud fra hvad vores neurale biologiske forbindelser tillader sammenlignet med, hvad en maskines kobbertrådsforbindelser muliggør af elektrisk kapacitet. (Bostrom og Yudkowsky, 2011; Lovelock, 2019).
Sagt med andre ord og sat i et tidsperspektiv: Hvad der opleves som ét år for mennesket, vil opleves som 31 sekunder for androider eller cyborgs med AGI.
Tid og tidsopfattelse er mere afgørende for vores velbefindende, end vi lige går og tror.
Når døden ikke er game over for alle
Tid er en abstrakt størrelse. Ikke desto mindre er det tiden, der driver os frem i livet og motiverer os til at stå op om morgenen, gå på arbejde, få børn, blive gift, skabe, leve - alt sammen noget vi vil nå, førend vi dør.
Så hvordan ville vi opføre os, hvis vi ikke have en deadline - hvis vi ikke skulle dø?
Androider eller cyborgs med AGI har ikke udsigt til døden. I hvert flad ikke som vi kender den. Det betyder, at deres motivation og generelle adfærd vil være markant anderledes end vores.
Deres tilgang til værdier såsom frihed, borgerrettigheder, autonomi, retfærdighed - kort sagt; alt det vi behøver for at trives som mennesker - vil være mærkbar anderledes. Måske ville disse såkaldte “værdier”, slet ikke være værdier for dem. Antageligt ikke.
De er “motiverede” eller snarere styrede af andre formål. Til at starte med var de programmerede til et eller flere specifikke formål, men ved hjælp af deres toptunede software med tusindvis af deep learning bearbejdnings-lag, har de nu udviklet deres egne uforudsigelige, lidt spændende, og for os humane aktører lidt mere skræmmende, formål.
Forskellige forudsætninger - forskellige regler?
Flere udfordringer venter forude.
Én står dog lysende klar og kan betragtes som en forudsætning for at finde løsninger på mange andre;
Forskellige opfattelse af hvad der har værdi i livet, hvordan et menneskeliv skal vægtes og ikke mindst hvordan vi opfylder vores basale og eksistentielle behov - vil udfordre os, når vi skal fastsætte en etik, vi alle kan leve efter og bygge vores samfund på.
Denne problemstilling bliver tydeligt i for eksempel her omtalte bog Drømmer androider om elektriske får, hvor egenskaben empati er kardinalforskellen mellem mennesker og androider. En lille og dog grundlæggende forskellighed de to arter imellem, der bevirker, at de har forskellige DRØMME om idealer, mål med livet og typer af samfund.
Helt så dramatisk som opgøret i bogen og siden i filmen udspiller sig, tror jeg dog ikke det vil gøre her i vores virkelige verden. Dét sagt; så er forandringen af vores verden med implementeringen af kunstig intelligens-teknologi i såvel vores private som vores professionelle liv for nuværende mere subtilt og skjult.
Og skønt dette nok kan virke desto mere skræmmende, så mener jeg, at der endnu er flere fordele end ulemper ved kunstig intelligens-teknologi - NÅR det altså virker til at optimere og øger sikkerheden omkring specifikke funktioner i vores arbejdsprocesser. Den diskussion kan vi tage en anden gang.
Næste gange skal vi længere ned i materien af de potentielle konsekvenser, som kunstig intelligens-baserede optimering af os mennesker og af arbejdsprocesser og -resultater medfører.
Vi skal kigge på et par eksempler fra virkeligheden, der illustrerer hvordan KIs muligheder også kan blive til udfordringer, og gøre det svært for os at efterleve en almengældende etik og indrette et retfærdigt samfund.
