Vi skal i dag et skridt nærmere at kunne besvare - eller blot overskue - potentielle konsekvenser af ovenstående spørgsmål og konstatering.
Sidste gang nåede vi frem til, at der er en sammenhæng mellem vores motivation og det vilkår, at vi skal dø. Vores dødelighed fordrer at vi konstant og hele livet igennem forsøger at udvikle os og opfylde vore grundlæggende behov FORDI vi skal dø. Eller snarere; fordi vi forsøger at udskyde at dø. Læs Drømmer androider om elektriske får? Etik #1.
Jeg dristede mig til at spå, at når vi engang har androider og cyborgs med kunstig generel intelligens (AGI) gående rundt iblandt os - skabninger, der vel at mærke ikke at udsigt til at skulle dø (sådan som vi forstår ved døden) - så vil deres motivation og generelle adfærd vil være markant anderledes end vores.
Deres tilgang til værdier såsom frihed, borgerrettigheder, autonomi, retfærdighed vil være mærkbar anderledes. Måske ville disse såkaldte “værdier”, slet ikke være værdier for dem. De er styrede af andre formål, som enten er ukendte, utrygge eller uforståelige for os humane aktører.
How low will you go?
Nu dykker vi længere ned i materien af de potentielle konsekvenser, som kunstig intelligens-baserede optimering af os mennesker og af arbejdsprocesser og -resultater medfører.
Vi skal kigge på et par eksempler fra virkeligheden, der illustrerer hvordan mulighederne ved kunstig intelligens også kan ende med at spænde ben for os. Og vi skal overveje, hvor langt vi vil gå for at få del i teknologiens fristende frugter.
Vil vi skifte vores etik ud? Og hvordan kan vi da skabe et samfund, der uden tøven, kan siges at være retfærdigt for alle?
For penge bliver ikke den eneste kapital, vi kommer til at betale her.
Differentieret etik - er det etisk?
Så hvis vores opfattelse af værdier og behov for at opfylde vores formål, er markant forskellige - hvilke regler skal vi da leve efter?
Hvordan skal vores etik lyde?
Etik handler om, hvordan vi skal leve et opbyggeligt og godt liv sammen. Så når vores tilgang til og oplevelse af (for os) afgørende værdier, differentierer sig markant for androider eller cyborgs med AGI, så må vi revidere vores værdier og etik.
Eller differentiere den, så vi laver flere slags etik'er?
Kan man det?
Jeg tror ikke det går her i vores verdensdel, hvor vi har fået Immanuel Kants kategorisk bydende etik ind med modermælken. Vores etik er per definition normativ, og gælder netop ALLE i samfundet til ALLE tider. Afviger din adfærd herfra, er den uetisk. Det gælder for os alle, at tyveri, løgne samt bøvser ved middagsbordet er uacceptabelt.
Men der kan være formildende omstændigheder.
For eksempel har vi nemmere ved at tilgive et barn for sin uetiske opførsel, end en voksen med sin forstand i behold. Barnet ved jo ikke nødvendigvis bedre eller kan overskue de uetiske implikationer af sine egne handlinger. Og måske er dét vores redning; en generel opblødning af de etiske normer.
Men ønsker vi det?
Og hvem bliver da i overført betydning barnet her; mennesket eller den kunstige intelligens?
Når algoritmer diskriminerer
Hvis du putter pærer i din ‘juicemaskine’, så kommer der pærejuice (eller -vælling) ud i dit glas. Men var din hensigt at lave æblejuice, så er resultatet ikke tilfredsstillende. Trods det er korrekt.
Sagt med andre ord; du får, hvad du beder om. Hvis du ønsker æblejuice, så skal du putte æbler i maskinen.
Samme princip gælder i matematik og algoritmer. Her bliver det AFGØRENDE hvilke instruktioner (frugter om du vil) vi putter i algoritmerne, fordi de vil definere målsætningen og hermed indirekte etikken for den specifikke kunstig intelligens-baserede teknologi.
Vi behøver ikke lede længe efter eksempler på, at vores machine learning modeller og andre teknologiske fremskridt diskriminerer og leder til uetiske anbefalinger og handlinger.
Overholdes de ellers højthævede etiske retningslinier, som her fremført af Bostrom og Yudkowskys ikke, så må vi døje med for eksempel Google's algoritmer, der på grel vis diskriminerede afroamerikanere. Eller Amazon's, der endte med at forfordele kvinder i ansættelsesprocesser, fordi algoritmerne var lavet af og til mænd.
Så når vi begynder at tale om deciderede nye arter og væsensforskellighed, så er det min pointe, at disse tendenser til diskrimination og forfordelinger skal tages alvorligt og tackles som root cause. Ellers ender de med at blive forstørrede og endnu pregnante.
Der sker nemlig noget, når vi begynder at ændre vores kapacitet væsentligt – eller når andre ændrer deres og “stikke af” fra os.
Ny etik - nyt samfund
I min foregående blogserie om cyborgs og augmenterende intelligent teknologi slog jeg fast, at jeg som psykolog ser en klar sammenhæng mellem vores fysiologiske-, sansemæssige- og kognitive kapacitet og så vores psykologi: De skaber og opretholder hinanden i en både kraftigt sammenhængende og alligevel og skrøbelig dynamik.
Derfor er det min pointe, at netop vores ændrede kapacitet, kalder på en ændring af vores etik. Eller snarere; den fordrer en ændring af vores etik.
For pludselig vil værdier som retfærdighed, rettigheder, frihed, autonomi og magt forskydes og forvrænges, når både mennesker og cyborgs skal kunne se sig selv i dem og holde dem i hævd. Hver for sig og sammen. Og dermed rykker det ved vores samfundsstrukturer såsom vores rets- og velfærdssamfund.
Nogle mennesker vil blive kapable i en grad, som andre end ikke kan drømme om. Nogle vil være godt på vej til at blive cyborgs, og der vil måske være udviklet androider indenfor en overskuelig årrække.
Men overordnet vil vi alle sammen langsomt lade os/blive forstærket (augmenteret) af teknologi, hvorved vi vil udvikle nye og andre behov og interesser for vores liv og samfund.
Fordeling af ansvar
Og nu er vi tilbage ved begyndelsen og alle de kryptiske og komplekse spørgsmål, jeg og forfatteren Philip K. Dick med bogen Drømmer androider om elektrisk får? rejste i forrige blog, for;
Hvis androider kan sove og drømme, kan de så betragtes som autonome agenter og samfundsborgere, der kan stilles til ansvar for deres handlinger og ligeledes har ret til velfærd?
Mit svar er Ja. Men vi vil blive udfordret, når vi skal placere ansvar blandt samfundets mangeartede borgere, fordi vi vil have forskellige kognitive og fysiologiske forudsætninger at agere ud fra.
Bliver et differentieret retssystem her svaret? Og er vi okay med det?
Fordeling af rettigheder og pligter
Minimumsgrænsen for hvad vi har behov for som menneske for at føle ‘velvære’ vil være markant forskellige, hvorved tildeling af rettigheder og pligter vil blive en svær disciplin.
Skal vi også differentiere fordelingen af vore velfærdsydelser, mere end hvad de er i dag?
Jeg kan ikke besvare disse endnu retoriske spørgsmål, da den nye virkelighed stadig er i sin vorden, men vores nutidige etik og fornuft må vise os de første skridt på vejen derhen.
Lad os fortsætte behandlingen af ‘etik i praksis’ her på bloggen, og se om ikke vi – snart og med humanismen som etisk rettesnor - kan svare med klar og rolig stemme herpå.
Kunstig intelligens skal skabes med mennesket i centrum
Hvad jeg derimod vil vove at konkludere er, at kunstig intelligens skal laves med udgangspunkt i menneskets behov. Behov for fysiologisk, psykologisk og social tryghed og et ønske om at kunne udvikle sig som menneske.
Og hvordan oversætte man så det til praksis?
Det kan for eksempel være i folks arbejdsliv, hvor jobfunktioner bliver sjovere, lettere eller mere udfordrende. At man fritages fra at beskæftige sig med mindre attraktive jobs - 'The Dull, Dirty and Dangerous jobs’ som tidligere Apple vicepræsident Don Norman (2017) kalder dem - og får mulighed for at fordybe sig i noget der er mere interessant, humant, kreativt, udviklende.
Det lyder godt, og hvis det kan realiseres, så lyder det endnu bedre. Jeg tror på det, men har også en opmærksomhed på, at hvad der er lykken for nogle, er ulykken for andre. Når nogle medarbejdere får deres evner forstærket (augmenteret) af intelligent teknologi og dermed bliver endnu mere effektive og eftertragtede, så kan det betyde, at andre bliver overflødige eller degraderet. I værste fald afskediges.
Under alle omstændigheder, bliver kunstig intelligens-baseret teknologi en større og større del af folks arbejdsliv, og hermed også noget vi skal arbejde tættere sammen med.
Udfordringen der står tilbage for ingeniørerne er at skabe teknologier, der imødekommer vore disse behov. En opgave, der samtidigt stiller krav til alle dem, der står for at implementere og anvende teknologien i virksomheder og sektorer - på fabrikker og kontorer, i trafikken, på hospitalet og mange andre steder.
Og netop menneskets professionelle samarbejde med maskinen, det der også kaldes Human-Robot-Collaboration/Interaction, er hvad vi skal blive skarpe på over de næste par uger.
For hvad sker der i samarbejdsrelationer, arbejdspraksisser og styring af opgaveløsning, når når såkaldte 'kunstig intelligens-agenter' inviteres ind i vores arbejdsgrupper på lige fod med vore kollegaer?
Eller når mere eller mindre simple hardware og software automatiseringsprocesser og forskellige service-bots ovetager visse funktioner og sætter retningslinierne for andre?
