teknopsykologens briks bloghoved

Hvad sker der med retfærdighed og velfærd, når vi får kunstigt intelligente medborgere? Etik #2

Vi skal i dag et skridt nærmere, at kunne besvare - eller blot overskue - potentielle konsekvenser af ovenstående spørgsmål og konstatering.

Sidste gang nåede vi frem til, at der er en sammenhæng mellem vores motivation og det vilkår, at vi skal dø. Vores dødelighed fordrer at vi konstant og hele livet igennem forsøger at udvikle os og opfylde vore grundlæggende behov FORDI vi skal dø. Eller snarere; fordi vi forsøger at udskyde at dø. Læs Drømmer androider om elektriske får? Etik #1.

Jeg dristede mig til at spå, at når vi engang har androider og cyborgs med kunstig generel intelligens (AGI) gående rundt iblandt os - skabninger, der vel at mærke ikke at udsigt til at skulle dø (sådan som vi forstår ved døden) - så vil deres motivation og generelle adfærd vil være markant anderledes end vores.

Deres tilgang til værdier såsom frihed, borgerrettigheder, autonomi, retfærdighed vil være mærkbar anderledes. Måske ville disse såkaldte “værdier”, slet ikke være værdier for dem. De er styrede af andre formål, som enten er ukendte, utrygge eller uforståelige for os humane aktører.

How low will you go?

Nu dykker vi længere ned i materien af de potentielle konsekvenser, som kunstig intelligens-baserede optimering af os mennesker og af arbejdsprocesser og -resultater medfører.

Vi skal kigge på et par eksempler fra virkeligheden, der illustrerer hvordan mulighederne ved kunstig intelligens også kan ende med at spænde ben for os. Og vi skal overveje, hvor langt vi vil gå for at få del i teknologiens fristende frugter.

Vil vi skifte vores etik ud? Og hvordan kan vi da skabe et samfund, der uden tøven, kan siges at være retfærdigt for alle?

For penge bliver ikke den eneste kapital, vi kommer til at betale her.

Illustration: eget arkiv

Differentieret etik - er det etisk?

Så hvis vores opfattelse af værdier og behov for at opfylde vores formål, er markant forskellige - hvilke regler skal vi da leve efter?

Hvordan skal vores etik lyde?

Etik handler om, hvordan vi skal leve et opbyggeligt og godt liv sammen. Så når vores tilgang til og oplevelse af (for os) afgørende værdier, differentierer sig markant for androider eller cyborgs med AGI, så må vi revidere vores værdier og etik.

Eller differentiere den, så vi laver flere slags etik'er?

Kan man det?

Jeg tror ikke det går her i vores verdensdel, hvor vi har fået Immanuel Kants kategorisk bydende etik ind med modermælken. Vores etik er per definition normativ, og gælder netop ALLE i samfundet til ALLE tider. Afviger din adfærd herfra, er den uetisk. Det gælder for os alle, at tyveri, løgne samt bøvser ved middagsbordet er uacceptabelt.

Men der kan være formildende omstændigheder. 

For eksempel har vi nemmere ved at tilgive et barn for sin uetiske opførsel, end en voksen med sin forstand i behold. Barnet ved jo ikke nødvendigvis bedre eller kan overskue de uetiske implikationer af sine egne handlinger. Og måske er dét vores redning; en generel opblødning af de etiske normer. 

Men ønsker vi det? 

Og hvem bliver da i overført betydning barnet her; mennesket eller den kunstige intelligens?

Illustration: Andy Kelly

Når algoritmer diskriminerer

Hvis du putter pærer i din ‘juicemaskine’, så kommer der pærejuice (eller -vælling) ud i dit glas. Men var din hensigt at lave æblejuice, så er resultatet ikke tilfredsstillende. Trods det er korrekt.

Sagt med andre ord; du får, hvad du beder om. Hvis du ønsker æblejuice, så skal du putte æbler i maskinen.

Samme princip gælder i matematik og algoritmer. Her bliver det AFGØRENDE hvilke instruktioner (frugter om du vil) vi putter i algoritmerne, fordi de vil definere målsætningen og hermed indirekte etikken for den specifikke kunstig intelligens-baserede teknologi.

Vi behøver ikke lede længe efter eksempler på, at vores machine learning modeller og andre teknologiske fremskridt diskriminerer og leder til uetiske anbefalinger og handlinger.

Overholdes de ellers højthævede etiske retningslinier, som her fremført af Bostrom og Yudkowskys ikke, så må vi døje med for eksempel Google's algoritmer, der på grel vis diskriminerede afroamerikanere. Eller Amazon's, der endte med at forfordele kvinder i ansættelsesprocesser, fordi algoritmerne var lavet af og til mænd.

Så når vi begynder at tale om deciderede nye arter og væsensforskellighed, så er det min pointe, at disse tendenser til diskrimination og forfordelinger skal tages alvorligt og tackles som root cause. Ellers ender de med at blive forstørrede og endnu pregnante.

Der sker nemlig noget, når vi begynder at ændre vores kapacitet væsentligt – eller når andre ændrer deres og “stikke af” fra os.

Ny etik - nyt samfund

I min foregående blogserie om cyborgs og augmenterende intelligent teknologi slog jeg fast, at jeg som psykolog ser en klar sammenhæng mellem vores fysiologiske-, sansemæssige- og kognitive kapacitet og så vores psykologi: De skaber og opretholder hinanden i en både kraftigt sammenhængende og alligevel og skrøbelig dynamik. 

Derfor er det min pointe, at netop vores ændrede kapacitet, kalder på en ændring af vores etik. Eller snarere; den fordrer en ændring af vores etik.

For pludselig vil værdier som retfærdighed, rettigheder, frihed, autonomi og magt forskydes og forvrænges, når både mennesker og cyborgs skal kunne se sig selv i dem og holde dem i hævd. Hver for sig og sammen. Og dermed rykker det ved vores samfundsstrukturer såsom vores rets- og velfærdssamfund. 

Nogle mennesker vil blive kapable i en grad, som andre end ikke kan drømme om. Nogle vil være godt på vej til at blive cyborgs, og der vil måske være udviklet androider indenfor en overskuelig årrække.

Men overordnet vil vi alle sammen langsomt lade os/blive forstærket (augmenteret) af teknologi, hvorved vi vil udvikle nye og andre behov og interesser for vores liv og samfund.

Fordeling af ansvar

Og nu er vi tilbage ved begyndelsen og alle de kryptiske og komplekse spørgsmål, jeg og forfatteren Philip K. Dick med bogen Drømmer androider om elektrisk får? rejste i forrige blog, for; 

Hvis androider kan sove og drømme, kan de så betragtes som autonome agenter og samfundsborgere, der kan stilles til ansvar for deres handlinger og ligeledes har ret til velfærd? 

Mit svar er Ja. Men vi vil blive udfordret, når vi skal placere ansvar blandt samfundets mangeartede borgere, fordi vi vil have forskellige kognitive og fysiologiske forudsætninger at agere ud fra. 

Bliver et differentieret retssystem her svaret? Og er vi okay med det?

Fordeling af rettigheder og pligter

Minimumsgrænsen for hvad vi har behov for som menneske for at føle ‘velvære’ vil være markant forskellige, hvorved tildeling af rettigheder og pligter vil blive en svær disciplin.

Skal vi også differentiere fordelingen af vore velfærdsydelser, mere end hvad de er i dag?

Jeg kan ikke besvare disse endnu retoriske spørgsmål, da den nye virkelighed stadig er i sin vorden, men vores nutidige etik og fornuft må vise os de første skridt på vejen derhen. 

Lad os fortsætte behandlingen af ‘etik i praksis’ her på bloggen, og se om ikke vi – snart og med humanismen som etisk rettesnor - kan svare med klar og rolig stemme herpå.  

Kunstig intelligens skal skabes med mennesket i centrum

Hvad jeg derimod vil vove at konkludere er, at kunstig intelligens skal laves med udgangspunkt i menneskets behov. Behov for fysiologisk, psykologisk og social tryghed og et ønske om at kunne udvikle sig som menneske.

Og hvordan oversætte man så det til praksis?

Det kan for eksempel være i folks arbejdsliv, hvor jobfunktioner bliver sjovere, lettere eller mere udfordrende. At man fritages fra at beskæftige sig med mindre attraktive jobs - 'The Dull, Dirty and Dangerous jobs’ som tidligere Apple vicepræsident Don Norman (2017) kalder dem - og får mulighed for at fordybe sig i noget der er mere interessant, humant, kreativt, udviklende.

Det lyder godt, og hvis det kan realiseres, så lyder det endnu bedre. Jeg tror på det, men har også en opmærksomhed på, at hvad der er lykken for nogle, er ulykken for andre. Når nogle medarbejdere får deres evner forstærket (augmenteret) af intelligent teknologi og dermed bliver endnu mere effektive og eftertragtede, så kan det betyde, at andre bliver overflødige eller degraderet. I værste fald afskediges.

Under alle omstændigheder, bliver kunstig intelligens-baseret teknologi en større og større del af folks arbejdsliv, og hermed også noget vi skal arbejde tættere sammen med.

Illustration: eget arkiv

Udfordringen der står tilbage for ingeniørerne er at skabe teknologier, der imødekommer vore disse behov. En opgave, der samtidigt stiller krav til alle dem, der står for at implementere og anvende teknologien i virksomheder og sektorer - på fabrikker og kontorer, i trafikken, på hospitalet og mange andre steder.

Og netop menneskets professionelle samarbejde med maskinen, det der også kaldes Human-Robot-Collaboration/Interaction, er hvad vi skal blive skarpe på over de næste par uger.

For hvad sker der i samarbejdsrelationer, arbejdspraksisser og styring af opgaveløsning, når når såkaldte 'kunstig intelligens-agenter' inviteres ind i vores arbejdsgrupper på lige fod med vore kollegaer?

Eller når mere eller mindre simple hardware og software automatiseringsprocesser og forskellige service-bots ovetager visse funktioner og sætter retningslinierne for andre?

Astrid har en baggrund som militærpsykolog og udvikler af disciplinen Teknopsykologi. Her på ING.dk blogger hun om de psykologiske mekanismer, der ligger til grund for udvikling af kunstig intelligens og behandler problemstillinger, der opstår når mennesker skaber maskiner i deres eget billede - og når maskiner skaber mennesker i deres. Med Teknopsykologi behandler Astrid feltet hvor psykologien og den intelligente teknologi tørner sammen, og hun diskuterer hvordan de gensidigt påvirker hinanden i en smuk men kompleks dynamik.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Tror ikke du skal være så bekymret. Levetiden på elektroniske og mekaniske apparater er ikke så lang og typisk går sådan noget i stykker eller forældes i løbet af maks 10 år. Hvis du endvidere tænker at disse apparater er i drift udendørs er det også mindre end det. Så medmindre nogen knytter sig følelsesmæssigt til sin tamagochi er det nok genbrugspladsen der bliver dens skæbne. Måske programmerer man det ind i dimsen at når den når næsten kritisk fejlniveau bevæger den sig selv derhen og bliver skilt ad.

  • 3
  • 1

Jeg forstår godt skribentens dilemma. Og jeg tror faktisk at der er grund til bekymring. Ikke nu, men på længere sigt.

Vejen til egentlig kunstig intelligens, fortolket som noget vi opfatter som menneskelig intelligens, er længere end mange (inkl. jeg) havde forventet.

Omvendt er vejen måske ganske meget kortere end mange andre havde spået.

Med andre ord, så er jeg stadig af den overbevisning, at der vil komme maskiner som vil blive opfattet som mennesker, fordi vores interaktion med dem vil virke medmenneskelig.

Når det sker, vil der kunne samles minder, både hos mennesket og maskinen, og disse minder er jo det som binder mennesker sammen med hinanden. Uden evnen til at dele minder, er min påstand, vil der ikke være menneskelig intelligens, uanset at begrebet intelligens, smalt set, sagtens kan være opfyldt.

På det tidspunkt, vil det at skille maskinen ad, medføre at den defakto menneskelige intelligens som er oparbejdet i maskinen, skades hvorfor det må være at sidestille med mord.

I en periode vil det formentlig være acceptabelt, på samme måde som det gennem tiderne har været acceptabelt at skelne mellem menneske racer, med de følgende umenneskelige handlinger det har medført.

Såfremt maskinerne har menneskelig intelligens, vil de formentlig også ende op med at have menneskelig vilje (og modvilje) hvorfor jeg kun kan se at deres rettighedskamp vil starte, og formentlig ende op med at de, efter en lang og sej kamp, får samme rettigheder som organiske mennesker.

Skelnen mellem organisk menneskelig intelligens og ikke organisk ditto, er også en kunstig skelnen, som med tiden formentlig også vil blive udvisket. Enten fordi den uorganiske menneskelige intelligens flytter sig mod at blive organisk, eller, hvad allerede sker, den organiske menneskelige intelligens indfører flere og flere uorganiske dele for at hele eller opgradere sig selv.

Så de næste par hundrede år bliver superspændende at følge. Bliver der storkrig mellem "racerne".. de organiske og de uorganiske, eller ender det med at vi accepterer hinanden. Måske bliver den ene, over tid, naturligt udkonkurreret af den anden (Darwinisme) eller ender vi med fysisk at integrere os med hinanden i en enheds symbiose?

  • 3
  • 0

Det kommer vel an på vedkommende intelligens kønsbias?

Begge køn bør vel også opdeles i perfektionister (12-tals mennesker) og os andre. Perfektionen er jo det godes unævnelige fjende, men bare i løbet af de seneste 30 år er gennemsnitlig menneskelig intelligens åbenbart aftaget med 5 %-point. Undtagelsen er vel 12'erne; er det ikke pga dem, at de lokale magthavere - i hvert fald indtil for nylig - har villet have flere og flere top-uddannede akademikere?

Og det er for tiden meget fint, at være noget med kunstig intelligens eller maskinlæring. Det sidste ville i min ungdom (aka for 30+ år siden) være blevet opfattet, som værende i modsætning til menneskelig intelligens; en mekanistisk tænkemåde - langt fra en empatisk evne.

Den anden Turing-test handlede netop om AI der kunne forveksles med et menneske. Er forskellen på troværdig og utroværdig intelligens så simpel som empati vs det modsatte? Jeg har oplevet + og -empati hos ledere af begge køn, men i mit voksne liv været bedre til detektere -empati hos mit eget køn. Beskrevet i daglig tale som en allergi over for "tomme autoriteter"; hvilket ikke har vakt begejstring hos 12-tals mennesker - kønsneutralt. Først da en lektor i '14, forklarede os 12-personers problem: de har aldrig taget chance - men altid forlangst forklaringer - aldrig oplevet, at tage fejl og derved berøvet sig selv muligheden for oplevelsen af nederlag. Folk der kun ved, hvordan ting skal gøres rigtigt.

Minder mig om min 1. g matematiklærer, som også underviste datidens sproglige studenter i deres C-niveau - med cotangens dansen. Efter at jeg selv var udlært, som software engineer af DEC, begyndte jeg som konsulent med spontane "forelæsninger" for phd- og master- studerende, der ville lære noget om SW; men kom i løbet af 10-15 år til at have det fint med at være hjælpelærer for diplom ingeniører, ved at lade som om jeg ikke forstod en detaille blev det lettere - for mig - at få dem til selv at gøre/yde det nødvendige - indtil jeg en dag oplevede at blive snigløbet - I bedste Herman Hesse stil a la Glasperlespillet, så min egen danske master i løbet af 4 år løb ud i sandet. Moi, je ne regrette rien - det er nu 4 år siden og jeg de sidste par år hver sommer håbet, at lære at gå igen. SW-mæssigt bærer jeg en stor hemmelighed: generel og non-greedy optimering, som jeg (gen-)opdagede i 1995. Færste gang var et specialtilfælde med GIS og databaser i 1983, troede jeg dengang. Livet har været dejligt og de to unge mennesker min ex var så venlig at dele med mig er faktisk meget bedre end jeg selv var på deres alder.

Næste gang - måske - lidt om min digitale krigdeltagelse - in the rear with the gear. Et nieche-produkt, der blev til nutiden...

  • 0
  • 0

Kære Kim Madsen og Jesper Hansen

Tak for interessante indspark med hver jeres vinkling på fremtidens (?) potentielle udfordring med mere eller mindre AI-tech og AGI i yderste instans.

Jeg vil anbefale jer at læse James Lovelock seneste bog ‘Novacene - The coming age of Hyperintelligence’ om overgangen fra mennesketiden (anthropocene) til en tid hvor AGI og andet elektronisk liv dominerer jorden.

(https://www.researchgate.net/publication/3...)

Lovelock har netop passeret de første 100 leveår, og med dén livserfaring lagt til tung medicinsk og biologisk faglighed og umage intellektuel kreativitet - er han en spændende tænker og formidler.

Venligst JA

  • 1
  • 0

“I like to think of huge transmitters sited at the poles broadcasting junk mail, unwanted advertisements, banal entertainment and misinformation. What a splendid way to keep cool!”

Bogen kan erhverves for mindre end 15£ på www.TheGuardian.com; en klar idé til en sommer (næsten) uden turister; eneste problem: det er ikke endnu, de næste knap 400 år vil disse tanker formentlig stadig være sci-fi, skrevet af endnu en god/"gal" britte. Vi mere nøjsomme læsere kan mens vi venter på posten, glæde os til JAs "Etik #3" - eller hvad den nære fremtid nu har i vente fra den kant.

  • 1
  • 0

Tror ikke du skal være så bekymret. Levetiden på elektroniske og mekaniske apparater er ikke så lang og typisk går sådan noget i stykker eller forældes i løbet af maks 10 år.

Hvis ikke at intelligensen først opstår, når apparatet går i stykker...

Menneskelig intelligens er ikke særligt interessant - det interessante er at kunne løse et problem, f.eks. skrive et program. Antager vi, at vi f.eks. kunne lave en evalueringsfunktion der angiver programmets kvalitet, så kunne være fint med en maskine, der automatisk opfandt og skrev et program med maksimal kvalitet.

Og det er så her at vi har problemet. Netop denne opgave kan kun gøres af intelligens. Vi kan udvikle programmer der anvender de metoder som vi bruger, men vi er meget langt fra at kunne udvikle programmer, der kan løse helt simple optimeringsopgaver. Selv en veldefineret opgave som vi kan teste om fungerer, og hvor vi har et program eller en formel der angiver kvaliteten af løsningen, kan vi ikke finde nogen metoder der løser problemet, f.eks. finder programmet.

Opgaven er ellers nem. Man afprøver bare alle programmer, og evalueringsfunktionen fortæller os kvaliteten. Vi vælger så den højeste. Denne opgave er umuligt at løse. Kunne vi, så kunne vi bygge intelligente maskiner. Men vi kan ikke løse selv den simpleste opgave. Hvis opgaven er en der står i lærebogen, kan vi naturligvis få en computer til at slå op. Men, vi har ingen metoder, der løser problemer. Uanset hvilke.

Et andet eksempel er at vi skriver et program, samt en formel der evaluerer kvaliteten, f.eks. angiver strømforbrug og forsinkelser. Vi vil nu gerne finde løsningen, hvor vi undersøger alle programmer, der for opfører sig 100% ens med vores definerede program, men er hurtigere, og bruger mindre strøm. Vi kan ikke lave noget endnu, der kan finde en løsning.

Det gælder helt generalt. Vi har ganske enkelt ikke matematik som kan løse andet end problemer som vi allerede har løst for dem, og varianter over dem.

Hvor findes så løsningen på det problem? Hvorfor kan livet, når vi ikke kan? Hvordan kan sådan noget være så simpelt for liv, når det er helt umuligt for os? Er vi ikke dygtige nok?

Simpelthen. Det er svaret. Vi er ikke intelligente. Vi kan ikke løse et problem. Mennesker har ingen IQ. Hvor kommer intelligensen fra, når naturen gør det?

Jo, den kommer fra kvantemekanikken. Kvantemekanikken rummer netop mulighed for, at kunne gennemløbe et uendeligt antal muligheder, og finde dem der består efter vores indkodede formel. Først, når vi kan lave effektive kvantecomputere, der kan løse ethvert problem, så kan vi lave kunstigt intelligens.

Så - indtil videre, vil det ikke være muligt. Intelligens er det samme som kvantecomputing. Og vi kan reelt det meget dårligt.

  • 2
  • 0

Kære Jens D Madsen

Tak for en grundig og pædagogisk indføring i hvad State of the Art er på optimerings/automatiserings-teknologien er i dag.

Men kvantemekanik titter så vidt jeg kan læse mere og mere frem i ganske forskellige sammenhænge. Det bliver spændende at følge. Vh JA

  • 0
  • 0

How low will you go? – bli’r der spurgt …

Vi må bare sørge for kun at avle damerobotter med den velkendte kunstlede intelligens, for herrerobotter vil trods overlegen intelligens have en alvorlig skavank, som bekendt: ”At være forsynet med en penis er som at være lænket til en galning.” (Sofokles, for 2500 år siden).

For øvrigt er klummens overskrift vildledende – LBGT Robert bliver næppe tildelt indfødsret og borgerlige rettigheder eller betragtet som medborger, dertil vil diskrimineringen sætte en effektiv stopper …

https://www.youtube.com/watch?v=6cNT05vuJ6g

  • 0
  • 0

Troels Trier og Rebecca Bruel - Robertmand

Haha, ja Hr Trier og Fr Bruel har altid været god for et grin, mens man venter på PostNord.

Naturvidenskavens "skidenvabelinge" metoder - hvis vi skal opdatere I. Kant - da teknologibegejstrede non-natfaks begyndte, at tro den var normativ i stedet for descriptiv.

Det er den - i mine øjne - ikke, men det er når den kombineres med ignorant griskhed, at den bliver farlig for mennesker.

Humaniore bør altid komme før natfak, men gratis uddannelser og 3-4 dobbelt er for stor en fristelse. Det skal koronu og klimaforbanelsen nok få bugt med? Gaia løser problemet, som den plejer.

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten