teknopsykologens briks bloghoved

AI - en hemmelig agent?

Når processer automatiseres ved hjælp af teknologi, så så er én blandt flere konsekvenser, at mennesket har mindre kontrol over processen. (Andersson & Osvalder, 2009). Det er ingen overraskelse.

Fx. beskriver flypiloter at opleve sig mere distanceret fra mange og væsentlige aktiviteter i deres flyve-praksis når de støttes af automatiserede teknologi. De beskriver, at denne distance kan sidestilles med et tab af kontrol over deres arbejde. (Berberian et al., 2012; Coyle et al., 2012)

Tab af kontrol over sit arbejde bevirker som regel, at man generelt oplever at have mindre agens i sit arbejdsliv.

Når jeg skriver agens henviser jeg til en definition af begrebet hentet i den socialpsykologiske tradition:

Menneskets evne og vilje til at initierer en handling (aktion) og opleve at kunne kontrollere og måske endda påvirke udfaldet af denne handling. (Moore, 2016).

Tab af kontrol og derved oplevelsen af at have agens, lader også til at gøre sig gældende - og måske endda i endnu højere grad - når processen overtages af mere autonom teknologi som kunstig intelligens algoritmer (AI) repræsenterer.

Hvis AI-algoritmens databehandling er så kompleks og uigennemskuelig for brugere, at den opleves uforudsigelig (netværkets aktivitet foregår i hvad, der kaldes 'hidden layers') , da oplever brugeren et fald i kontrol over sine handlinger. (Diaz et al., 2018; Coyle et al., 2012; Viera da Cunha, 2019). Det samme gælder når softwarens brugergrænseflade (interface) er er indviklede eller ganske under-udviklede. (Limerick, Coyle og Moore, 2014).

Hemmelige kunstige agenter?

Agens har vi alle - både de britisktalende jakkesætsklædte pistolbærende hemmelige agenter - og så alle os andre.

Vi agerer af os selv inden for en given fysisk eller diskursiv ramme. (Moore, 2016; Haggard & Eitam, 2015). Når vi kan og vil handle i en given situation, hvad end det er i vores job eller i trafikken, når vi laver mad eller køber ind, træffer beslutninger eller leger med vores børn - så er vi agenter.

AI-algoritmer er endnu langt fra at kunne agere autonomt som os, men jeg vil nu alligevel forsigtigt hævde, at AI, der ofte fungere uigennemskueligt og uforudsigeligt for mennesket, kan betragtes som en ny slags agenter, der fungerer mere eller mindre i det åbenlyse - en slags hemmelige kunstige agenter.

Vi ved som oftest ikke hvad de laver og hvordan de agerer. Men de laver en helt masse, og vi vil få resultatet herpå at se og kan derefter tage stilling til det.

Kunstige agenter, der i vid udstrækning synes at kunne agere med en vis selvstændighed ud fra en kapacitet til mønstergenkendelse og konsekvensberegninger - og deraf kapacitet til at agere herefter med hvad der ligner fri vilje.

Så hvad skal der til for vi "rigtige agenter" har mod på at arbejde sammen med de kunstige agenter?

Kommer vi til at opleve at miste agens ved at blive udfordret negativt, udkonkurreret eller endda truet af AI?

Både ja og nej.

JA hvis man skal tro på litteraturen i menneske-computer-interaktion (HCI) som ovenfor beskrevet. Det har jeg også skrevet om i følgende blogposts:

Homo Sapiens Cyborgensis - en ny art?

Sig Hej til din nye kollega - hun ved alt om dig

Og NEJ, hvis vi formår at etablere tillid til at de såkaldte kunstige agenter er med os og ikke mod os. At algoritmerne er bygget til at hjælpe og styrke os, og ikke erstatte og overflødiggøre os.

Oplevelsen af at tabe agens, når man skal anvende og endda interagere med AI om fx. at løse kognitivt krævende opgaver på sit arbejde, er forbundet med en risiko for at miste motivation, effektivitet, ansvarsfølelse etc. i sit arbejde og generelt.

Vi bør derfor undgå at give mennesket en oplevelse af at tabe agens, ved at efterstræbe at klarlægge og kommunikere de hemmelige AI-agenters dagsorden dvs 1) hvordan de fungerer rent teknisk, 2) hvad formålet med at implementere dem er, samt 3) hvad "spillereglerne" for interaktionen med dem er.

Formår vi at give brugere en forståelse af hvordan og hvorfor vedkommende konkret skal bruge AI til at løse den konkrete arbejdsopgave, da er det min vurdering, at brugere vil opleve at bevare måske endda udvide sin oplevelse af at have agens i sit job.

Fra dette psykologfaglige perspektiv, bør AIs funktion og formål i stedet beskrives som augmenterende intelligens fremfor kunstig intelligens.

AI bliver herved en agent, der skal understøtte og udvide menneskets kognitive kapacitet - en agent vi agerer MED. Frem for at være en hemmeligt og autonom agent - der agerer UAFHÆNGIGT af os.

Det handler om oplevelsen af agens

Det giver sjældent mening at tale om agens i sig selv, da det er vores individuelle oplevelse som have agens, der i sidste ende betyder noget for vores psykologiske velbefindende og oplevelse af at være autonome og respekterede moralske væsener, der behandles af og behandler andre retfærdigt. (Boström, 2011).

Vores oplevelse af at have agens afhænger direkte af vores oplevelse af at have kontrol over vores handlinger og at disse har konsekvenser, som vi i vid udstrækning kan forudsige. (Desantis et al., 2011; Synofzik et al., 2013).

Skal samarbejdet køre, skal vi kort sagt opleve, at de kunstige agenters databehandling og analyse er tilstrækkelig gennemskuelige og forudsigelige således, at vi kan tage stilling til den og agere derpå.

Overtager AI vores agens?

Vores indstilling til AI som en agent, er naturligt præget af, at teknologien er både ny, kompleks og uforudsigelig. Selv for dem, der bygger den.

Om vores bange anelser eller håbefulde forventninger er berettigede eller ej - da skal vi tage hånd om dem. Vi skal forstå hvordan og hvorfor vores kognitioner, emotioner og handlinger udvikler sig som de gør det handler om at lade de kunstige agenter indtræde på vores professionelle og private territorium og virke i, for og med os.

En årsag kunne være oplevelse af at have agens - eller snarere oplevelsen af IKKE at have agens eller blot frygten derfor.

Gør kunstige agenter os bedre til vores arbejde? Dårligere? Eller mere ligeglade?

Det bliver spørgsmålet vi dykker ned i næste gang, hvor jeg også vil give mine bud på konsekvenser for de mennesker, der skal anvende AI i deres daglige opgaveløsning.

Tak for læse med.

Astrid

Astrid er psykolog og PhD-forsker i de psykologiske implikationer ved menneskets interaktion med Kunstig Intelligens særligt i arbejdslivet. Feltet hun udvikler kalder hun ‘Teknopsykologi’, og dét er hvad, hun skriver om her på Ing.dk.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Spændende artikel og clif-hanger.

For ca 30 år siden, begyndte AI at tage form inden for IT. Det kom script-sprog som Trellis, som handlede mest om at kategorisere sæt af hændelser, opbygge beslutningtræer m.m., at kalde en spade for en spade (graveredskab). I de senere år er ML kommet til, som IT anvendelse af statestik (og sandsynlighedregning) på store datasæt, hvor sammenhængen ofte er skjult i mængden af data. Man kan så maskinelt afgøre om noget med blad, skæft og (tværstillet) greb er et graveredskab og måske endda en spade - eller "bare" en skovl. I virkeligheder er udfordringen noget ældre: "The computer says: No!" Gennemskuelighed er et vigtigt kriterium, der undertiden begraves i specialiseret ordvalg (sprog). Vi bliver fagligt isolerede i hver vores sprog - en gammel traver (Babelstårnet), kendt fra Det gamle Testamente. Man kan prøve at lære flere fags sprog (i gl dage at tale og forstå sin kundes), men man vil nok nå frem til at forskellige sprog ofte har store "overlap" af begreber, som dækker over tilsvarende begreber. Det er nok dette "teknopsykologen" beskriver i disse facinerende klummer.

  • 1
  • 0

Superinteressant emne.

Citat; Menneskets evne og vilje til at initierer en handling (aktion) og opleve at kunne kontrollere og måske endda påvirke udfaldet af denne handling. (Moore, 2016)

hænger sammen med at finde rationale i AI'ens handlingsmønstre. Det kræver at logikken i AI er programmeret under operatørens præmisser, eller i hvert fald indenfor skiven. Som i cockpittet er det vigtigt at de automatiske funktioner giver mening i pilotens logik. Imidlertid er konstruktionerne ofte så komplekse at linket mangler. Tænk blot på 737 800Max

Så - logik mener de fleste af os at være i besiddelse af, men nogle gange oplever man at denne evne tydeligvis ikke er standardiseret.

  • 2
  • 1

Som i cockpittet er det vigtigt at de automatiske funktioner giver mening i pilotens logik. Imidlertid er konstruktionerne ofte så komplekse at linket mangler. Tænk blot på 737 800Max

Bortset fra single-point of failure, har jeg vanskeligt ved, at følge sammenhængen med AI i dit 737-eksempel. Ja, Boeing havde lavet et fejlbehæftet system (SPOF) og ikke informeret piloterne godt nok, men uden SPOF burde det virke for de fleste ; fordi den Analog Behavior Model man anvendte i MCAS ville virke uanset om den var mekanisk eller digital. Men det er bare min forståelse af hvad piloter har beskrevet, jeg er ikke selv pilot - jeg har lavet ABM'er med simulations software. Iøvrigt er jeg enig med dig, superinteressant artikel ;-)

Hvis det kritiske komponent fejler i systemer som MCAS er man på spanden, hvis man ikke ved at systemet kan slås fra.

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten