En psykologisk kontrakt med AI?
Når du starter på en ny arbejdsplads, starter du også en række nye relationer til kollegaer og chefer. Disse relationer vil forløbe efter nogle mere eller mindre formaliserede foreskrifter og aftaler.
Du vil helt sikkert hurtigt have en udviklingssamtale med din nærmeste leder. Og en trivselssamtale 'one-on-one', og måske en række andre ugentlige eller månedlige 'tjek-ind'-samtaler. Her vil I sammen sætte rammerne for dit arbejde og jeres samarbejde: hvad skal du levere og hvad kan du forvente at få igen. I vil formulere en række formelle spilleregler herfor - I vil lave en kontrakt.
Gensidig udveksling
Men I vil også skulle tale om hvilke forventninger I har til hinanden som mennesker fx. 'hvis du er ærlig over for mig, så er jeg loyal over for dig'. Eller 'Når du lader til at være i trist humør, så lader jeg dig enten være eller spørger ind til hvordan det går - afhængigt at hvad du foretrækker'. Desuden afstemmer I mere eller mindre direkte hvordan I skal understøtte hinanden fagligt - 'jeg deler min særlige viden om dette felt med dig, og du returnerer ved at åbne døre for relevante faglige kapaciteter for mig'.
I er hermed i færd med at etablere det man i socialpsykologien kalder en psykologisk kontrakt (contract theory, Bankins & Formosa, 2020), hvor I afstemmer jeres gensidige udveksling af jeres hver især ressourcer (social reciprocal exchange, Molm, 1991).
Dette sker i din relation til din nærmeste leder og/eller chef og i din relation til dine kollegaer - altså såvel vertikalt som horisontalt.
En ny kollega
Et højst realistisk scenarie er, at du inden for de næste par år vil få en ny type af kollega. En kollega som du ikke nødvendigvis vil sludre med over frokosten, men snarere vil bede om at hente din frokost.
Jeg tænker selvfølgelig på AI-styrede teknologi i fx. humanoide robotter eller ren software, som udvikles massivt i disse år, til at kune assistere os mennesker i vores arbejde.
Forskere i psykisk arbejdsmiljø samt organisering af samarbejde på arbejdspladser mener, at vi også med disse nye 'kollegaer' behøver at etablere en 'psykologisk kontrakt' (fx. Bankins & Formosa, 2020).
Når AI pådrages ansvar
Om vi vil det eller ej, så holder vi mennesker robotter og deslige ansvarlige for deres handlinger (Broadbent, 2017; Van der Woerdt & Haselager, 2019; Voiklis et al., 2016). Vi kan finde på at bebrejde dem, når de tager fejl og fx. leder os på vildspor (Keijsers et al. 2019; Bartneck et al., 2008). Omnvendt kan vi også vise os at være ekstra overbærende over for robotterne, hvis vi som udgangspunkt betragter dem som mindre begavede eller uansvarlige (lidt ligesom børn...) (Gunkel, 2017).
Generelt holder vi os ikke tilbage for at betragte robotter og især AI-styrede tekologi som en form for agenter (Berberian, 2019). De kan altså agere, mere eller mindre automont, og deres ageren har konsekvenser. Det betyder, at vi som kollegaer til dem automatisk kommer til at forvente os noget af dem - i hvert fald fagligt og højst sansynligt også relationelt dvs. psykologisk.
Vi kommer til at forvente en form for 'gensidighed' - ligeværdig eller ej - med den AI-styrede robot eller software; 'den henter min frokost eller forsyner mig med informationer, som jeg har brug for - og jeg returnerer med at 'fodre' den med data som fx. at tale til den eller vise den billeder af ting, så den kan træne sin tale-og mønster-genkendelsesevne'.
Vi vurderer kvaliteten af vores kontrakt med den AI-styrede robot eller software ved at måle om udvekslingen i relationen bidrager med såvel intrumentel værdi som symbolsk værdi (Molm, 1991). Robotten skal først og fremmest bidrage fagligt (instrumentelt) - det svarer til den formaliserede kontrakt du indgik med din nærmeste leder. Men den skal også bidrage med menneskelig eller symbolsk værdi. Den symbolske værdi involverer udveksling af ressourcer som fx. kan bidrage med øget den enkelte parts magt på arbejdspladsen. Igennem forpligtelser bistår hver enkelt part med sine ressourcer, som kan støtte den anden i at opnå sine mål. I hvert fald såfremt udvekslingen er 'gensidig'.
Når AI tildeles magt
Normalt er ligeværdig gensidighed dog ikke tilfældet i relationen mellem menneske og robot, da mennesket i reglen vil være den, hvis interesser er i centrum for relationen. Her tilgodeses mennesket fremfor robotten. Omvendt kan man også konkludere, at mennesket har brug for robottens ressourcer - og ikke omvendt. Mennesket er altså den behøvende part i relationen, og robotten er den forsynende. Dette placerer robotten i en særegen magtfuld position i forhold til mennesket, da mennesket i yderste tilfælde kan ende med at være afhængig af robottens bidrag, for at opnå sit mål fx. løse sin arbejdsopgave.
Denne potentielle ubalance mellem menneske og AI/robot som kollegaer, kan give uforudsete udfordringer. Normalvis, er det sådan, at dén part, der ligger inde med gyldig viden, i en vis udstrækning også er dén, der sidder med ansvaret - og derved beslutningsmandatet - og derved magten. Måske endda kan nyde anerkendelsen herfor.
Så hvordan placerer det mennesket på arbejdspladsen i forhold til AI-styrede robotter eller software?
Hvordan håndterer vi ansvarsplacering og magtfordeling mellem mennesker og AI?
AI skepsis
Vi ved, at der blandt fagfolk rundt omkring på arbejdspladserne findes en udbredt skepsis mod at implementere teknologi generelt og AI i særdeleshed. Modstanden skyldes 1) mistilid til teknologiens præcision og brugbarhed (Blomberg et al., 2021; Gaube et al., 2021; Sendak et al., 2020), 2) tvivl om etikken bag teknologiens logik (Müller et al., 2020; Haibe-Kains et al., 2020), og 3) frygt for at miste væsentlige opgavefunktioner eller ganske sit arbejde (van Hoek et al., 2019; Verghese et al., 2018).
Og dét er et kæmpe problem, fordi vi mangler såvel 'kolde robotarme' til at løse farlige, kedelig og beskidte opgaver, og 'varme computer hardiske' til at hjælpe os med at løse komplekse kognitivt krævende opgaver i fx. sundhedsvæsenet og energisektoren.
En ledelsesmæssig indsats
Ét greb på at løse dette problem, kan være en ledelsesmæssig intervention bestående af en stringent klarlæggelse af den 'psykologiske kontakt' der etableres mellem menneske og AI. Førnævnte udfordringer i relationen mellem de to parter kan formentlig derved imødegås og løses. Dette selvklart for det enkelte menneskets psykologiske velbefindende, men også for det brede samfunds skyld.
Ved du som medarbejder hvordan din ekspertise vægtes i forhold til fx. AI-software's ekspertise, da kan du også med større tryghed sætte dig ved forhandlingsbordet med dine menneske-kollegaer og bidrage med din ekspertise suppleret af eller supplerende AI's ekspertise, og sammen komme frem til gode løsninger.
Ved du hvem - eller hvad - der stilles til ansvar, når I begår fejl, da vil du også med større tryghed, kunne vurdere i hvilket omfang du vil/skal inddrage AI's analyse i din.
Ved du, i grove træk, hvordan AI fungerer - hvordan dens sensitivitet og specificitet er indstillet og hvilket datagrundlag den bygger sine analyser på - da vil du også med større tryghed, kunne vurdere dens gyldighed og dermed pålidelighed.
Feltet er endnu ungt og mangler empirisk udforskning, så mine antagelser her bygger på eksisterende forskning i AI-implementering set gennem en socialpsykologisk linse.
