Dette indlæg er alene udtryk for skribentens egen holdning.

Bamse er en bamse er en bamse er en bamse

11. oktober 2019 kl. 11:007
Artiklen er ældre end 30 dage

Min datter Gertruds bamsehest bliver aldrig levende uanset hvor meget jeg forsøger at imitere en virkelig hests lyde og bevægelser.

Alligevel har Gertrud på godt et halvt år udviklet følelser for bamsen og tillægger den at have selvsamme og altså at have et mentalt liv. Denne udvikling skyldes min - i al ydmyghed - evne til at simulere den virkelige hest og dermed “narre” hende til at tro at bamsen er levende.

Det sagt; så finder Gertrud på et tidspunkt i en ikke fjern fremtid ud af, at bamsehesten faktisk ikke er en rigtig hest. Ikke desto mindre bliver hun forventeligt ved med at lege med den.

Så hvis vi skifter Gertrud ud med dig og hendes bamse ud med en intelligent maskine - hvor lander vi så?

Artiklen fortsætter efter annoncen

Illustration: Julie-Astrid Galsgaard.

Fra baby til robot

Hvornår gider du lege med en maskine? Eller vigtigere; hvornår gider du ikke?

Alexa, Siri, Amelia, Aida, Pepper, Sophia følg linket. Hæren af chatbots, voicebots og humanoide robotter er efterhånden anseelig. Alle vil de hjælpe dig med at opnå lige netop dét, du ønsker. Om det er at få dagens vejrudsigt, styr på dine forsikringer, vejvisning til nærmeste kiosk eller servicedesk - så er de klar.

For at få dig med på legen forsøger KI-udviklere at gøre deres robotter så menneskelige som muligt idet de går ud fra, at vi mennesker helst vil kommunikere med mennesker eller som minimum menneskelignende robotter.

Artiklen fortsætter efter annoncen

Denne præmis er dog senest blevet udfordret at sagen om Googles for menneskelignende chatbot Duplex følg linket, som jeg også skriver om min forrige blog om forskellen på kunstig og naturlig intelligens følg linket. Omvendt kender vi også alle til at opgive en online handel fordi maskinen - intelligent eller ej - der skulle guide eller ekspedere os ikke reagerede som vi havde brug for.

For meget eller for lidt; hvor går grænsen for hvor meget maskiner må ligne og opføre sig som mennesker?

Illustration: Brett Jordan.

Dyt dyt skal vi byt?

Det med at lege handler om hvad man i udviklingspsykologien kalder mentaliseringsevne.

Når børn - og voksne - leger bruger vi vores erfaringer med verden og andre mennesker og vores forestillingsevne; vi mentaliserer.

Vores evne til at mentalisere giver os mulighed for at forstå andre menneskers mentale tilstand det vil sige deres følelser, behov og intentioner. Denne opgave er let for den, der mestrer det, men kan opleves tæt på umuligt for den, der ikke gør.

For at Gertrud kan udvikle evnen til at mentalisere skal hun opleve sig tryg både fysisk og mentalt. Hun skal være sikker på, at jeg kan og vil hjælpe med opfylde hendes basale behov for føde og tryghed, og at jeg kontinuerligt gør det så længe hun har brug derfor.

“All You Need Is Love”… - and food!

Hvordan hendes behov for føde dækkes, giver sig selv, men hvordan hun kommer til at opleve sig tryg er mere diffust. Ikke desto mindre finder vi forældre som regel ud af det (ved erfaring med vores egen opvækst, ved instinkt, ved at prøve os frem - det findes der mange bud på), og vi formår at gøre vore børn trygge ved sig selv, ved os og ved omverden.

Illustration: Julie-Astrid Galsgaard.

Dette forhold kaldes tilknytning og denne kan være enten sikker eller usikker. Er tilknytningen usikker vil barnet og siden den voksne altid have udfordringer ved at indgå i nære sociale relationer, da hun vil være sat bagud hvad angår at kunne sætte sig i andres sted foruden have en række ambivalente eller afvisende følelser over for samt mistillid til andre mennesker.

Der ses altså et smukt men nådesløst samspil mellem tillknytningsmønster, basal tillid og evnen til at mentalisere.

(Ro)bot bot det kan vi godt!

Og hvorfor har jeg taget dig med på denne udflugt ind i menneskets snørklede udviklingspsykologiske labyrint?

Når du oplever at kommunikere godt - at have 'en god forbindelse’ - med en anden person, skyldes det formentlig, at I begge har en veludviklet mentaliseringsevne. Og omvendt; har du en mærkelig fornemmelse og føler dig enten misforstået, miskendt eller på anden måde mystisk behandlet skyldes det, at I begge eller din samtalepartner har en ringe mentaliseringsevne.

Om du vil lege med Siri, Alexa, Pepper, Amelia eller en af de efterhånden mange indbydende bots, ved kun du. Men vi kan være ret sikre på, at de er programmeret til at give dig en fornemmelse af, at de kan sætte sig i dit sted og opfylde dine behov.

Vi skal med andre ord måle KI på hvorvidt den er i stand til at interagere med os mennesker på vores præmisser og altså om den kan imødekomme vores behov for forståelse og anerkendelse foruden selvfølgelig konkrete løsninger på vore aktuelle problemer.

At puste liv i maskiner er en delikat opgave at komme i hus med eftersom, at erfaringer og tillid (det med den sikre tillknytning) som sagt er forudsætninger for at udvikle mentaliseringsevne.

Hvordan KI-udviklerne lykkes med denne opgave og formår at skabe kunstig intelligens vil jeg debatere næste gang.

Men lad mig høre; Hvornår har I intelligente læsere derude, sidst oplevet at have ‘en dårlig forbindelse’ med et andet menneske - og hvordan var det?

Kom godt videre i dagen. Astrid

7 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
7
21. oktober 2019 kl. 12:18

Alle kan godt gennemskue at robotten ikke har hverken sympatier eller antipatier.

Ja, hvis robotten er to kasser stillet oven på hinanden. Men tendensen går jo på, at robotter skal ligne mennesker mere og mere. Du har muligvis sådan en det-er-bare-en-skide-maskine-knap inde i hovedet du kan trykke på, men verden er fuld af mennesker som ikke er dig.

Selv om jeg selv arbejder med programmering til daglig og ved hvad der foregår, kan jeg ikke selv frigøre mig for en lille snert af irritation over min GPS når den f.eks. siger 'Tag tredie vej i rundkørslen': Jeg sidder faktisk og tager imod ordrer fra en maskine!

Selvfølgelig skal en maskine ikke stå og undskylde i halve timer for en eller anden fejl, men derfor kan den godt tale ordentligt.

6
18. oktober 2019 kl. 13:40

Det synes jeg hverken er en særlig høflig eller korrekt vurdering af indlægget.

Det forekommer mig helt korrekt. Artiklen er yderst banal. Muligvis er det uhøfligt at konstatere det.

På det intellektuelle niveau, ja. Men nu er vi jo ikke maskiner. Har du aldrig hørt nogen - eller selv - bandet af en bil som ikke vil starte? Eller sparket til en genstand, som gjorde noget den ikke skulle?
Min mor kunne i hvert fald finde på at klappe bilens instrumentbræt når den startede ved første forsøg på en kold dag.

De er eksempler på hvordan vi afreagerer på ting, når vi er frustrede. Det er fuldstændigt irrelevant for hvordan vi ønsker at en AI skal interagere med os.

At indtænke menneskelighed i kunstig intelligens er derfor en ret vigtig ting.

At indtænke hvordan man undgår at irritere mennesker ved at spilde deres tid med noget, som alle godt kan gennemskue er simulerede følelser, er vigtigt.

Når du søger efter noget i en forretning, og de har et elektronisk kort, så er du glad og tilfreds med at kortet skriver: "Gang nr. 5, 2. hylde fra neden." på en skærm.
Hvis du spørger en ekspedient som siger det samme til dig, så er der fanden til forskel på om hun snærrer det ud med en irriteret stemme, eller om hun siger det samme til dig med et smil og høflig stemmeføring.
Så hvis pågældende ekspedient skal erstattes af en AI, så skal denne AI også vide hvordan man taler til folk.

Alle kan godt gennemskue at robotten ikke har hverken sympatier eller antipatier. Det eneste man ønsker er at den så tydeligt som muligt skal udtale "Gang nr. 5, 2. hylde fra neden.".

Selvfølgelig er det sjovt at fedte rundt i sin følelsesmæssige filosofiske lommeuld og forestille sig alt muligt andet, hvis det er det eneste man magter at tænke over.

5
18. oktober 2019 kl. 13:06

Spændende analogi mellem udviklingspsykologi og KI.

Gertrud har dog flere fordele over nutidens og fremtidens machine learning programmer. Hun har en medfødt tendens til at prøve at forstå andre mennesker (udviklet over hunderede tusinder år), hun har sin egen hjerne til at basere sin inferens på (som har stort set samme arkitektur, software, etc. som andre mennesker); hun har mange år til at eksperimentere og forbedre sin mentaliseringsevne, i et sikkert og tilgivende miljø hvor det er ok at begå fejl. Først og fremmest har Gertud et særligt udviklet mentalt modul i hjernen hvis funktion er at bygge en rig model af sig selv og andre mennesker (og bamser), og hun deler andre menneskers ønsker og behov.

Alle de ting er uhyre svære tekniske problemer. Det er ikke nok at have idéen at bygge maskiner med mentaliseringsevne. Hvis vi ikke finder ud af hvordan man bygger den evne (og held og lykke med det), er der mere på spil end dårlige chatbots.

4
15. oktober 2019 kl. 10:30

Hvis alt man har er en hammer, så er det let at se at i verden som søm. Og hvis alt man kan er at væve banalt om mentalisering, så er det sikkert let at tro at det er væsentligt for udbredelsen af AI services.

Det synes jeg hverken er en særlig høflig eller korrekt vurdering af indlægget.

Sagen er imidlertid, at folk udemærket er klar over at de taler med en AI, som ikke hverken selv har brug for eller kan uddele sympati. Det eneste man ønsker af sådan en AI service er hurtigt og tydelig betjening. Man gider ikke skælde den ud når den fejler [...]

På det intellektuelle niveau, ja. Men nu er vi jo ikke maskiner. Har du aldrig hørt nogen - eller selv - bandet af en bil som ikke vil starte? Eller sparket til en genstand, som gjorde noget den ikke skulle? Min mor kunne i hvert fald finde på at klappe bilens instrumentbræt når den startede ved første forsøg på en kold dag.

De fleste bliver da også vrede eller kede af det, hvis nogen behandler vores ting dårligt. Også selv om tingen ikke tager skade af det. Forestil dig at nogen går forbi din vogn på parkeringspladsen, og dasker til den med sin hånd og siger 'Sådan en dum møgbil!' til den. Tænker du bare, at det er da ligemeget, bilen er jo bare en død ting? Det gør du måske. Men mange knytter visse følelsesmæssige bånd til deres ejendele.

En sådan AI vil blive tillagt lige så mange følelser, som en hjemmeside, der varetager samme service.

Sagen er, at vi mennesker faktisk knytter os følelsesmæssigt til ting. Og stærkere til en bamse end en brosten. Jo mere en genstand ligner noget menneskeligt, jo stærkere vil - i hvet fald nogen af os - udvikle en slags følelser for pågældende genstand (nu ser jeg lige bort fra 'uncanny valley'-effekten).

At indtænke menneskelighed i kunstig intelligens er derfor en ret vigtig ting. Når du søger efter noget i en forretning, og de har et elektronisk kort, så er du glad og tilfreds med at kortet skriver: "Gang nr. 5, 2. hylde fra neden." på en skærm. Hvis du spørger en ekspedient som siger det samme til dig, så er der fanden til forskel på om hun snærrer det ud med en irriteret stemme, eller om hun siger det samme til dig med et smil og høflig stemmeføring. Så hvis pågældende ekspedient skal erstattes af en AI, så skal denne AI også vide hvordan man taler til folk.

Derfor er dette emne ganske relevant.

3
12. oktober 2019 kl. 11:55

Når AI giver mig mere/bedre end mine medmennesker, så foretrækker jeg AI. Jeg ville ønske jeg kunne svare anderledes, men selverkendelse er en dyd siges der.

2
12. oktober 2019 kl. 10:45

Vi skal med andre ord måle KI på hvorvidt den er i stand til at interagere med os mennesker på vores præmisser og altså om den kan imødekomme vores behov for forståelse og anerkendelse foruden selvfølgelig konkrete løsninger på vore aktuelle problemer.

Hvis alt man har er en hammer, så er det let at se at i verden som søm. Og hvis alt man kan er at væve banalt om mentalisering, så er det sikkert let at tro at det er væsentligt for udbredelsen af AI services.

Sagen er imidlertid, at folk udemærket er klar over at de taler med en AI, som ikke hverken selv har brug for eller kan uddele sympati. Det eneste man ønsker af sådan en AI service er hurtigt og tydelig betjening. Man gider ikke skælde den ud når den fejler, og man ønsker ikke at den skal spilde tiden på at undskylde for sine fejl. En sådan AI vil blive tillagt lige så mange følelser, som en hjemmeside, der varetager samme service. Vil mange lave en AI service som virkelig pisser folk af, så skal man bare lade den spilde folks tid med at spille menneskelig. Der findes lærebøger i interfacedesign. Måske Julie-Astrid skulle prøve at åbne en.

1
12. oktober 2019 kl. 01:28

Det der med mentalisering lyder lidt som om at du rammer ned i hvorfor det er vigtigt med diversitet inden for teknologi.

Teknologi har det med at være udviklet af folk der af den ene eller anden grund (jeg tænker at der er sunde såvel som mere usunde årsager til det) har haft en mere intern leg som børn hvor andre folks reaktioner og følelser ikke har været så vigtige. Med andre ord, nørder. Resultatet af at have sådan nogle hoveder ansat (der ved hvad de snakker om, men måske ikke helt ved om andre folk ved hvad de snakker om) bliver ofte at man har et produkt der er teknologisk veludviklet - men som går over hovedet på de fleste brugere - eller virker unødigt pedantisk. Sådan noget som Apples produktlinie i starten af 2000'erne er vist eksempler på noget hvor den der svære balancegang faktisk lykkedes - hvilket bragte mindre formuer af sig.

Hvis (ambitiøse) teknologi-virksomheder kunne hitte ud af knække koden med at gøre køb på teknisk kunnen for at få mere "afrundede" mennesker ind kunne det blive en win-win for både selve virksomheden og det arbejdsmarked vi bevæger os over imod hvor "almindelige mennesker" ender med at blive marginaliseret.

Let er det nok ikke da det er to vildt forskellige kulturer der skal lære at snakke sammen.