Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.
teknopsykologens briks bloghoved

State of the Art på humanoide robotter

Hvad er status på udviklingen af humanoide robotter? Ligner de efterhånden os mennesker hvad angår udseende og adfærd i en grad, at vi gider interagere med dem? 

Dét har jeg spurgt professor i kunstig intelligens ved DTU Compute, Thomas Bolander om. 

Jeg har bedt ham uddybe hvor langt han er i sit arbejde med at få den humanoide robot Pepper til at udvise en "forståelse" for andre menneskers behov, intentioner og perspektiver på verden - det jeg også omtaler som mentaliseringsevne og beskriver mere indgående her Bamse er en bamse er en bamse er en bamse.

I kan også læse mere specifikt om Pepper-robotten og vejen til at udstyre den med menneskelige egenskaber i min forrige blog At puste liv i maskiner.

Illustration: Owen Beard

Jeg har endvidere bedt Bolander om at løfte sløret for, hvor han ser de humanoide robotter er på vej hen - i udviklingen og i samfundet. 

(Til orientering skal I vide, at når Bolander bruger betegnelsen Theory of Mind, mener han overordnede set det sammen som jeg, når jeg skriver om mentaliseringsevne. Begge betegnelser er hentet i den kognitive udviklingspsykologi men fra forskellige teoretiske ståsteder og foci (henholdsvis Baron-Cohen; Piaget og Bowlby, Ainsworth & Main; Fonagy). Dét overlader vi til ‘detaljeristerne’ at dykke ned i, mens vi andre går videre til interviewet).

Robot bot - her går det godt

Første spørgsmål

Hvordan går det med at få Pepper til at kunne tage et menneskes perspektiv og “forstå” vedkommendes behov og ønsker og altså mentale tilstand (Theory of Mind)? 

“Det er lykkedes i det omfang, at målet var at få den til at bestå false-belief tasks.” 

I en false-belief task skal Pepper-robotten i korte træk forsøge at forudsige en persons næste handling efter at have observeret denne person og altså kende til verden set fra hendes perspektiv. Tjek min forrige blog ud for uddybning; At puste liv i maskiner.

Bolander fortsætter;

“Theory of Mind er mange ting, og der er jo stadig diskussioner om, hvad man skal tage med under Theory of Mind-begrebet, og hvornår en bestemt adfærd kan siges at have med Theory of Mind at gøre. Vi kigger essentielt kun på den del, der har at gøre med skabelse af modeller af andres overbevisninger også kaldet ‘beliefs'.”

“Vi ser også på evnen til at genkende andres intentioner og altså deres mål med f.eks. en handling, men på dét punkt, er vi endnu ikke nået så langt.”

Fra software til hardware

“Derudover kigger vi på højere-ordens false-belief tasks, men selvom vi har bevist, at det teoretiske framework jeg har udviklet kan håndtere disse, så er det stadig ikke helt trivielt at få til at fungere i en robot.”

Med højere-ordens false-belief tasks henviser Bolander til opgaver, der kræver, at man evner at sætte sig ind i andre menneskers perspektiv PÅ andre menneskers perspektiv. 

Et eksempel kunne lyde; hvordan tror du, at Karen tror, at Ole har det i dag? Her skal du forstå BÅDE Karens og Oles mentale tilstand OG Karens forståelse af Oles tilstand. Og det er ikke småting for hverken mennesker eller maskiner!

Et sådan tredje-ordens perspektiv kræver først og fremmest en veludviklet mentaliseringsevne, som først regnes for færdigudviklet i os mennesker i 20-års alderen. Mens et første-ordens perspektiv, som er dét, der her forventes at Pepper kan mestre, svarer til, hvad et fireårigt barn formår. 

Udfordring no. 1: Begrænset sanseapparat

“Problemstillingen her er, at jo mere komplekst scenariet bliver, desto mere er vi afhængige af, at robotten har et meget præcist sanseapparat og kan interagere med verden på komplekse måder. Det afhænger ikke i lige så høj grad af, at robotten har en højtudviklet Theory of Mind."

Udfordring no. 2: Tracking af vision i realtid

“Her begynder der også at komme andre udfordringer på grund af begrænsninger i den nuværende KI-teknologi, når det kommer til computer-vision. For eksempel er det svært i realtime at kunne tracke præcist, hvad mennesker kigger på.”

Illustration: Createria

Andet spørgsmål

Hvad er næste skridt i projekt ‘menneskeliggørelse-af-Pepper’? Er der en metode eller et teoretisk afsæt, du er optaget af og vil tage op i dit arbejde?

“Jeg er stadig meget optaget af de modeller, jeg allerede bruger indenfor epistemisk logik og planlægning.”

Bolanders modeller for kunstig intelligens og hans arbejde med at skabe Theory of Mind involverer mere eller mindre komplekse matematiske modeller. Lad os tage et eksempel.

Forestil jer to robotter; Rob og Bob. 

Rob og Bob er placeret på hver sin side af et hus, som de ved hjælp af sensorer kan registrere oplysninger om og altså observere fra hver deres perspektiv. Skal de have en fælles forståelse af, hvordan hele huset ser ud, skal de til at dele deres perspektiver. 

Skal Rob have Bobs perspektiv på huset, behøver Rob altså at stille en række ja/nej-spørgsmål (på programmørsprog; 0/1) til Bob såsom; Er der et vindue i underetagen? Er der to vinduer i overetagen? Er døren grøn? og så videre. Dernæst er det Bobs tur til at spørge.

Ved at sætte sig ind i hinandens visuelle perspektiv får Rob og Bob en forståelse af, hvilket konkret billede den anden ser. Og hævet op til et lidt højere niveau kan man sige, at Rob nu har en forståelse af Bobs verdensbillede. 

Nu nærmer vi os dét, det hele drejer sig om, nemlig evnen til at forstå den andens - ikke blot fysiske - men også mentale perspektiv. Det vil sige mentale tilstand, som vi kan definere ved en række behov og ønsker. 

Bolander fortsætter;

“Det næste store punkt på agendaen er genkendelse af andres mål også kaldet ‘goal recognition’. Der findes forskningslitteratur om dette allerede, men det er også stadig et åbent felt, og det er ikke helt trivielt at inkorporere det i de øvrige metoder, jeg bruger.”

Når målet bliver målet

Goal recognition baseret på deep learning-netværk handler igen om forudsigelse af adfærd. (For uddybning af deep learning-netværk, se At puste liv i maskiner).

Vi mennesker har som bekendt en række essentielle ønsker og behov her i livet. Vi er mere eller mindre hele tiden på jagt efter at opfylde disse, hvad end det drejer sig om tilegnelse af materiel eller etablering af en tryg hjemlig base. 

Det betyder også, at hvis du formår at genkende andres behov og ønsker - deres mål - så vil du kunne imødekomme den anden på optimal vis og måske endda hjælpe vedkommende med at komme i mål.

(Du kan selvfølgelig også udnytte denne viden groft til egen økonomisk vinding via for eksempel ekstremt detaljeret og skræddersyet, målrettet markedsføring på sociale medier - men det er der jo ingen, der kan finde på at gøre, så det vil jeg ikke gå videre ind i/stille mig op i køen og tordne mod her…).

I kraft af vores mentaliseringsevne mestrer vi mennesker i reglen at sætte os i andres sted og forstå deres behov og ønsker. Heri består vores naturlige intelligens, som jeg har skrevet om her Hvad er forskellen på kunstig og naturlig intelligens?.

Når det er svært at lave en algoritme for genkendelse af andres mål, skyldes det at den føromtalte mentaliseringsevne opstår i en kompliceret og sammensmeltende dans af livserfaringer og relationer, tilknytning og tillid til nærtstående, og ikke mindst en grundlæggende motivation til overlevelse - og det med mest muligt velbehag.

300.000 års forspring

Så ja; det er uretfærdige kår, vi konkurrerer på - robotterne og os - eftersom at menneskets intelligens har været 300.000 år undervejs og for hver generation er blevet korrigeret for de værste fejl og mangler. Her må robotten tage til takke med sin skabende programmørs tekniske formåen, gode vilje og pengepung.

Tilbage til interviewet;

Illustration: Franck V.

Sidste spørgsmål

Hvor ser du de humanoide robotter - og voice- og chatbots for den sags skyld - er på vej hen i forhold til deres udvikling og berettigelse i vores samfund?

“Jeg synes faktisk, det er utroligt svært at vurdere. For mig at se er vi stadig på et meget tidligt udviklingsstadie, selvom teknologien brager frem. Men hvis man for eksempel ser på de første spæde skridt indenfor udviklingen af computeren, internettet eller smartphonen, så var det også ret svært at vurdere præcist, hvor disse teknologier ville ende og finde anvendelse.”

“Helt generelt er ideen med humanoide robotter, at de fysisk set er menneskelignende og dermed kan bevæge sig de samme steder som mennesker, og ideelt set også kan håndtere objekter som vi mennesker.”

Robot til husbehov

“I princippet burde en humanoid robot derfor både kunne lave mad, vaske op, skifte sengetøj, vaske vinduer, male væggen, slå græsset, vende pladen på pladespillen og så videre. Så det kunne pege imod udviklingen af husholdningsrobotter i hjemmet med meget mere generelle kompetencer end en robotstøvsuger eller robotgræsslåmaskine.”

“Men der er stadig langt til at humanoide robotter kan få dette niveau af fleksibilitet og generalitet. Forskningen i humanoide robotter og Theory of Mind er især relevant dér, hvor robotter og mennesker skal interagere tæt. Det kunne for eksempel være hospitalsrobotter, der skal agere i de samme omgivelser som og samtidigt med mennesker for at kunne samarbejde med dem.”

Bolander retter altså sit fokus mod de sociale humanoide robotter og slår fast, at de som minimum skal evne at tage vores perspektiv på en given sag. I første omgang vores fysiske perspektiv; fra hvilken vinkel ser vi tingen (huset), og dernæst vores mentale perspektiv; hvad har vi brug for for at få opfyldt vores behov og ønsker – for at nå vores mål.

Om han får hul igennem (og indhenter 300.000 års forspring) og udvikler en algoritme for mentaliseringsevne, vil tiden vise. Jeg håber det og vil følge udviklingen. 

Men er det nu også så afgørende, at de humanoide robotter ligner os? 

Jeg har nu brug en række blogposts på at beskrive, hvordan programmørerne forsøger at forstå, hvad vi kan kalde ’menneske-essensen’ for at kunne plante denne i maskinen, således at vi vil lege med den. 

Men vil vi da kun lege med ting, der minder om os selv? 

Flere af jer engagerede læsere har et par gange taget dette emne op i kommentarsporet, og jeg er nysgerrig på:

Hvad er minimum menneske-lighed en robot skal have, førend I vil have en dybere samtale med den?

Og er der grænser for, hvilke personlige ting (oplysninger, holdninger, følelser) I kunne finde på at dele med en intelligent robot?

Byd gerne ind, så samler vi tråden op næste gang, hvor flere kloge hoveder og jeg selv har et par bud på ovenstående.

Julie-Astrid har en baggrund som militærpsykolog og udvikler af disciplinen Teknopsykologi. Her på ING.dk blogger hun om de psykologiske mekanismer, der ligger til grund for udvikling af kunstig intelligens og behandler problemstillinger, der opstår når mennesker skaber maskiner i deres eget billede - og når maskiner skaber mennesker i deres. Med Teknopsykologi behandler Julie-Astrid feltet hvor psykologien og den intelligente teknologi tørner sammen, og hun diskuterer hvordan de gensidigt påvirker hinanden i en smuk men kompleks dynamik.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Bolanders tilgang kan vel kaldes intelligent design af en hjerne/sind.
Er der i feltet generelt mere tiltro til den fremgangsmetode, frem for lade intelligens udvikle sig i en simuleret virkelighed?

"Hvad er minimum menneske-lighed en robot skal have, førend I vil have en dybere samtale med den?
Og er der grænser for, hvilke personlige ting (oplysninger, holdninger, følelser) I kunne finde på at dele med en intelligent robot?"

Der er ikke nogen grænser. Hvis du i dag har googlet en medicin, så ved google at du eller en du kender har et problem.
Efterhånden som google bliver bedre til at forstå mere komplekse sætninger, så vil du se folk udnytte det til børneopdragelse, finansielle beslutninger, psykologhjælp. osv.
Alexa, Siri og Google assistant lytter altid, og folk har ingen hæmninger foran dem.
https://www.theguardian.com/technology/201...

  • 2
  • 0

Ja, Bolander tager udgangspunkt i at menneskehjernen kan forstås som en computer - som igen er kreeret med inspiration af hjernen... Det er altid lidt sjovt (skævt!), når man bekræfter
det ene med det andet og vice versa..

Det er i hvert fald den fremgangsmåde, man støder på i flest tilfælde når det omhandler at skabe menneskelignende sociale robotter. Man kan dog sige at Bolander og hans lige skaber en form for simulerer virkelighed med deres opstilling af klinisk virkelighed hvor robotten skal lære af erfaringer med forsøgspersoner, der agerer på en bestemt måde, som robotten så skal lære at genkende mønstre og kausalitet i. Der er tale om deep learning, men også logik og planlægning af “simpel” sensor-registrering.

Giver det mening?

  • men tror du også at folk ville “give” alle disse oplysninger om sig selv, hvis det ikke skete uden deres samtykke - altså hvis folk med fuldt overlæg aktivt skulle give al den info om sig selv?
  • 0
  • 0

Det er i hvert fald den fremgangsmåde, man støder på i flest tilfælde når det omhandler at skabe menneskelignende sociale robotter. Man kan dog sige at Bolander og hans lige skaber en form for simulerer virkelighed med deres opstilling af klinisk virkelighed hvor robotten skal lære af erfaringer med forsøgspersoner, der agerer på en bestemt måde, som robotten så skal lære at genkende mønstre og kausalitet i. Der er tale om deep learning, men også logik og planlægning af “simpel” sensor-registrering.

Giver det mening?

For mig giver det ikke helt mening. Jeg er ikke programmør, men som de fleste ingeniører har jeg da skrevet en del kode i forskellige script sprog.

Hvis jeg kører en række data sæt i mit Excel VBA script, så får jeg det samme svar, ligemeget hvilken rækkefølge jeg kører dataen. Det er fordi det er et script som jeg har udtænkt og designet og skrevet.

Hvis vi tager det omtalte Rob og Bob eksperiment som Bolander omtaler - Hvis Rob havde talt med Dave inden han taler med Bob, vil han så ende med at give et andet svar omkring Bob, fordi han er influeret af erfaringerne med Dave? Eller er der blot tale om at der er lavet et meget avanceret script som kan simulere den her forståelse?

Hvad angår dit data spørgsmål og om jeg vil tale om personlige ting med en AI - Ja, det vil jeg gerne i ret stort omfang - Men jeg er også klar på at betale for en sådan oplevelse på samme måde som jeg betaler for alt muligt andet. Det ville dog gøre mig en del mere rolig den dag at det bliver forbudt at handle med mine data uden mit samtykke... Og noget med en stats-udstedt certificering af at mine data er krypteret på en transparent måde. Krydser fingre for at Vestager gør noget godt der!

  • 1
  • 0
Bidrag med din viden – log ind og deltag i debatten