Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.
teknopsykologens briks bloghoved

AI læser med og prædikterer sygdomme, HRC #2

Når mennesker skal arbejde sammen med maskiner - altså samarbejde - da kræver det revision og re-aktion af gænge arbejdspraksisser og altså ledelse af hele organisationen.

Feltet kaldes Human-Robot-Collaboration (HRC), men hvorvidt der er tale om et reelt 'samarbejde' her - det skal vi blive klogere på nu.

Vi skal denne gang kigge nærmere på et par eksempler på implementering af AI-software i essentielle funktioner i sundhedsvæsenet.

Det næste spørgsmål, som HRC i forbindelse med implementering af AI-teknologi på arbejdspladsen er, om medarbejderens færdigheder blive overflødiggjort eller forlænget. Erstattet eller augmenteret? Måske er det både/og.

AI læser med og prædikterer sygdomme

Vi ser spændende og opbyggelige eksempler på hvordan AIs kapacitet virker som en hjælp i sundhedsvæsenet. Inden for radiologi, patologi og dermatologi søger man at få AI-software til at assistere i at forudsige udvikling af sygdomstilfælde. (Pesapane & Sardanelli, 2018; Sauraub & Topol, 2016). Herhjemme er man på Røntgenafdelingerne i hovedstadsområdet ved at søsætte implementering af AI-softwaren RBknee (fra danske Radiobotics), der skal assistere radiologerne med at identificere slidgigt i knæ ud fra scanningsbilleder. (RadioBoticsog Bispebjerg hospital). RBknee giver sit bud på sandsynlighed for udvikling af slidgigt i knæet i procenter, og radiologen skal bruge denne analyse i sin samlet vurdering. Det billedemateriale RBknee “fodres” med er kendt af radiologerne hvilket i en vis udstrækning eliminerer risikoen for, at RBknee blot er endnu en ‘blackbox-algoritme’, hvis grundlag for analyse er totalt uigennemskueligt.

AI lytter med og guider i førstehjælp

Et andet eksempel på inddragelse af AI til at løse opgaver er i Region Hovedstadens Akutberedskab. Er du så uheldig at du må ringe 112, så kommer du igennem til en dygtig vagt OG til en såkaldt ‘kunstig intelligent personlig assistent’. Denne AI-assistent er et stykke software i vagtens computer eller i en dims på bordet, der kan “lytte” med i din og vagtens samtale og på den baggrund hjælpe vagten i at holde styr på alle dine oplysninger og hjælpe dig på rette vej. Softwaren (fra danske Corti) kan lære at opfange symptomer på hjerteanfald over telefonen og assistere vagten i rådgivning af den nødlidende. For nuværende kan personalet fange 84 procent af de registrerede hjerteanfald når Corti hjælper til, modsat 75 procent uden. (kilde på studie).

Men er der overhovedet tale om et samarbejde mellem medarbejderen og teknologien her?

Aktion/reaktion vs Interaktion

Det synes tydeligt, at AI bidrager til at løse opgaver bedre og hurtigere. Men et klassisk samarbejde med indbyrdes udveksling af viden og handlinger - mener jeg ikke, at der er tale om her. Derimod er der tale om en form for vidensformidling i en ét leds aktion/reaktions-kæde.

I første omgang "fodrer" medarbejderen eller AI-programmøren maskinen med data. Og i næste omgang "spytter" maskinen den nu bearbejdede data ud til medarbejderen. Fra mit perspektiv, skal der forløbe en mere vedvarende og dynamisk interaktion bestående af en informations-feedback-loop mellem maskinen og medarbejderen for, at det kan forsvares at tale om et regulært 'samarbejde'.

Men hvordan kommer vi dertil?

Indsigt i og ærlighed omkring egne begrænsninger

Forestil jer, at den AI-software I normalt modtog meldinger i procenter eller præprogrammeret løsningsforslag fra, pludselig begyndte at stille jer spørgsmål eller blot udtrykke tvivl og bede om hjælp

Det kunne dreje sig om, at maskinen registrerer, at den mangler data for at kunne vurdere noget på validt grundlag eller behøver data indhentet fra fx. kameraer eller taktile sensorer for at kunne få et bedre billede at fx. sygdomsrisikoen. Ellers behov for mere data om sociale eller psykologiske forhold for at kunne vejlede bedst muligt. Netop registrering af folks psykologiske stemning i rådgivningssituationer (og ved salg af diverse varer!), prøver man allerede kræfter med i det der hedder* sentimentanalyse* (fx. Salesforce Einstein Sentiment Analysis).

Teknologien er der egentlig, men desværre vægtes det ikke så højt blandt AI-udbyderne. Maskinlæringsalgoritmer giver deres vurderinger som sandsynligheder, men det er langt fra altid, at disse høje som lave sandsynligheder præsenteres for brugeren, og maskinlæringsalgoritmer kan også tage fundamentalt fejl i deres sandsynlighedsvurdering i særligt uheldige situationer.

Behovet for interaktion og derfor behov for kommunikation bliver tydeligt ved de førerløse biler. De bliver ind i mellem i ""tvivl" om, hvad det egentlig er de ’ser’ foran sig. Vi er vant til at teknologi bare løser problemerne for os uden et behov for mere avanceret interaktion. Vi behøver ikke kunne tale med bilens speedometer, for det er rimeligt åbenlyst om det virker eller ej, og det ændrer sig ikke om vi kører i byen eller på motorvej. Men når bilens teknologi er baseret på AI og bliver så avanceret at den styrer hele bilen, så begynder den også at være så avanceret at den kan have nogen af de samme udfordringer som en menneskelig chauffør: Trafikale situationer der kan være svære at gennemskue, situationer hvor det ikke er klart hvad der er det bedste at gøre, situationer hvor man overser noget, begår fejl eller bliver usikker.

Det kræver altså samarbejde, at få de førerløse biler til at være pålidelige og i sidste ende sikre for os at anvende.

Udviklere af AI bør være ærlige og tydelige om deres teknologis fejlbarlighed. Det er faktisk ganske menneskeligt. Det giver sig selv, at samarbejdet mellem mennesket og bilen, vil blive mere vellykket hvis bilens - og menneskets - svagheder og usikkerheder lægger åbent frem. Præcist som det gælder i rent menneskelige samarbejdsrelationer. Og dette gælder ikke kun i samarbejde med førerløse biler, men også som her fremhævede eksempler på AI i sundhedsvæsenet, som er så avanceret, at den selvstændigt træffer beslutninger under forskelligartede omstændigheder, og hvor omstændigheder og beslutninger hverken er helt forudsigelige eller 100 procent fejlfri.

Vi skal have AI, der kan evner at indse egne begrænsninger og som kan kommunikere dette til medarbejderen eller brugere og derved indhente data/viden. Og vi skal fra at AI og medarbejderens "samarbejde" består af aktion/reaktion på hinanden og hen til, at de foretager en regulær interaktion. Begge forandringer kræver, at AI besidder funktioner, der kan sidestilles med dele af menneskets essentielle sociale færdigheder.

Et godt samarbejde bygger på tillid

Vi mennesker behøver en vis grad af tillid, hvis vi skal indlade os på videre interaktion med nogen eller noget. Og hvordan vi gør maskinerne tillidsvækkende og ikke tillids-svækkende for fagpersonerne rundt omkring på forskellige arbejdspladser, er hvad vi skal kigge nærmere på næste gang.

Jeg kan afsløre, at vi skal vi omkring - eller snarere genbesøge (læs mine blogs At puste liv i maskiner og State of the Art på humanoide robotter) hvordan vores menneskelige sociale færdigheder som dét at kunne sætte sig i andre sted, det at kunne mentalisere, forsøges efterlignet i softwaren. Og skal vi udfolde et ældgammelt trick kaldet antropomorficering, som det hedder i psykologien, når man tillægger dyr, planter og ting menneskelige egenskaber.

On going debat om erstatning vs augmentering - det kræver ledelsesmæssig greb

I de her fremhøvede eksempler fra sundhedsvæsenet er det tydeligt at AI gør medarbejderne bedre og/eller hurtigere til deres job. Men der er stadig stor bekymring for at miste sit job og sin faglige anseelse eller få omkalfatret sin fagidentitet - og tildels med god grund - rundt omkring på arbejdspladserne. (Pesapane et al., 2018; Sauraub & Topol, 2016). Diskussionen om hvorvidt maskinerne tager vores jobs eller gøre os bedre til at udføre dem, kalder på en nuanceret granskning.

Det afhænger blandt andet af hvilken software, jobfunktion og hvilken ledelsesmæssig strategi der lægges.

Nogle jobfunktioner bør overtages af AI. Don Norman, der er tidligere vice-præcident i techgiganten Apple kalder disse job for 'the dull, dirty and dangerous tasks'. Og argumenterer for at øvrige jobs, der kræver menneskelig kreativitet, samarbejde og organisering skal holdes på menneskehænder eller endnu bedre; foregå i et samarbejde mellem mennesket og maskinen og altså ved gensidig augmentering af vore kapaciteter. Vi fortsætter granskningen næste gang.

Tak for at læse med. VH Julie-Astrid

Julie-Astrid har en baggrund som militærpsykolog og udvikler af disciplinen Teknopsykologi. Her på ING.dk blogger hun om de psykologiske mekanismer, der ligger til grund for udvikling af kunstig intelligens og behandler problemstillinger, der opstår når mennesker skaber maskiner i deres eget billede - og når maskiner skaber mennesker i deres. Med Teknopsykologi behandler Julie-Astrid feltet hvor psykologien og den intelligente teknologi tørner sammen, og hun diskuterer hvordan de gensidigt påvirker hinanden i en smuk men kompleks dynamik.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Bidrag med din viden – log ind og deltag i debatten