Selvkørende biler kan tage samme etiske beslutninger som mennesker - men skal de?
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser og accepterer, at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Selvkørende biler kan tage samme etiske beslutninger som mennesker - men skal de?

Selvkørende bil moralsk dilemma
Selvkørende biler kan programmeres til at foretage samme moralske og etiske valg i ubehagelige situationer, der kan koste menneskeliv.

Forskere fra Universität Osnabrück har gennemført en række eksperimenter, der viser, at menneskers moralske og etiske valg under bilkørsel, hvor der uundgåeligt opstår kollisioner, kan sættes på formel.

Dermed er vejen banet for at lave en algoritme til selvkørende biler, så de vil handle på samme vis som mennesker, skriver Leon Sütfeld sammen med tre kolleger i en videnskabelig artikel i tidsskriftet Frontiers in Behavioral Neuroscience.

Som vi tidligere har skrevet om, har selvkørende biler som andre robotter, der interagerer med mennesker, behov for at have moral og basere deres beslutninger på en given etik.

Læs også: Robotter har brug for etik – men hvilken?

Det har dog længe været diskuteret, om det i det hele taget er muligt at give selvkørende biler en moral og etik, der svarer til den, mennesker har.

For at undersøge dette lod forskerne fra Osnabrück med anvendelse af virtual reality en række forsøgspersoner ‘køre rundt’ i et typisk forstadskvarter på en tåget dag, hvor de kom ud for en række hændelser, der førte til sammenstød eller mulige sammenstød med objekter, dyr og mennesker.

Forskerne fandt – noget overraskende ud fra andre forskeres formodninger – at den menneskelige adfærd kunne modelleres på en meget enkel måde ud fra den livsværdi, som forsøgspersonerne tillagde mennesker, dyr og objekter.

Denne adfærd kan på forholdsvis simpel vis udtrykkes i en algoritme til eksempelvis en selvkørende bil, som derfor vil træffe samme etiske beslutninger.

Det nye dilemma

Men som en af forskerne, Peter König, forklarer i en pressemeddelelse fra universitetet, efterlader det i virkeligheden samfundet med et andet dilemma:

Ønsker vi, at selvkørende biler – eller andre robotter for den sags skyld – skal handle, som mennesker vil gøre, eller ønsker vi, at de har en højere moral – og hvordan og af hvem skal en sådan moral defineres?

Som det er er beskrevet i boksen om togvognsproblemet, er det også muligt at påvirke og forandre menneskers moral med medikamenter.

Så et andet spørgsmål er, hvad der er typisk menneskelig moral. Og skal producenterne af selvkørende biler have forskellige moralske algoritmer til forskellige kulturer, hvor værdien af mennesker og visse dyr som hellige køer tillægges forskellige værdi?

Mon ikke det er noget, som også forsikringsbranchen interesserer sig for.

Kommentarer (30)

Maskiner har ikke moral men funktioner. Det kan godt være at disse funktioner er fremkommet med moralske overvejelser, men det er en anden historie!

  • 11
  • 1

Citat: "Ønsker vi, at selvkørende biler – eller andre robotter for den sags skyld – skal handle, som mennesker vil gøre, eller ønsker vi, at de har en højere moral – og hvordan og af hvem skal en sådan moral defineres?"

Hæ Hæ! Godt spørgsmål.

Hvis en bil ikke kan undgå at ramme en af to personer, skal bilen så vælge at påkøre den ældste? Den yngste, da denne har større chance for at overleve sammenstødet?


En selvkørende bil kører på motorvejen. En person står med en stor sten oppe på en bro over motorvejen. Et menneske kan forudse personen vil vippe stenen ned på motorvejen. Kan en selvkørende bil det?

En lille dreng med en bold går på fortovet med sin far i hånden. En person vil vurdere der er ingen fare på færde. To små drenge går med en bold på fortovet, en person vil konkludere der er lille fare. Drengen taber bolden, en person vil konkludere der er stor fare nu. Kan en selvkørende bil det?

  • 4
  • 5

Men langt de fleste gange vil den selvstyrende bil bremse hurtigere end mennesker, så den etiske løsning er at få mennesker ud af førerrollen hurtigst muligt.

Hver gang jeg ser den, ser jeg stor palaver og folk der vil forbyde robotbiler, men hurtigt glemmer at mennesker er skyld i de fleste fejl i trafikken.

  • 20
  • 3