Robotter har brug for etik – men hvilken?
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser og accepterer, at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Robotter har brug for etik – men hvilken?

robotter, etik, robotetik
Hvis robotter skal agere etisk, vil de blive udsat for nogle af de samme overvejelser som vi mennesker. For eksempel det berømte ‘trolley problem’, hvor et løbsk tog er på vej til at køre fem personer over. Men hvis du – eller robotten – skifter spor, så vil kun én person blive ramt. Hvad er det etisk rigtige at gøre? Gøre ingenting eller handle bevidst og dermed slå et menneske ihjel?

Hvis samtalen til et socialt arrangement løber lidt tungt, så vil det her spørgsmål hurtigt få sindene i kog: Hvem har ansvaret, hvis en eller anden form for kunstig intelligens, for eksempel i en selvkørende bil, er skyld i en ulykke – og hvordan træffer den det moralsk korrekte valg, hvis der opstår et dilemma?

Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?

Det spørgsmål er forskerne og politikere optaget af i disse år. På EU-plan besluttede kommissionens retsudvalg i sidste uge, at der skulle udarbejdes et forslag til, hvordan man rent juridisk skal forholde sig til robotter, som har en eller anden form for kunstig intelligens.

Leder af udvalget Mady Delvaux fra Luxembourg foreslog i den forbindelse, at selvlærende robotter kunne tildeles en eller anden form for ‘e-personlighed’, så de kunne stilles til ansvar for handlinger. Men hun forventede ikke, at arbejdet med den type lovgivning ville være færdig før om 10-15 år.

Problemet er blot, at udviklingen kan gå meget hurtigere, end EU og mange landes lovgivningsarbejde kan følge med til.

Ansvar uden bevidsthed?

Martin Mose Bentzen er adjunkt ved DTU Management Enginee­ring, ph.d. i filosofi og en af dem, som sammen med kolleger i blandt andet Tyskland forsøger at udvikle rammer for, hvordan robotter med en højt udviklet kunstig intelligens skal opføre sig i samarbejdet med mennesker:

»Grundlæggende giver det kun mening at placere et ansvar for en handling hos én, som har en bevidsthed om, hvad vedkommende gør. Men alligevel mener jeg, det er muligt at få robotter til at fungere som etiske enheder. Det kræver, at vi programmerer dem med etiske principper og regler,« siger Martin Mose Bentzen.

Men den slags etiske principper er ikke ligetil at kode ind i en robot. For hvad skal den grundlæggende rette sig efter? Skal en robot redde det enkelte menneske, eller skal den måske handle ud fra et overordnet hensyn til hele menneskeheden – redde børnene frem for en enkelt voksen?

Et af de mest kendte forsøg på at sætte robotters handlinger på formel, kom allerede i midten af forrige århundrede, hvor den russisk-amerikanske science fiction-­forfatter Isaac Asimov udformede de tre robotlove:

»Den måde, Asimov formulerede de tre robotlove på, er grundlæggende relevant i dag. Men hvis vi for eksempel siger, at robotten overordnet set skal fungere ud fra utilitarisme, altså ønsket om at skabe så meget nytte så muligt, så bliver vi nødt til at supplere med en række regler og etiske principper, så hensynet til det hele ikke går ud over folks rettigheder,« siger Martin Mose Bentzen, der samarbejder med tyske forskere fra universitetet i Freiburg.

Her arbejder man på at udvikle en softwarerobot, som bygger på etiske principper. Det er så op til mennesker i ‘samtale’ med robotten at afgøre, om den også opfører sig etisk forsvarligt.

Når robotter lærer af andre

Forskerne er dog godt klar over, at fremtidens robotter ikke er koblet op på faste regler kodet ind et almindeligt programmeringssprog, så det til enhver tid er muligt at forklare, hvorfor robotten foretog en given handling.

Fremtidens robotter baserer sig på neurale netværk, hvor logikken i handlingerne kan være mere eller mindre diffus set udefra. Det skyldes blandt andet, at robotten løbende bliver bedre til sin opgave, i takt med at den indsamler mere og mere data. Robotten er altså ikke bedre end det datagrundlag, den har adgang til.

Lige netop det viste sig at få uheldige konsekvenser, da Microsoft i marts måned sidste år, lancerede konversationsrobotten – eller ‘chatbotten’ – Tay på Twitter. I løbet af få timer begyndte Tay at sende tweets ud med racistisk og sexistisk indhold, og efter 16 timer på nettet blev den lukket. Robotten var simpelthen begyndt at tilegne sig det sprog, den blev mødt med på Twitter.

Martin Mose Bentzen fra DTU Management Engineering mener, at robotter med den rette programmering kan fungere som etiske enheder.

Faste regler og neurale netværk

Derfor er forskerne også godt klar over, at hvis robotter skal være ‘etiske’, så er det nødvendigt at bruge både faste regler og neurale netværk. Det er netop sådan et hybridsystem, Martin Mose Bentzen og hans kolleger arbejder på:

»Udfordringen er at formalisere nogle af de etiske principper, vi kender fra filosofien, og forsøge at skabe et hybridsystem, hvor vi både har de selvlærende principper fra de neurale netværk og et sæt regler, som systemet kan fungere inden for,« forklarer han og peger på det grundlæggende princip, hvor et menneskes handling både kan føre til noget godt og skidt – det såkaldte dobbelteffekt-princip:

»Det betyder for eksempel, at det ikke er i orden, hvis en lægerobot skærer én patient i fem stykker for at redde fem andre patienter,« siger han og erkender, at robotter styret af neurale netværk i mange andre situationer vil være stillet over for langt mere komplicerede problemstillinger.

Her vender vi tilbage til den selvkørende bil og børnehaven, som ved et uheld har forvildet sig ud på vejen:

»Selvom de etiske ideer, der ligger bag, er gamle, så er det jo en helt ny situation, hvor vi forsøger at koble filosofien med teknologien. Målet er at opstille nogle principper, som så måske kan omdannes til standarder for, hvordan robotter skal fungere i forhold til mennesker,« siger Martin Mose Bentzen.

Og når det gælder den selvkørende bil, så har han ikke noget klart svar:

»Men der er ingen tvivl om, at vi bliver nødt til at være mere forsigtige og stille større krav til robotter, end vi gør til os dødelige mennesker.«

Kommentarer (22)

Man kan ikke stille en robot til ansvar for noget som helst - lige så lidt som man kan stille en pistol eller en hammer til ansvar. Den, som slipper en førerløs bil løs på vejene, har også ansvaret - og det samme gælder andre robotter. Det er ejeren, beslutningstageren bag robotten, som har ansvaret.

Og i større målestok når beslutningen er politisk, er det som når man sender soldater i krig - ansvaret ligger hos beslutningstageren. Soldater har nogle rettigheder, som giver dem mulighed for at sige fra i tilfælde af krigsforbrydelser, hvorfor de vil kunne blive gjort personligt ansvarlige for disse. Man kan opstille tilsvarende regler for robotter, men ikke holde dem ansvarlige.

  • 6
  • 2

Helt enig.
Der er jo ikke forskel på de trafikregler som en selvkørende bil og et menneske skal overholde.
Hvilket man godt kan godt blive i tvivl om når denne historie om dilemmaer gang på gang dukker op.

Altså hvad siger færdselsloven om de tilfælde hvor der er dårligt udsyn og risiko for legende børn på kørebanen? Den aktion som loven forventer af et menneske der styrer rundt i hierarkiet ude i trafikken, er samme som der skal programmeres ind i computerprogrammet der overtager styringen. Der er intet som helst etisk problem med det i virkeligheden.

Så ja man kan kaste sig ud foran selvkørende bil og fremtvinge uheld på alle mulige måder. Det vil jo i sagens natur aldrig kunne blive et etisk problem for hverken programmør eller producent. Og skulle vi så forlange at den selvkørende bil skulle opføre sig anderledes end hvis det havde været et menneske bag rattet.

Det virker på mig som om denne type af diskussion, vidner om angst for fremtiden. Det kan der værer gode grunde til at have, og det er slet ikke usandsynligt at en bil eller hvilken som helst anden maskine kan hackes og programmeres med et kriminelt forehavende for øje. Ligesom det heller ikke kan udelukkes at en computer eller en hvilket som helst anden maskine går i stykker og ikke virker efter hensigten mere.

Det er bare ikke det som disse dilemmafolk sætter op, det er "spøgelset" inde i maskinen de frygter.

  • 8
  • 1

Bevis først at en robot vil ændre adfærd ved udsigten til straf. Og drop så alle de spekulationer indtil vi har fundet ud af hvad bevidsthed er.

  • 5
  • 0