Robotter har brug for etik – men hvilken?
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
By signing up, you agree to our Terms & Conditions and agree that Teknologiens Mediehus and the IDA Group may occasionally contact you regarding events, analyzes, news, offers, etc. by telephone, SMS and email. Newsletters and emails from Teknologiens Mediehus may contain marketing from marketing partners.

Robotter har brug for etik – men hvilken?

Hvis samtalen til et socialt arrangement løber lidt tungt, så vil det her spørgsmål hurtigt få sindene i kog: Hvem har ansvaret, hvis en eller anden form for kunstig intelligens, for eksempel i en selvkørende bil, er skyld i en ulykke – og hvordan træffer den det moralsk korrekte valg, hvis der opstår et dilemma?

Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?

Det spørgsmål er forskerne og politikere optaget af i disse år. På EU-plan besluttede kommissionens retsudvalg i sidste uge, at der skulle udarbejdes et forslag til, hvordan man rent juridisk skal forholde sig til robotter, som har en eller anden form for kunstig intelligens.

Leder af udvalget Mady Delvaux fra Luxembourg foreslog i den forbindelse, at selvlærende robotter kunne tildeles en eller anden form for ‘e-personlighed’, så de kunne stilles til ansvar for handlinger. Men hun forventede ikke, at arbejdet med den type lovgivning ville være færdig før om 10-15 år.

Problemet er blot, at udviklingen kan gå meget hurtigere, end EU og mange landes lovgivningsarbejde kan følge med til.

Ansvar uden bevidsthed?

Martin Mose Bentzen er adjunkt ved DTU Management Enginee­ring, ph.d. i filosofi og en af dem, som sammen med kolleger i blandt andet Tyskland forsøger at udvikle rammer for, hvordan robotter med en højt udviklet kunstig intelligens skal opføre sig i samarbejdet med mennesker:

»Grundlæggende giver det kun mening at placere et ansvar for en handling hos én, som har en bevidsthed om, hvad vedkommende gør. Men alligevel mener jeg, det er muligt at få robotter til at fungere som etiske enheder. Det kræver, at vi programmerer dem med etiske principper og regler,« siger Martin Mose Bentzen.

Men den slags etiske principper er ikke ligetil at kode ind i en robot. For hvad skal den grundlæggende rette sig efter? Skal en robot redde det enkelte menneske, eller skal den måske handle ud fra et overordnet hensyn til hele menneskeheden – redde børnene frem for en enkelt voksen?

Et af de mest kendte forsøg på at sætte robotters handlinger på formel, kom allerede i midten af forrige århundrede, hvor den russisk-amerikanske science fiction-­forfatter Isaac Asimov udformede de tre robotlove:

»Den måde, Asimov formulerede de tre robotlove på, er grundlæggende relevant i dag. Men hvis vi for eksempel siger, at robotten overordnet set skal fungere ud fra utilitarisme, altså ønsket om at skabe så meget nytte så muligt, så bliver vi nødt til at supplere med en række regler og etiske principper, så hensynet til det hele ikke går ud over folks rettigheder,« siger Martin Mose Bentzen, der samarbejder med tyske forskere fra universitetet i Freiburg.

Her arbejder man på at udvikle en softwarerobot, som bygger på etiske principper. Det er så op til mennesker i ‘samtale’ med robotten at afgøre, om den også opfører sig etisk forsvarligt.

Når robotter lærer af andre

Forskerne er dog godt klar over, at fremtidens robotter ikke er koblet op på faste regler kodet ind et almindeligt programmeringssprog, så det til enhver tid er muligt at forklare, hvorfor robotten foretog en given handling.

Fremtidens robotter baserer sig på neurale netværk, hvor logikken i handlingerne kan være mere eller mindre diffus set udefra. Det skyldes blandt andet, at robotten løbende bliver bedre til sin opgave, i takt med at den indsamler mere og mere data. Robotten er altså ikke bedre end det datagrundlag, den har adgang til.

Lige netop det viste sig at få uheldige konsekvenser, da Microsoft i marts måned sidste år, lancerede konversationsrobotten – eller ‘chatbotten’ – Tay på Twitter. I løbet af få timer begyndte Tay at sende tweets ud med racistisk og sexistisk indhold, og efter 16 timer på nettet blev den lukket. Robotten var simpelthen begyndt at tilegne sig det sprog, den blev mødt med på Twitter.

Faste regler og neurale netværk

Derfor er forskerne også godt klar over, at hvis robotter skal være ‘etiske’, så er det nødvendigt at bruge både faste regler og neurale netværk. Det er netop sådan et hybridsystem, Martin Mose Bentzen og hans kolleger arbejder på:

»Udfordringen er at formalisere nogle af de etiske principper, vi kender fra filosofien, og forsøge at skabe et hybridsystem, hvor vi både har de selvlærende principper fra de neurale netværk og et sæt regler, som systemet kan fungere inden for,« forklarer han og peger på det grundlæggende princip, hvor et menneskes handling både kan føre til noget godt og skidt – det såkaldte dobbelteffekt-princip:

»Det betyder for eksempel, at det ikke er i orden, hvis en lægerobot skærer én patient i fem stykker for at redde fem andre patienter,« siger han og erkender, at robotter styret af neurale netværk i mange andre situationer vil være stillet over for langt mere komplicerede problemstillinger.

Her vender vi tilbage til den selvkørende bil og børnehaven, som ved et uheld har forvildet sig ud på vejen:

»Selvom de etiske ideer, der ligger bag, er gamle, så er det jo en helt ny situation, hvor vi forsøger at koble filosofien med teknologien. Målet er at opstille nogle principper, som så måske kan omdannes til standarder for, hvordan robotter skal fungere i forhold til mennesker,« siger Martin Mose Bentzen.

Og når det gælder den selvkørende bil, så har han ikke noget klart svar:

»Men der er ingen tvivl om, at vi bliver nødt til at være mere forsigtige og stille større krav til robotter, end vi gør til os dødelige mennesker.«

Man kan ikke stille en robot til ansvar for noget som helst - lige så lidt som man kan stille en pistol eller en hammer til ansvar. Den, som slipper en førerløs bil løs på vejene, har også ansvaret - og det samme gælder andre robotter. Det er ejeren, beslutningstageren bag robotten, som har ansvaret.

Og i større målestok når beslutningen er politisk, er det som når man sender soldater i krig - ansvaret ligger hos beslutningstageren. Soldater har nogle rettigheder, som giver dem mulighed for at sige fra i tilfælde af krigsforbrydelser, hvorfor de vil kunne blive gjort personligt ansvarlige for disse. Man kan opstille tilsvarende regler for robotter, men ikke holde dem ansvarlige.

  • 6
  • 2

Helt enig.
Der er jo ikke forskel på de trafikregler som en selvkørende bil og et menneske skal overholde.
Hvilket man godt kan godt blive i tvivl om når denne historie om dilemmaer gang på gang dukker op.

Altså hvad siger færdselsloven om de tilfælde hvor der er dårligt udsyn og risiko for legende børn på kørebanen? Den aktion som loven forventer af et menneske der styrer rundt i hierarkiet ude i trafikken, er samme som der skal programmeres ind i computerprogrammet der overtager styringen. Der er intet som helst etisk problem med det i virkeligheden.

Så ja man kan kaste sig ud foran selvkørende bil og fremtvinge uheld på alle mulige måder. Det vil jo i sagens natur aldrig kunne blive et etisk problem for hverken programmør eller producent. Og skulle vi så forlange at den selvkørende bil skulle opføre sig anderledes end hvis det havde været et menneske bag rattet.

Det virker på mig som om denne type af diskussion, vidner om angst for fremtiden. Det kan der værer gode grunde til at have, og det er slet ikke usandsynligt at en bil eller hvilken som helst anden maskine kan hackes og programmeres med et kriminelt forehavende for øje. Ligesom det heller ikke kan udelukkes at en computer eller en hvilket som helst anden maskine går i stykker og ikke virker efter hensigten mere.

Det er bare ikke det som disse dilemmafolk sætter op, det er "spøgelset" inde i maskinen de frygter.

  • 8
  • 1

Bevis først at en robot vil ændre adfærd ved udsigten til straf. Og drop så alle de spekulationer indtil vi har fundet ud af hvad bevidsthed er.

  • 5
  • 0

hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen

En kunstig intelligens/selvkørende bil der kan "overraskes" at en flok børnehavebørn, der "netop er ved at krydse vejen", er hverken intelligent eller selvkørende!
Kun hvis børnene dumper ned foran køretøjet i en afstand, kortere end bremselængden, bør ovenstående scenarie kunne forekomme.

Hvis en kunstig intelligens eller en selvkørende bil virkelig skal kunne betegnes som netop det, bør den have forudset/beregnet alle mulige hendelser, og udføre dens/sin(?) kørsel i henhold hertil.

  • 12
  • 0

Måske jeg kan svare således: På almindelig landevej kører jeg aldrig forbi gående eller tohjulede, når der kommer modkørende eller ved 'uoverskuelig bakke eller vejsving' som jeg mener det hed da jeg tog kørekort. ;-)

  • 0
  • 0

Det centrale spørgsmål er:
"Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?"

Svaret på den slags spørgsmål er simpelt nok:
"Hvad ville loven kræve at en almindelig fører af køretøjet ville gøre?"

Når det selvkørende køretøjs software opfører sig på samme måde så kan jeg ikke se noget etisk dilemma for producenten af køretøjet.

  • 4
  • 1

"Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?"

Svaret på den slags spørgsmål er simpelt nok:
"Hvad ville loven kræve at en almindelig fører af køretøjet ville gøre?"

Lige præcis.
Ville en billist blive straffet for at pløje en børnehave, der pludselig løb ud foran bilen, ned, istedet for at slå sig selv ihjel ved at køre ud over en afgrund.
Og svaret er nej. Der er ret klart hvad robotten skal gøre.

Ville en billist blive straffet for at at køre ind på fortovet og pløje en 90 årig medborger ned, for derved at undgå at pløje en børnehave, der pludselig løb ud foran bilen, ned.
Og svaret er ja. Igen er det ret klart hvad robotten skal gøre.

Vi må nok konkludere, at i også i en verden, hvor robotter styre køretøjer, ser det sort ud for børnhavebørn der pludselig løber ud foran biler. Det er egentlig ikke overraskende.

Og så skal der iøvrigt en del til, hvis en hel børnehave skal skjule sig så godt, at en robot med konstant 360 graders udsyn på alle bølgelængder inklusive infrarødt ikke har set den på ganske god afstand.

  • 4
  • 2

Hvis en robot gør noget den ikke burde gøre, så destrueres alle robotter af samme serie/fabrikat.
Desværre vil det gå ud over uskyldige som har købt den udgave, så løsningen er nok for radikal.
De mere eller mindre selvkørende biler har fået sat nogle tanker i gang, som rækker langt.
Politiet/NSA's gennemtravling af databaser og overvågning for at kunne udpege kommende/mulige røvere og terrorister eller kunstig intelligens til at stille lægelige diagnoser.
Der er nok at tage fat på. Tænk bare på skattevæsnet, der beslaglagde en bil, fordi de skønnede at ejeren, som bor i Sverige, ville opholde sig for længe i Danmark.
Mennesker der gør noget forkert/ulovligt efter råd fra en robot. (Tænk på skats ejendomsvurderinger).

  • 0
  • 0

For det første skal robotten være parat til at offer sig eller dræbe
Jeg er ved at lave en test jeg kalder den nye standard for psykologi
Og et af spørgsmålene er er det i orden at dræbe for at redde
Andres liv svarne er ja nej ved ikke og svaret er klart ja
En af forsøgs personerne svarede hvis man kunne have stoppet
Breinvik fra at dræbe en masse unge mennesker var hans svar ja
et et eksempel hvis en psykiater ordinerede dødelige dosis medicin
Til sine patienter ville det så ikke være i orden at likvidere ham
Ja nej ved ikke hvad er dit svar robotter skal have samme rettigheder
Som mennesker og ansvar princippet om nødværge gælder vist her
Dommer jury bøddel og nej man ville nok ikke blive dømt for at køre
Op på fortovet for at redde 5 til 6 børn selv om det kostede en gammel
Dame livet robotter skulle have ordre til at redde liv selvom det betød
At de skulle dræbe ligesom når man dræber terrorister skulle vælge
Jeg Mellem at dræbe dronning Margrete eller en børnehaven kan i nok
Selv gætte hvilket valg jeg vil tage hvis jeg skulle vælge mellem og
Skyde mig selv ud af et jagerfly med motor stop over en storby ville
Jeg nok prøve at finde et sted at nødlande eller sigte efter det sted
Hvor mindst mennesker kom til skade og bevidst crashe dette exempel
Er Fra virkeligheden både pilot og fly overlevede prøv at sammenligne
Med en skak computer den ofre gerne rask væk alle brikker for at
kongen Er uskadt ellers er det game over det er et spørgsmål om at redde. s
Så Mange liv som muligt og begrænse skaden hvis nogle bevist prøvede
At ødelægge robotten så skulle den også have lov til at forsvare sig selv
Ikke rart at høre nogle fortrækker at redde deres eget liv frem for flere
Børns titanic tendenser mændene satte deres eget liv før kvinder og børn
Ikke nogen tvivl om hvilken rolle du ville få i en film ikke den der kastede
Sig på håndgranaten for at redde sine venner superhelt kontra super egoist
En brandmand der ikke er parat på at sætte sit eget liv på spil er næppe
Ønsket det samme gælder for soldater og bodyguards det er pogramørens
Ansvar

  • 0
  • 4

Tvivler på det bliver et problem - og hvis, så vil det være den "pludseliges" skyld.

Det handler mere om at undgå problemer end at håndterer dem... Og der kommer mennesket til kort...

Når vi taler om selvkørende biler...

Man undervurderer totalt hvad "kunstig intelligens" er, kan og vil kunne:

En børnehave løber ikke pludselig ud på vejen - et af børnene gør måske og så vil en selvkørende bil sandsynligvis have større chance for at undgå et sammen stød end et menneske bag rattet.

Der findes en glimrende Youtube video der viser, hvad f.eks. Googles bil egentlig observerer - og det er langt mere end det gennemsnitlige menneske.

Jeg tror simpelthen ikke på dillemaet med om bilen skal vælge fortovet eller den anden vejbane. Bilen vil gøre alt for at begrænse sin egen indvirken på situationen - altså i bund og grund stoppe som en i helvede - og det er den langt bedre til end et menneske - samt den vil sandsynligt kunne dokumenterer hændelsen.

Hvor skulle man indtænke valget om man ville vælge uheldet med problemskaberen eller en tilfældig anden?

Når et barn der løber ud foran en - er det så bedre at
- kører frontalt ind i faderen til fire andre børn i den modsatte vejbane?
- Tage fortovet og nedlægge x antal mennesker?

Det kan hverken AI eller et menneske afgører i øjeblikket.

  • 5
  • 0

Selvfølgelig kan man nå at vælge for det første ikke købe en
Bil man ikke er parat til totalskade og og være parat til at
Køre frontalt ind i mur frem for at ramme andre mennesker
Kendte en der kørte for hurtigt og var ved at køre nogle
Mennesker ned men valgte at køre frontalt ind i husmur
Bilen blev toltalt skadet han kom selv til skade men
Ingen andre blev ramt det er hvad man kalder ansvarsbevidst
Ligesom når nogen slå mig i hovedet og jeg ikke slår igen
Fordi jeg er bevidst om hvor let det er at dræbe eller
Gøre en til krøbling ved et uheld nu har jeg bare
Prøvet det så mange gange at jeg som en inteligent robot
Vil følge lovgivningen og bruge selvforsvar og så må idioterne
selv tage
Konsekvensen af at slå først eller angribe
Og bruge Min ret til at forsvare mig selv ligesom en idiot der er
ved at Udløse en atomkrig bør likvideres han er vist den
Fiktive gamle dame i spørgsmålet og resten af verden de små børn
Eller den ene person på skinnerne hvor man vælger at redde livet på de andre. og så står der vist i færdsels
Loven at man skal køre efter forholdne og ikke en fiktiv
Sat høj hastighed lidt ligesom tåge på en motorvej
Hvor sigtbarheden er 5 meter er det vidst temmelig gak
Gak at køre 120 km
Og hvis man ser nogle børn spille bold tæt på
Vejen er det vel meget normalt at sætte farten ned og
Ikke hævde sin ret til at køre max hastighed
Man skal passe på de svage trafikanter og det er op
Til føren at holde afstand og sørge for der er overblik
ligesom når man flyver man calkulere man altid med at motoren
Kan sætte ud og kigger efter nærmeste sted at nødlande
Eller det sted hvor flyet gør mindst skade det er nok
Nemmest at pogramere billerne til altid at udregne bedste
Måde at undvige på forhånd og hvor de gør mindst skade
På sig selv eller andre worst chase scenario princip driving
Folk der vil begå selvmord fulde folk mennesker der er på stoffer
Blinde børn cykelister eller fodgænger der vælter eller skifter kurs
heste der kan
skræmmes at forvente det uventede på forhånd hunde der løber ud
På vejen kidnappere der der vil gøre føren ondt elefanter der
Er stukket af fra zoo eller bare elge der løber over vejen
Hvad hvis en politi betjent pludselig hopper ud på vejen
Kan en "robot" kende forskel på en politibetjent og en kidnapper
Der vil stoppe dig eller en psykisk syg
Når vi får flyvende biler skal det så også være op til en
"Robot" at flyve den og bestemme hvor den skal crashe
Hvis den får system fejl ha ha
Og tag ikke fejl af kunstig intelligens de overgår mennesker
Mange gange
Hvad nu hvis trumps køretøj blev angrebet er det så bare
I orden han pløjer sig igennem et par hundrede mennesker i
En menneske mængde hvornår er 1 liv mere værd
Flere andres
Jeg vælger at skifte sporet og køre 1 menneske over i stedet
For 4 med mindre jeg ved hvem alle er så kunne jeg sagtens
Vælge det modsatte måske dem der hellere vil køre børn ned
End at komme til skade selv
Hvis en jager pilot vælger at bombe 200 terrorister for at redde
En enkelt soldat så er jeg kold
Testen er beregnet på psykopater selv psykopater kan tænke klart
Har bare lidt nærmere ved at træffe valget
Man skal nok være lidt psyco for at redde liv ved at dræbe
Andre der ca 5% psykopater i befolkningen men sjovt har psykopater
større sandsynlighed for at redde liv en at tage dem
Og har mindre frygt en flertallet så det er måske dem der tager chancen
Med klippen jeg personligt elsker at Cruise langsomt og ville nok have tid til at
Bremse op i tide

  • 0
  • 5

Grundlæggende vil en robot være en form for autist. Den vil kun forholde sig til situationer den kender og de regler den har fået lagt ind.

Der er to former for kunstig intelligens. Den programmerede og den neurale maskinlæring. I den programmerede kan jeg se logikken i at lægge nogle regler ind, men hvordan gør man egentligt det med maskinlæring? Og der er ingen tvivl om at maskinlæring er den mest potente af disse to. Men netop Microsofts Twitter chatrobot udstiller lidt problemet.

Jeg kommer altid til at tænke på et eksempel, hvor man har vist evnessvage hvordan man bruger et kondom, ved at sætte det på et kosteskaft. Derefter satte de kondomet på kosteskaftet og hoppede i kanen med hinanden. På samme måde vil der altid være situationer hvor robotterne i deres forsimplede verden ikke kan se det samme problem som vi mennesker kan.

Med de forsimplede domæner som robotterne befinder sig i idag er det ikke noget problem. Det er først når man f.eks. sætter mobile robotter til bevogtningsopgaver at det begynder at blive kritisk. Og f.eks. bevogtningsopgaven vil komme. Endnu værre når robotter begynder at designe robotter.

  • 2
  • 1