Robotter har brug for etik – men hvilken?

28. januar 2017 kl. 14:0022
Der skal udvikles standarder for kunstig intelligens, så mennesker er beskyttet. Men hvordan giver man en robot et etisk kompas, og skal niveauet være højere end det, der gælder for mennesker? Forskerne forsøger at opstille regler.
Artiklen er ældre end 30 dage

Hvis samtalen til et socialt arrangement løber lidt tungt, så vil det her spørgsmål hurtigt få sindene i kog: Hvem har ansvaret, hvis en eller anden form for kunstig intelligens, for eksempel i en selvkørende bil, er skyld i en ulykke – og hvordan træffer den det moralsk korrekte valg, hvis der opstår et dilemma?

Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?

Det spørgsmål er forskerne og politikere optaget af i disse år. På EU-plan besluttede kommissionens retsudvalg i sidste uge, at der skulle udarbejdes et forslag til, hvordan man rent juridisk skal forholde sig til robotter, som har en eller anden form for kunstig intelligens.

Leder af udvalget Mady Delvaux fra Luxembourg foreslog i den forbindelse, at selvlærende robotter kunne tildeles en eller anden form for ‘e-personlighed’, så de kunne stilles til ansvar for handlinger. Men hun forventede ikke, at arbejdet med den type lovgivning ville være færdig før om 10-15 år.

Artiklen fortsætter efter annoncen

Problemet er blot, at udviklingen kan gå meget hurtigere, end EU og mange landes lovgivningsarbejde kan følge med til.

Ansvar uden bevidsthed?

Martin Mose Bentzen er adjunkt ved DTU Management Enginee­ring, ph.d. i filosofi og en af dem, som sammen med kolleger i blandt andet Tyskland forsøger at udvikle rammer for, hvordan robotter med en højt udviklet kunstig intelligens skal opføre sig i samarbejdet med mennesker:

»Grundlæggende giver det kun mening at placere et ansvar for en handling hos én, som har en bevidsthed om, hvad vedkommende gør. Men alligevel mener jeg, det er muligt at få robotter til at fungere som etiske enheder. Det kræver, at vi programmerer dem med etiske principper og regler,« siger Martin Mose Bentzen.

Men den slags etiske principper er ikke ligetil at kode ind i en robot. For hvad skal den grundlæggende rette sig efter? Skal en robot redde det enkelte menneske, eller skal den måske handle ud fra et overordnet hensyn til hele menneskeheden – redde børnene frem for en enkelt voksen?

Artiklen fortsætter efter annoncen

Et af de mest kendte forsøg på at sætte robotters handlinger på formel, kom allerede i midten af forrige århundrede, hvor den russisk-amerikanske science fiction-­forfatter Isaac Asimov udformede de tre robotlove:

Asimovs robotlove

1) En robot må ikke skade et menneske eller gennem undladelse af handling tillade et menneske at komme til skade.

2) En robot skal adlyde ordrer givet af mennesker, undtagen når sådanne ordrer strider mod den første lov.

3) En robot skal sikre sin egen overlevelse, så længe dette ikke strider mod den første eller den anden lov.

»Den måde, Asimov formulerede de tre robotlove på, er grundlæggende relevant i dag. Men hvis vi for eksempel siger, at robotten overordnet set skal fungere ud fra utilitarisme, altså ønsket om at skabe så meget nytte så muligt, så bliver vi nødt til at supplere med en række regler og etiske principper, så hensynet til det hele ikke går ud over folks rettigheder,« siger Martin Mose Bentzen, der samarbejder med tyske forskere fra universitetet i Freiburg.

Her arbejder man på at udvikle en softwarerobot, som bygger på etiske principper. Det er så op til mennesker i ‘samtale’ med robotten at afgøre, om den også opfører sig etisk forsvarligt.

Når robotter lærer af andre

Forskerne er dog godt klar over, at fremtidens robotter ikke er koblet op på faste regler kodet ind et almindeligt programmeringssprog, så det til enhver tid er muligt at forklare, hvorfor robotten foretog en given handling.

Fremtidens robotter baserer sig på neurale netværk, hvor logikken i handlingerne kan være mere eller mindre diffus set udefra. Det skyldes blandt andet, at robotten løbende bliver bedre til sin opgave, i takt med at den indsamler mere og mere data. Robotten er altså ikke bedre end det datagrundlag, den har adgang til.

Lige netop det viste sig at få uheldige konsekvenser, da Microsoft i marts måned sidste år, lancerede konversationsrobotten – eller ‘chatbotten’ – Tay på Twitter. I løbet af få timer begyndte Tay at sende tweets ud med racistisk og sexistisk indhold, og efter 16 timer på nettet blev den lukket. Robotten var simpelthen begyndt at tilegne sig det sprog, den blev mødt med på Twitter.

Faste regler og neurale netværk

Derfor er forskerne også godt klar over, at hvis robotter skal være ‘etiske’, så er det nødvendigt at bruge både faste regler og neurale netværk. Det er netop sådan et hybridsystem, Martin Mose Bentzen og hans kolleger arbejder på:

»Udfordringen er at formalisere nogle af de etiske principper, vi kender fra filosofien, og forsøge at skabe et hybridsystem, hvor vi både har de selvlærende principper fra de neurale netværk og et sæt regler, som systemet kan fungere inden for,« forklarer han og peger på det grundlæggende princip, hvor et menneskes handling både kan føre til noget godt og skidt – det såkaldte dobbelteffekt-princip:

Artiklen fortsætter efter annoncen

»Det betyder for eksempel, at det ikke er i orden, hvis en lægerobot skærer én patient i fem stykker for at redde fem andre patienter,« siger han og erkender, at robotter styret af neurale netværk i mange andre situationer vil være stillet over for langt mere komplicerede problemstillinger.

Her vender vi tilbage til den selvkørende bil og børnehaven, som ved et uheld har forvildet sig ud på vejen:

»Selvom de etiske ideer, der ligger bag, er gamle, så er det jo en helt ny situation, hvor vi forsøger at koble filosofien med teknologien. Målet er at opstille nogle principper, som så måske kan omdannes til standarder for, hvordan robotter skal fungere i forhold til mennesker,« siger Martin Mose Bentzen.

Og når det gælder den selvkørende bil, så har han ikke noget klart svar:

»Men der er ingen tvivl om, at vi bliver nødt til at være mere forsigtige og stille større krav til robotter, end vi gør til os dødelige mennesker.«

22 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
20
29. januar 2017 kl. 13:53

En anelse for tidligt for kunstig intelligens.

19
29. januar 2017 kl. 13:37

Grundlæggende vil en robot være en form for autist. Den vil kun forholde sig til situationer den kender og de regler den har fået lagt ind.

Der er to former for kunstig intelligens. Den programmerede og den neurale maskinlæring. I den programmerede kan jeg se logikken i at lægge nogle regler ind, men hvordan gør man egentligt det med maskinlæring? Og der er ingen tvivl om at maskinlæring er den mest potente af disse to. Men netop Microsofts Twitter chatrobot udstiller lidt problemet.

Jeg kommer altid til at tænke på et eksempel, hvor man har vist evnessvage hvordan man bruger et kondom, ved at sætte det på et kosteskaft. Derefter satte de kondomet på kosteskaftet og hoppede i kanen med hinanden. På samme måde vil der altid være situationer hvor robotterne i deres forsimplede verden ikke kan se det samme problem som vi mennesker kan.

Med de forsimplede domæner som robotterne befinder sig i idag er det ikke noget problem. Det er først når man f.eks. sætter mobile robotter til bevogtningsopgaver at det begynder at blive kritisk. Og f.eks. bevogtningsopgaven vil komme. Endnu værre når robotter begynder at designe robotter.

18
29. januar 2017 kl. 10:40

Helt generelt bliver bilister straffet hvis de kører børn ned. Også selvom barnet pludselig løber ud på vejen

Nej, det gør de ikke. Forsikringen kan komme i spil, men det er en anden sag.

17
29. januar 2017 kl. 05:44

Selvfølgelig kan man nå at vælge for det første ikke købe en Bil man ikke er parat til totalskade og og være parat til at Køre frontalt ind i mur frem for at ramme andre mennesker Kendte en der kørte for hurtigt og var ved at køre nogle Mennesker ned men valgte at køre frontalt ind i husmur Bilen blev toltalt skadet han kom selv til skade men Ingen andre blev ramt det er hvad man kalder ansvarsbevidst Ligesom når nogen slå mig i hovedet og jeg ikke slår igen Fordi jeg er bevidst om hvor let det er at dræbe eller Gøre en til krøbling ved et uheld nu har jeg bare Prøvet det så mange gange at jeg som en inteligent robot Vil følge lovgivningen og bruge selvforsvar og så må idioterne selv tage Konsekvensen af at slå først eller angribe Og bruge Min ret til at forsvare mig selv ligesom en idiot der er ved at Udløse en atomkrig bør likvideres han er vist den Fiktive gamle dame i spørgsmålet og resten af verden de små børn Eller den ene person på skinnerne hvor man vælger at redde livet på de andre. og så står der vist i færdsels Loven at man skal køre efter forholdne og ikke en fiktiv Sat høj hastighed lidt ligesom tåge på en motorvej Hvor sigtbarheden er 5 meter er det vidst temmelig gak Gak at køre 120 km Og hvis man ser nogle børn spille bold tæt på Vejen er det vel meget normalt at sætte farten ned og Ikke hævde sin ret til at køre max hastighed Man skal passe på de svage trafikanter og det er op Til føren at holde afstand og sørge for der er overblik ligesom når man flyver man calkulere man altid med at motoren Kan sætte ud og kigger efter nærmeste sted at nødlande Eller det sted hvor flyet gør mindst skade det er nok Nemmest at pogramere billerne til altid at udregne bedste Måde at undvige på forhånd og hvor de gør mindst skade På sig selv eller andre worst chase scenario princip driving Folk der vil begå selvmord fulde folk mennesker der er på stoffer Blinde børn cykelister eller fodgænger der vælter eller skifter kurs heste der kan skræmmes at forvente det uventede på forhånd hunde der løber ud På vejen kidnappere der der vil gøre føren ondt elefanter der Er stukket af fra zoo eller bare elge der løber over vejen Hvad hvis en politi betjent pludselig hopper ud på vejen Kan en "robot" kende forskel på en politibetjent og en kidnapper Der vil stoppe dig eller en psykisk syg Når vi får flyvende biler skal det så også være op til en "Robot" at flyve den og bestemme hvor den skal crashe Hvis den får system fejl ha ha Og tag ikke fejl af kunstig intelligens de overgår mennesker Mange gange Hvad nu hvis trumps køretøj blev angrebet er det så bare I orden han pløjer sig igennem et par hundrede mennesker i En menneske mængde hvornår er 1 liv mere værd Flere andres Jeg vælger at skifte sporet og køre 1 menneske over i stedet For 4 med mindre jeg ved hvem alle er så kunne jeg sagtens Vælge det modsatte måske dem der hellere vil køre børn ned End at komme til skade selv Hvis en jager pilot vælger at bombe 200 terrorister for at redde En enkelt soldat så er jeg kold Testen er beregnet på psykopater selv psykopater kan tænke klart Har bare lidt nærmere ved at træffe valget Man skal nok være lidt psyco for at redde liv ved at dræbe Andre der ca 5% psykopater i befolkningen men sjovt har psykopater større sandsynlighed for at redde liv en at tage dem Og har mindre frygt en flertallet så det er måske dem der tager chancen Med klippen jeg personligt elsker at Cruise langsomt og ville nok have tid til at Bremse op i tide

16
29. januar 2017 kl. 01:19

Tvivler på det bliver et problem - og hvis, så vil det være den "pludseliges" skyld.

Det handler mere om at undgå problemer end at håndterer dem... Og der kommer mennesket til kort...

Når vi taler om selvkørende biler...

Man undervurderer totalt hvad "kunstig intelligens" er, kan og vil kunne:

En børnehave løber ikke pludselig ud på vejen - et af børnene gør måske og så vil en selvkørende bil sandsynligvis have større chance for at undgå et sammen stød end et menneske bag rattet.

Der findes en glimrende Youtube video der viser, hvad f.eks. Googles bil egentlig observerer - og det er langt mere end det gennemsnitlige menneske.

Jeg tror simpelthen ikke på dillemaet med om bilen skal vælge fortovet eller den anden vejbane. Bilen vil gøre alt for at begrænse sin egen indvirken på situationen - altså i bund og grund stoppe som en i helvede - og det er den langt bedre til end et menneske - samt den vil sandsynligt kunne dokumenterer hændelsen.

Hvor skulle man indtænke valget om man ville vælge uheldet med problemskaberen eller en tilfældig anden?

Når et barn der løber ud foran en - er det så bedre at

  • kører frontalt ind i faderen til fire andre børn i den modsatte vejbane?
  • Tage fortovet og nedlægge x antal mennesker?

Det kan hverken AI eller et menneske afgører i øjeblikket.

15
28. januar 2017 kl. 23:20

For det første skal robotten være parat til at offer sig eller dræbe Jeg er ved at lave en test jeg kalder den nye standard for psykologi Og et af spørgsmålene er er det i orden at dræbe for at redde Andres liv svarne er ja nej ved ikke og svaret er klart ja En af forsøgs personerne svarede hvis man kunne have stoppet Breinvik fra at dræbe en masse unge mennesker var hans svar ja et et eksempel hvis en psykiater ordinerede dødelige dosis medicin Til sine patienter ville det så ikke være i orden at likvidere ham Ja nej ved ikke hvad er dit svar robotter skal have samme rettigheder Som mennesker og ansvar princippet om nødværge gælder vist her Dommer jury bøddel og nej man ville nok ikke blive dømt for at køre Op på fortovet for at redde 5 til 6 børn selv om det kostede en gammel Dame livet robotter skulle have ordre til at redde liv selvom det betød At de skulle dræbe ligesom når man dræber terrorister skulle vælge Jeg Mellem at dræbe dronning Margrete eller en børnehaven kan i nok Selv gætte hvilket valg jeg vil tage hvis jeg skulle vælge mellem og Skyde mig selv ud af et jagerfly med motor stop over en storby ville Jeg nok prøve at finde et sted at nødlande eller sigte efter det sted Hvor mindst mennesker kom til skade og bevidst crashe dette exempel Er Fra virkeligheden både pilot og fly overlevede prøv at sammenligne Med en skak computer den ofre gerne rask væk alle brikker for at kongen Er uskadt ellers er det game over det er et spørgsmål om at redde. s Så Mange liv som muligt og begrænse skaden hvis nogle bevist prøvede At ødelægge robotten så skulle den også have lov til at forsvare sig selv Ikke rart at høre nogle fortrækker at redde deres eget liv frem for flere Børns titanic tendenser mændene satte deres eget liv før kvinder og børn Ikke nogen tvivl om hvilken rolle du ville få i en film ikke den der kastede Sig på håndgranaten for at redde sine venner superhelt kontra super egoist En brandmand der ikke er parat på at sætte sit eget liv på spil er næppe Ønsket det samme gælder for soldater og bodyguards det er pogramørens Ansvar

14
28. januar 2017 kl. 23:08

Dette ligger meget langt ud i fremtiden hvor programmering og sensorer skal være fejlfrit, ellers kan robotten komme til at træffe de forkerte valg.

12
28. januar 2017 kl. 17:55

Hvis en robot gør noget den ikke burde gøre, så destrueres alle robotter af samme serie/fabrikat. Desværre vil det gå ud over uskyldige som har købt den udgave, så løsningen er nok for radikal. De mere eller mindre selvkørende biler har fået sat nogle tanker i gang, som rækker langt. Politiet/NSA's gennemtravling af databaser og overvågning for at kunne udpege kommende/mulige røvere og terrorister eller kunstig intelligens til at stille lægelige diagnoser. Der er nok at tage fat på. Tænk bare på skattevæsnet, der beslaglagde en bil, fordi de skønnede at ejeren, som bor i Sverige, ville opholde sig for længe i Danmark. Mennesker der gør noget forkert/ulovligt efter råd fra en robot. (Tænk på skats ejendomsvurderinger).

10
28. januar 2017 kl. 17:21

"Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?"</p>
<p>Svaret på den slags spørgsmål er simpelt nok:
"Hvad ville loven kræve at en almindelig fører af køretøjet ville gøre?"

Lige præcis. Ville en billist blive straffet for at pløje en børnehave, der pludselig løb ud foran bilen, ned, istedet for at slå sig selv ihjel ved at køre ud over en afgrund. Og svaret er nej. Der er ret klart hvad robotten skal gøre.

Ville en billist blive straffet for at at køre ind på fortovet og pløje en 90 årig medborger ned, for derved at undgå at pløje en børnehave, der pludselig løb ud foran bilen, ned. Og svaret er ja. Igen er det ret klart hvad robotten skal gøre.

Vi må nok konkludere, at i også i en verden, hvor robotter styre køretøjer, ser det sort ud for børnhavebørn der pludselig løber ud foran biler. Det er egentlig ikke overraskende.

Og så skal der iøvrigt en del til, hvis en hel børnehave skal skjule sig så godt, at en robot med konstant 360 graders udsyn på alle bølgelængder inklusive infrarødt ikke har set den på ganske god afstand.

8
28. januar 2017 kl. 16:44

Det centrale spørgsmål er: "Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?"

Svaret på den slags spørgsmål er simpelt nok: "Hvad ville loven kræve at en almindelig fører af køretøjet ville gøre?"

Når det selvkørende køretøjs software opfører sig på samme måde så kan jeg ikke se noget etisk dilemma for producenten af køretøjet.

7
28. januar 2017 kl. 16:42

Tilføjelse: Kører jeg aldrig eller kun langsomt

6
28. januar 2017 kl. 16:39

Måske jeg kan svare således: På almindelig landevej kører jeg aldrig forbi gående eller tohjulede, når der kommer modkørende eller ved 'uoverskuelig bakke eller vejsving' som jeg mener det hed da jeg tog kørekort. ;-)

5
28. januar 2017 kl. 16:18

Kører du forbi børn og cyklister så du til enhver tid kan stoppe ved uventet retningsændring?

4
28. januar 2017 kl. 16:13

hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen

En kunstig intelligens/selvkørende bil der kan "overraskes" at en flok børnehavebørn, der "netop er ved at krydse vejen", er hverken intelligent eller selvkørende! Kun hvis børnene dumper ned foran køretøjet i en afstand, kortere end bremselængden, bør ovenstående scenarie kunne forekomme.

Hvis en kunstig intelligens eller en selvkørende bil virkelig skal kunne betegnes som netop det, bør den have forudset/beregnet alle mulige hendelser, og udføre dens/sin(?) kørsel i henhold hertil.

3
28. januar 2017 kl. 16:05

Bevis først at en robot vil ændre adfærd ved udsigten til straf. Og drop så alle de spekulationer indtil vi har fundet ud af hvad bevidsthed er.

2
28. januar 2017 kl. 16:02

Helt enig. Der er jo ikke forskel på de trafikregler som en selvkørende bil og et menneske skal overholde. Hvilket man godt kan godt blive i tvivl om når denne historie om dilemmaer gang på gang dukker op.

Altså hvad siger færdselsloven om de tilfælde hvor der er dårligt udsyn og risiko for legende børn på kørebanen? Den aktion som loven forventer af et menneske der styrer rundt i hierarkiet ude i trafikken, er samme som der skal programmeres ind i computerprogrammet der overtager styringen. Der er intet som helst etisk problem med det i virkeligheden.

Så ja man kan kaste sig ud foran selvkørende bil og fremtvinge uheld på alle mulige måder. Det vil jo i sagens natur aldrig kunne blive et etisk problem for hverken programmør eller producent. Og skulle vi så forlange at den selvkørende bil skulle opføre sig anderledes end hvis det havde været et menneske bag rattet.

Det virker på mig som om denne type af diskussion, vidner om angst for fremtiden. Det kan der værer gode grunde til at have, og det er slet ikke usandsynligt at en bil eller hvilken som helst anden maskine kan hackes og programmeres med et kriminelt forehavende for øje. Ligesom det heller ikke kan udelukkes at en computer eller en hvilket som helst anden maskine går i stykker og ikke virker efter hensigten mere.

Det er bare ikke det som disse dilemmafolk sætter op, det er "spøgelset" inde i maskinen de frygter.

1
28. januar 2017 kl. 15:21

Man kan ikke stille en robot til ansvar for noget som helst - lige så lidt som man kan stille en pistol eller en hammer til ansvar. Den, som slipper en førerløs bil løs på vejene, har også ansvaret - og det samme gælder andre robotter. Det er ejeren, beslutningstageren bag robotten, som har ansvaret.

Og i større målestok når beslutningen er politisk, er det som når man sender soldater i krig - ansvaret ligger hos beslutningstageren. Soldater har nogle rettigheder, som giver dem mulighed for at sige fra i tilfælde af krigsforbrydelser, hvorfor de vil kunne blive gjort personligt ansvarlige for disse. Man kan opstille tilsvarende regler for robotter, men ikke holde dem ansvarlige.