Etik-professor: Hvis vi giver en robot skylden - hvordan skal vi så straffe den?
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
By signing up, you agree to our Terms & Conditions and agree that Teknologiens Mediehus and the IDA Group may occasionally contact you regarding events, analyzes, news, offers, etc. by telephone, SMS and email. Newsletters and emails from Teknologiens Mediehus may contain marketing from marketing partners.

Etik-professor: Hvis vi giver en robot skylden - hvordan skal vi så straffe den?

»Jeg har svært ved at se formålet med at give robotter personlige rettigheder. Ansvaret for robotternes handlinger ligger hos os mennesker. Det vil blot øge forvirringen, hvis vi antropomorfiserer robotter,« siger Thomas Ploug, der er professor i teknologietik på Aalborg Universitet.

Hans kommentar kommer som reaktion på en rapport fra EU's lovgivningskomité, som opfordrer kommisionen til at udfærdige retningslinjer for, hvordan robotter skal håndteres, hvis de for eksempel skader mennesker.

Læs også: Kronik: Etiske robotter vil gøre verden til et bedre sted

Rapportens forfatter, Mady Delvaux, der er medlem af parlamentet for Luxembourg, siger i den forbindelse til European Parliament News, at en af løsningerne kunne være at give robotter en form for juridisk e-personlighed. Lidt i stil med den 'corporate personality', virksomheder har i dag:

»Vi har brug for at udarbejde de juridiske rammer for robotter, som allerede er på markedet eller som vil blive tilgængelige over de næste 10-15 år,« siger hun.

Illustration: Wikipedia

Robotter er menneskers ansvar

Men Thomas Ploug er uenig i, at robotter skal behandles som juridisk ansvarlige enheder. Han tager udgangspunkt i IBM’s Watson-system, som allerede i dag bruges på hospitaler til at assistere læger i diagnosticeringen sygdomme:

»Men hvis diagnosen er forkert, hvem har så ansvaret? Jeg mener ikke, det er meningsfuldt alene at lægge ansvaret på teknologien,« siger han.

Læs også: Kunstig intelligens forudsiger, hvordan scener udspiller sig

Det skyldes blandt andet, at når nogen pålægges et ansvar, så følger der normalt også en sanktionering eller anden form for straf med. Men hvad skulle straffen være over for Watson? At strømmen bliver taget?

Thomas Ploug erkender, at der er risiko for, at systemerne lærer af hinanden og derigennem dygtiggør sig. Men næppe i det tempo, som vi vil forvente.

Læs også: Sex-robotter med kunstig intelligens vil gøre almindeligt samleje dødkedeligt

Men hvis ansvaret ikke entydigt kan placeres, så er der risiko for at motivationen for at sikre, at der ikke sker fejl blive mindre. Derfor mener Thomas Ploug, at en løsning vil være meget omfattende testprocedurer:

»Det er jo noget, vi kender fra udviklingen af medicin. Her kan vi jo heller ikke være 100 procent sikre på de langsigtede virkninger, og derfor har vi udviklet et omfattende testsystem.

Robotlove dur ikke

Og så er vi tilbage ved Asimovs tre robotlove. De handler om maskiner, og ikke mennesker. Thomas Ploug ser ikke den store fremtid i at underlægge robotter den slags love:

»Det nytter ikke noget at lægge en liste ind, som forsøger at afspejle det menneskelige moralkodeks i praksis. For desværre fejler vi sådan cirka hver anden gang, når vi forsøger at leve op til det. Og hvilket moralkodeks er det også lige, vi skal lægge ind, og hvordan skal de vægtes i forhold til hinanden?« siger han.

Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?

I stedet peger han på andre områder, hvor vi allerede i dag skal håndtere meget komplekse problemstillinger. Det er, som tidligere nævnt, udviklingen af medicin, hvor vi på trods af grundige tests grundlæggende ikke kan kende den fulde sandhed om langtidsvirkende effekter.

Men også områder som brugen af genmodificerede afgrøder og klimaskadelige produkter er områder, hvor vi ikke med sikkerhed kan forudsige effekterne på lang sigt.

Ansvar er generelt fjernet i det moderne samfund. Det er samfundets skyld ikke personerne eller robotternes skyld.
Vore politikere er helt skyldfri, som noget at det mest markante. Vi ser at vore embedsmænd er helt uskyldige i dårlig embedsførelse. Der er derfor slet ikke grund til at rejse spørgsmålet.

  • 13
  • 1

Man programmerer vel robotten om.
(OT: Det gør man også i StarWars! Det var vist også i episode 5 der var et droid torturkammer)

Robotten er vel blot en maskine, så der er vel ingen forskel på om bremsen på en bil svigter eller robotten laver en fejl. Ansvarsfordelingen er den samme.

Og laver robotten en forkert diagnose, er det vel ikke så meget forskelligt fra alle de forkerte diagnoser lægerne stiller i dag. En læge får ikke nødvendigvis så meget som en påtale, hvis han laver en forkert diagnose. Det er jo et spørgsmål, om man kan forvente en rigtig diagnose.

  • 6
  • 0

Egentlig er det vel bare en slags produktansvar: Hvis et firma har lavet et produkt, som ikke er i orden, så kan firmaets ledelse (bestyrelse/direktion/ledende medarbejdere osv.) blive draget til ansvar for deres juks.

  • 6
  • 0

Skal vi ikke lige finde ud af hvad bevidsthed er inden vi giver sten ansvaret for de skader de forvolder!

  • 3
  • 0

Men hvem har ansvaret, hvis en robot skader mennesker?

Hvem har ansvaret, når politikere skader (mange) mennesker?

Hvilken del at problemet, er egentlig nyt?

  • 2
  • 1

Man kan ikke skelne mellem en robot og maskine. En robot er blot en mere fleksibel maskine. Så den skal straffes på samme måde som en CNC-fræser!

Der hvor der kan skelnes (men der er nok nogle år til) det er hvis robotten får en selvbevidsthed, og derfor har en ide om sin egen rolle i de handlinger den udfører. Det er nemlig sådan, at det generelt er intention vi straffer for og til en vis grad hensynsløs opførsel.

Så når maskinen har en selvbevidsthed, så giver det mening at straffe. Bemærk at jeg skriver selvbevidsthed, og ikke bare bevidsthed. Jeg reflekterer over mit eget selv og dets rolle i forhold til de andre selvbevidste væsner jeg omgives af.
Det gør min hund ikke. Den er bevidst, men selvbevidst er den ikke. Derfor straffer vi heller ikke hunde men deres ejere for hundenes handlinger (og ejeren kan så vælge at disciplinere sin hund via træning).

Jeg håber f...... ikke at en professor i teknologietik har stillet spørgsmålet så unuanceret som det fremstilles i artiklen. Det ville være ekstremt pinligt, hvis det var tilfældet.

  • 3
  • 1

I 1911 blev det forbudt at slå voldsforbrydere og seksualforbrydere..
I 1921 blev det forbudt at slå sin kone og sine ansatte...
I 1937 blev det forbudt at slå lærlinge...
I 1967 blev det forbudt at slå skoleelever... (afskaffet i 1951, men først forbudt i 1967)
I 1997 blev det forbudt at slå sine egne børn... (tvetydigt forbudt i 1985)

Gad vide om man en dag ikke må slå sit fjernsyn hvis det ikke makker ret :)

  • 6
  • 1

Så når maskinen har en selvbevidsthed, så giver det mening at straffe. Bemærk at jeg skriver selvbevidsthed, og ikke bare bevidsthed. Jeg reflekterer over mit eget selv og dets rolle i forhold til de andre selvbevidste væsner jeg omgives af.
Det gør min hund ikke. Den er bevidst, men selvbevidst er den ikke. Derfor straffer vi heller ikke hunde men deres ejere for hundenes handlinger (og ejeren kan så vælge at disciplinere sin hund via træning).


En hund der skambider et menneske eller en anden hund, bliver aflivet. Det kan da om noget kaldes en straf... En hund der bider et menneske eller en anden hund får begrænset sin bevægelsesfrihed. Det er vel også en straf? Ved gentagelsestilfælde bliver den aflivet... Der ud over kan ejeren også blive straffet...

https://www.politi.dk/NR/rdonlyres/00C9DBA...

Hvis en maskine er i stand til at træffe en beslutning og derved forsage skade, så bliver dens evne til at træffe sådanne beslutninger forhåbentligt begrænset (og en sådan begrænsning er vel at definerer som en straf?) Så et eller andet sted skal man vel have defineret hvad "straf" er, før man skelner til om det kun skal gives til bevidste eller selvbevidste væsener/maskiner..

  • 1
  • 1

Netop. I det omfang en robot er skyldig så ændrer man blot det design der var årsagen.
Det er en fejltagelse at tillægge den en slags menneskelig råderet der ikke kan ændres men kræver afstrafning for at komme på plads igen.
Qualia såsom smerte demonstrerer vores usædvanlige natur som ikke kan eftergøres i en maskine.
Maskinen vil være ganske deterministisk, selv hvis intelligensen er fænomenal. Den får ikke pludselig lyst til at være fræk.

  • 3
  • 0

Hvem har ansvaret, når politikere skader (mange) mennesker?

Hvilken del at problemet, er egentlig nyt?

Politikere skader normalt mange mennesker, fordi de mener, at man kan forbedre samfundet, ved at give særlige fordele til dele af samfundet.

Robotter foretager indtil videre ikke den slags overvejelser.

Emnet er aktuelt, fordi vi (måske) er tæt på et meget stort antal robotter på vejene, der kan tage beslutninger, der normalt er ansvarspådragene.
(Selvstyrende biler)

Tesla fx fremhæver, at deres robotter statistisk laver færre fejl end mennesker; men er det godt nok til at slippe dem løs på vejene?

Et menneske bliver ikke anset for at være uskyldigt, fordi det statistisk set beskadiger færre mennesker end gennemsnittet.

Jeg mener at spørgsmålet er aktuelt og interessant - kan man acceptere menneskelig legemsbeskadigelse under gennemsnittet, hvis det er en robot der tager den ansvarspådragende beslutning.
Hvor dårlig kan robotten være, inden man retsforfølger firmaet bag robotten?

  • 1
  • 0

Hvis man skal tale om en straf, må det vel blive et forsikringsanliggende?

Ligesom man kan have fx 10 eller 12 års skadefri kørsel med en klækkelig rabat - bør robotten vel have en lovpligtig ansvarsforsikring, der starter med en høj præmie, der aftrappes efterhånden, som robotten beviser, at den kan begå sig uden at gøre skade på mennesker eller ejendom?

Altså man straffer inden skaden sker, som man også tildels gør med mennesker.

  • 0
  • 0

Altså man straffer inden skaden sker, som man også tildels gør med mennesker.


Det er ikke en straf at have en forsikring Det er beskyttelse mod selv at stå med ansvaret hvis skaden sker... Forsikringen er mere en fralæggelse af ansvaret som derved vil sige en fritagelse for straf... At man er forsikret, fritager dog ikke en for en reel straf, hvis man gør forsættelig skade og det samme må vel gælde for autonome maskiner?

Altså at de kan fralægge sig det økonomiske ansvar ved at investerer i en forsikring, der fordeler omkostningerne ud på alle de maskiner som ikke fejler, gør vel ikke at de samtidig skal være fritaget for den straf som et menneske ville få i samme situation (f.eks. at køre over for rødt, hvis sensorerne svigter)...

  • 2
  • 0

En hund der skambider et menneske eller en anden hund, bliver aflivet. Det kan da om noget kaldes en straf... En hund der bider et menneske eller en anden hund får begrænset sin bevægelsesfrihed. Det er vel også en straf?

Ja, man kan godt kalde det en straf. Men så er man forkert på den, idet man bruger ordet om et andet begreb.

En straf er noget man påfører, for at individet der har begået handlingen (eller andre individer) kan blive afskrækket og holder sig fra den slags i fremtiden.
Og så også for at individet kan for mulighed opleve det ubehag en sådan handling udløser og derved komme til at angre, eller i det mindste tilfredsstille vore retsfølelse.
At straffe, kræver at den straffede forstår sammenhængen mellem handlingen og så straffen.

Men prøv du at forklare en hund, at nu kommer den i enrum i 3 måneder eller bliver ligefrem aflivet, pga. denne eller hin handling og se om hunden angrer. Eller forklar en anden hund, at nu skal hunden derhenne aflives fordi den bed et barn, og se så om hunden bliver afskrækket af denne viden.

En hund har ikke vore mentale kapacitet til at forstå sammenhænge der ikke er helt umiddelbare. Men det hjælper nok tale tale hårdt til den hver gang den snupper alt hvad der står på kagebordet.
Hunden forstår ikke sammenhængen mellem handling og straf, når den frihedsbegrænses eller ligefrem aflives (den forstår heller ikke at den skal aflives!). Det er en sikkerhedsforanstaltning ikke en straf.

  • 1
  • 0

Straf forudsætter, at den man straffer har en fri vilje. Det har robotter ikke og det kommer til at gå århundreder før den slags dukker op, om nogen sinde.

  • 1
  • 0

Qualia såsom smerte demonstrerer vores usædvanlige natur som ikke kan eftergøres i en maskine.

Hvad får dig til at tro, at vi har særlige qualia, der ikke kan eftergøres i noget der ikke er biologisk?Hvorfor skulle de kemisk/fysiske processer i din hjerne der giver dig selvbevidsthed ikke kunne eftergøres i andre medier?

Smerte demonstrere ikke andet, end at du er resultatet af en evolutionær proces, hvor det somme tider er en fordel at kunne reagere hurtigt, uden at skulle bruge alt for meget tid på kognitive processer.
Ok, så jeg har placeret hånden på kogepladen, og denne kogeplade står på tændt ser jeg, og ingen har ændret indstillingen i de sidste 10 minutter, så kogepladen må være varm nu, jeg må hellere fjerne hånden. Nix det duer ikke. Hvad der duer er, av for h..... jeg river hånden til mig.

[/quote]
Maskinen vil være ganske deterministisk, selv hvis intelligensen er fænomenal. Den får ikke pludselig lyst til at være fræk.
[/quote]

Hvis maskinen virkelig skal være intelligent kræver det at den kan reagere på nye situationer og tilpasse sine handlinger. Det kræver med andre ord maskinlæring og neurale netværk eller tilsvarende. Kunstige neurale netværk er præcis lige så deterministiske som biologiske. I teorien kan vi beskrive din hjerne med al dens kemi der bader 100 mia nerveceller og 10.000 synapser per celle på et niveau så vi præcist kan forudsige dine reaktioner på input. Men se om det kan lade sig gøre i praksis.

Igen må jeg fremhæve at vore intentionalitet (lysten til at være fræk om du vil) er et resultat af vores situation i verden og evolutionært udviklede drifter. Vi kan være helt sikker på at en kunstig intelligens situation i verden vil være en anden end vore og ligeledes dens drifter. Hvad det betyder for dens konkrete opførsel vil jeg gerne se det forstandige menneske, der tør give et bud på.

  • 1
  • 0

Det er ikke en straf at have en forsikring Det er beskyttelse mod selv at stå med ansvaret hvis skaden sker.


Joh, men det føles som en straf, når man aldrig laver skader eller har været impliceret i uheld ;o)
Når jeg brugte udtrykket straf, om forsikring, var det nu også mere fordi, at man lægger op til at straffe robotter.

Forsikringen er mere en fralæggelse af ansvaret som derved vil sige en fritagelse for straf.


Nej, det sikrer, at den ansvarlige er istand til at erstatte, den skade han har forvoldt - det er aldeles ikke en fralæggelse af ansvaret.
Fængselsstraf kan endog komme på tale i visse tilfælde.

Jeg vil stadig mene, at indtil robotter får følelser, bliver trætte, eller keder sig osv - er tale om en efterfølgende straf for en handling rent sludder og uaktuelt.
Den eneste rimelige måde, at indføre "straf" er en lovpligtig forsikring - forsikringsselskaberne skal nok finde ud af at lave en passende "ikkestraf" til ære for Michael.

  • 0
  • 0

Besjæling er noget eventyrforfattere har brugt i vid udstrækning. H. C. Andersen, for eksempel.
Børn bruger det også, specielt omkring deres tøjdyr og til tider dukker, ja selv voksne kan blive fristet til at klappe på deres bil eller brændeovn eller hvad de nu synes tjener dem godt i øjeblikket. Eller råbe og skrige af samme, når de ikke gør...

Derfor er det jo ikke mærkeligt, at vi vil tillægge en maskine menneskelige egenskaber, hvid der er tale om en robot som er i stand til (næsten) perfekt at simulere en levende person.

Ikke desto mindre skal man jo holde sig for øje, at uanset hvor avanceret en maskine er, og uanset hvor menneskelig den synes, så er det et apparat som styres af en computer. Den har opgaver som den søger at løse ud fra hvordan den er programmeret. At tale om at spærre robotter inde eller tage strømmen eller lignende er nonsens. Lige meget hvad en robot gør som er 'forkert', om det så er at spilde kaffe på gulvet eller myrde et andet menneske med en forskærerkniv, så er det et resultat af forkert programmering, og/eller en defekt i selve konstruktionen.

Man ville jo aldrig i sin vildeste fantasi spærre tørretumbleren inde i et halvt år, fordi den ikke kunne tørre tøjet hvis kileremmen er knækket. Man reparerer den.

Forskellen er selvfølgelig, at en anthropoid robot er flere tusinde gange mere avanceret end en tørretumbler, og derfor kan lave langt mere avancerede fejl. Selv om disse 'fejl' kan ligne menneskelige fejl, vil det stadigvæk ikke give mening at udsætte den for sanktioner som ville virke overfor mennesker.

Så vidt jeg kan se, er det et ganske simpelt spørgsmål: Hvis din [støvsuger, kaffemaskine, bil, etc.] forvolder skade på din eller andres ejendom, liv eller førlighed, hvordan gør vi så i dag?
Nå, jamen sådan gør vi så også når der er tale om en robot.
Længere er den egentlig ikke...!

At uddannede mennesker i ledende positioner kan snakke om at robotter måske skal have borgerrettigheder og lignende er dybt skræmmende.

  • 2
  • 0

Vores gamle kan nok ikke kende forskel alligevel, og desuden bør Etikere og andre blande sig udenom.
Hvis jeg ønsker en blød dukke (silicone med mere) rager det ikke nogen. Og da slet ikke Jakob Birkler.

Jeg mener klart robotter vil få rettigheder!

  • 0
  • 3