Dette indlæg er alene udtryk for skribentens egen holdning.

Når robotterne kommer, vil de så opføre sig ordentligt?

21. februar 2013 kl. 14:4020
Artiklen er ældre end 30 dage

 

Autonome, sociale robotter forudsiges at komme til at udgøre det næste store teknologiske spring fremad med betydelige samfundsmæssige følger. Det drejer sig om maskiner, der kan interagere med omgivelserne, mennesker og andre robotter, og som selv kan tage beslutninger i komplekse situationer under hensyntagen til sociale og kulturelle strukturer i den pågældende situation.

De mest åbenlyse funktioner for sociale robotter ligger inden for 'de tre S'er': sex, slaver og soldater. Det omfatter blandt andet sexrobotter og robotsoldater og care bots, der med simuleret empati kan tage sig af børn og ældre.

Mens ingeniører arbejder på højtryk på at gøre sådanne maskiner til virkelighed, opstår der nye etiske spørgsmål: Er det amoralsk at udbyde sexrobotter eller er det tværtimod et skridt i mod et mere moralsk samfund, idet ofrene for prostitution kunne tænkes at forsvinde, når kunderne kan få deres behov stillet af maskiner?

Hvis robotter kan programmeres til at følge krigens love bedre end menneskelige soldater, giver det os da en moralsk forpligtelse til at udvikle sådanne robotter? Når robotterne skal til at gebærde sig rundt i vores hverdag, hvordan sikrer vi os, at de opfører sig ordentligt?

Artiklen fortsætter efter annoncen

Hvad mener vi egentlig med ordentligt i denne sammenhæng? Eller som en filosof ville sige, hvilken type etik, skal robotten følge? Skal robotterne følge en konsekvensetik og handle efter, hvad der giver størst samfundsmæssig nytte?

Der synes at være en stor risiko forbundet med at slippe sådanne automatiske utilitarister ud i samfundet, som i deres ensidige forsøg på at maksimere nytten kunne overskride menneskers basale rettigheder. Skal robotterne så i stedet følge en pligtetik og dermed være bundet af et sæt af regler? Science fiction-forfatteren Isaac Asimov fremførte tre sådanne regler i sine berømte historier om robotter, kaldet robotologiens tre love:

1) En robot må ikke skade et menneske eller gennem undladelse af handling tillade et menneske at komme til skade.

2) En robot skal adlyde ordrer givet af mennesker, undtagen når sådanne ordrer strider mod den første lov.

Artiklen fortsætter efter annoncen

3) En robot skal sikre sin egen overlevelse, så længe dette ikke strider mod den første eller den anden lov.

Hvis man forestiller sig robotter handle efter reglerne i denne simple form, kan det nemt give problemer. En robot kunne f.eks. tænkes at standse en vigtig kirurgisk operation, fordi patienten er ved at 'komme til skade'. Af sådanne grunde kan reglerne ikke være absolutte, men dette åbner op for en række nye problemer, som Asimovs historier netop viser med al ønskelig tydelighed.

20 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
20
5. oktober 2013 kl. 18:49

Selv om en robot nok vil forbedre trafiksikkerheden astronomisk kan den vel stadig komme ud for et dilemma, man kan så mene at det stadig er en væsenlig forbedring med mindre man er dem dilemmaet går ud over.

Normalt vil robotten ikke komme ud for et dilemma. Men, der kan være situationer, hvor der ikke er muligheder - f.eks. hvis en person hopper ud foran en bil. Men den stopper hurtigere end nogen bilist kan, da der er meget kortere reaktionstid. En bilist bruger 2 sekunder på at opdage det - på den tid, kan en robot nå at bremse længe, eller lave undvigemanøvre, og hvis der laves undvigemanøvre, kan biler før automatisk stoppe. Så længe, at det kun er automatisk køretøjer på vejene, er der ingen dilemmaer. Bilerne kører efter aftalt spil. Er vejene derimod fyldt op med ikke kontrollerbare køretøjer, motorcyklister, knallert 45'er, cykler, gående og heste, så kan måske ske at der opstår dilemmaer. Derfor er bedst, at forbeholde vejen motorkøretøjer der selv kan styre. Og nye biler, er også stort set forberedt for det. På nuværende tidspunkt, vil være svært at skifte til automatisk kørsel - men hvis producenterne sikrer at alle nye biler er forbedret til det, vil det sikkert kunne gøres på 15 år, og biler der ikke kan, må ikke køre på vejene.

19
5. oktober 2013 kl. 14:46

Selv om en robot nok vil forbedre trafiksikkerheden astronomisk kan den vel stadig komme ud for et dilemma, man kan så mene at det stadig er en væsenlig forbedring med mindre man er dem dilemmaet går ud over.

18
5. oktober 2013 kl. 14:31

Hvis en selvkørende bil kun kan undgå at køre frontalt ind i en lastbil (og derved dræbe dens egen passagerer) ved at køre frontalt ind i 10 mennesker der står og venter på bussen... Hvad skal den så vælge... De beregninger kan computerne allerede nå at beregne i dag og stadig regerer hurtigere og mere sikkert end mennesker, men skal samfundet, chaufføren eller bilproducenten træffe valget?

Den type valg eksisterer kun for mennesker - og i særdeleshed politikere. For en computer, eller robot, eksisterer det ikke. Ingeniørens opgave er at udregne det sådan, at problemet ikke opstår. Den kender lastbilens position på forhånd, og kan forudse situationerne. Og såvel lastbilens, som bilens kørsel planlægges ved at de aftaler kørslen på forhånd. Alle bilerne kommunikerer sammen, og sikrer at der ikke opstår uheld. Hele vejsituationen er planlagt i god tid på forhånd, inklusiv hensyntagen til eventuelle personer der går ud foran bilerne og andet der ikke vides. Derudover skal bilerne også så vidt muligt overholde loven.

Det store problem er blandet trafik, og trafik der ikke styres automatisk. Men, den trafik kan vi forbyde. I praksis vil det forbyde motorcykler og knallert 45 - det er ikke et større problem. En billig selvkørende bil, kan laves billigere end en motorcykel og en knallert.

17
5. oktober 2013 kl. 06:52

Nu er det ikke lige indlysende hvorfor programmøre ville udstyre en robot med angst, hvilket ville være en irrationel faktor der ikke tjener noget formål, men kun forringe den som et produkt. En rationel robot ville ikke flygte fra destruktion hvis den var udstyret med en selverkendelsesfunktion der så at det var indlysende at den var ubrugelig.

16
5. oktober 2013 kl. 06:52

Nu er det ikke lige indlysende hvorfor programmøre ville udstyre en robot med angst, hvilket ville være en irrationel faktor der ikke tjener noget formål, men kun forringe den som et produkt. En rationel robot ville ikke flygte fra destruktion hvis den var udstyret med en selverkendelsesfunktion der så at det var indlysende at den var ubrugelig.

15
24. februar 2013 kl. 16:46

og endeligt vil de være lettere at håndtere forde de ikke vil besidde de samme rettigheder.

"Vi kan godt tillade os at slukke for denne robot, for dens angstskrig og flugtforsøg er bare resultatet af hvor fantastisk god en simulation af intelligens og selvforståelse robotten besider."

Hvis overstående svar til din kommentar ikke er omgående indlysende for dig, så er du velkommen til at bede mig uddybe.

Ellers vil jeg anbefale enhver der er seriøst interesseret i trådens emne, at droppe den vulgært naive Asimov, og istedet kaste sig over Stanslav Lem, som er en af de få forfattere der har beskæftiget sig seriøst og intelligent med emnet.Specielt anbefales den bog der på engelsk har titlen "A Perfect Vaccum".

14
23. februar 2013 kl. 17:24

Jeg forestiller mig at det er svært at hacke et individ der hvis moralske, etiske og motoriske system er seperat fra ekstern datastrøm, hvor man skal have hardwire til omprogrammering, ergo man skal hacke enten selve fabrikken eller have fat i individuelle robot, så hacking vil teoretisk være minimal.

Endeligt tror jeg ikke at robotter vil opføre sig værre end mennesker, og endeligt vil de være lettere at håndtere forde de ikke vil besidde de samme rettigheder.

13
22. februar 2013 kl. 12:29

Når jeg ser de første kommercielt tilgængelige flyvende biler på himlen, vil jeg begynde at tro på kunstig intelligens. Den kunstige intelligens har så mange problemer, selv på det lave stadie den befinder sig på i øjeblikket, at en funktionel samfundsmæssig anvendelse næppe nogensinde bliver en realitet. Præcis som den flyvende bil, som jeg allerede blev lovet tilbage i 50'erne. Hvor er min flyvende bil? Det er 60 år siden I lovede mig den.

Problemet er nok, at mange ekspertsystemer og lignende baseret på symbol-manipulations paradigemet er blevet markedsført som kunstig intelligens.

Jeg tror ikke at vi skal forvente at se symbol-manipulations paradigemet nogen sinde føre til kunstig intelligens og langt mindre til bevidsthed (i nogen egentlig betydning af ordet).

Og massivt paralelle distribuerede systemer som neurale netværk er endnu langt fra tilstrækkeligt udviklede til at tilbyde en egentlig intelligens. Måske nok især fordi der mangler en effektiv selektionsproces til at udvikle en fungerende arkitektur, således som den naturlige selektion gør der for naturens egne nervesystemer.

12
22. februar 2013 kl. 12:12

En robot er livløs og agerer alene på fysikkens bud.

I modsætning til liv, der jo så åbenbart må reagere på nogle metafysiske bud?!

Bevisthed (herunder smerte) er en egenskab ved livet, egenskaber en robot ikke skal bekymre sig om.

Det er en relgiøs udtalelse. Det naturvidenskabelige svar er, at bevidsthed er en egenskab ved et komplekst fyisk system (som f.eks. en hundehjerne!).

Jeg har en lumsk fornemmelse af, at du ikke selv er klar over, at dine synspunkter er religiøse.

11
22. februar 2013 kl. 11:19

Når jeg ser de første kommercielt tilgængelige flyvende biler på himlen, vil jeg begynde at tro på kunstig intelligens.

http://www.terrafugia.com/Til R. Kelly's toner: 'I believe you can fly...You should belive in upcoming A.I...

er det ikke lidt ligegyldigt at snakke robotetik, når vi alle sammen ved, at det bliver det næste, hackere kaster sig over - bare for di de kan - og at kriminelle vil følge efter, når de opdager en pekuniært incitament til at gøre det.</p>
<p>så er de 3 love ligegyldige

Meningen med de 3 love er jo netop, at de ikke skal kunne omgås. Det er vel ikke teknisk umuligt at hard-code noget, så det ikke kan ændres ved software-manipulation. Måske 2 hjerner - 1 uden indlæringsmulighed, som er isoleret fra den anden samt fra wifi og lign. og som vurderer om en kill-switch skal aktiveres og 1 hjerne til den egentlige interaktion med mennesker og bevægelse osv..

10
22. februar 2013 kl. 11:04

En robot er livløs og agerer alene på fysikkens bud.</p>
<p>Den er ude af stand til at springe over i de levendes rækker, og må se sig begrænset at fysikkens egenskaber - lige som det levende er ude af stand til at springe over i de livløses rækker. Det er her man træder i spinaten, og tror at døden er identisk med et sådant spring.

Robotten kan stadig foretage et valg, ud fra den logik der er indbygget i den og spørgsmålet går vel på om den skal forsøge at redde sig selv (og derved nogle penge for den som ejer robotten (eller forsikringsselskabet)) eller om den skal vælge at ofre sig selv, for at redde en menneske eller sågar et dyr. Skal den selvkørende bil f.eks. vælge at køre ind i et hus, for at undgå at ramme et legende barn der løber ud på vejen?

Hvis forsikringsselskabet må bestemme så bliver barnet kørt ned, for ellers skal de betale en ny bil og skader på huset. Barnet måtte alligevel ikke løbe ud på vejen. Skal barnets forældre bestemme, så er bilen og huset bare materielle ting der kan erstattes...

9
22. februar 2013 kl. 09:21

er det ikke lidt ligegyldigt at snakke robotetik, når vi alle sammen ved, at det bliver det næste, hackere kaster sig over - bare for di de kan - og at kriminelle vil følge efter, når de opdager en pekuniært incitament til at gøre det.

så er de 3 love ligegyldige

8
22. februar 2013 kl. 08:04

En robot er livløs og agerer alene på fysikkens bud. Den er ude af stand til at springe over i de levendes rækker, og må se sig begrænset at fysikkens egenskaber - lige som det levende er ude af stand til at springe over i de livløses rækker. Det er her man træder i spinaten, og tror at døden er identisk med et sådant spring. Så robotten bliver ikke "levende", og mennesket bliver ikke "livløs". Det levende bliver aldrig en robot, og en robot bliver aldrig et menneske. Bevisthed (herunder smerte) er en egenskab ved livet, egenskaber en robot ikke skal bekymre sig om.

7
21. februar 2013 kl. 22:00

Det er vel bare at implementere en begrænsning, længere er den ikke.

Den har vel ret til at leve så længe den er funktionel.

6
21. februar 2013 kl. 21:06

Når jeg ser de første kommercielt tilgængelige flyvende biler på himlen, vil jeg begynde at tro på kunstig intelligens. Den kunstige intelligens har så mange problemer, selv på det lave stadie den befinder sig på i øjeblikket, at en funktionel samfundsmæssig anvendelse næppe nogensinde bliver en realitet. Præcis som den flyvende bil, som jeg allerede blev lovet tilbage i 50'erne. Hvor er min flyvende bil? Det er 60 år siden I lovede mig den.

5
21. februar 2013 kl. 20:36

Så du mener ikke at en robot nogensinde får en bevidsthed?

4
21. februar 2013 kl. 20:16

Et barn på 4 år ser en sprællende dukke, men er kvik nok: Hvem fører dukken - hvor er han? Etiske regler, straffelov m.v. overfor dukkens opførsel? Barnet ved godt at dukken er af det livløses rige, og kaster rundt med den og river armene af, men vi er åbenbart dummere end barnet og og snakker om dukkeopførsel (læs robotopførsel) - der er netop ikke en dyt forskel på en dukke og en robot, de er begge livløse ligegyldig hvor "livagtige" de måtte forekomme (undskyld H.C Andersen).

3
21. februar 2013 kl. 16:07

Den selvkørende bil et andet. Men det er da bestemt vigtige ting at tage stilling til.

Hvis en selvkørende bil kun kan undgå at køre frontalt ind i en lastbil (og derved dræbe dens egen passagerer) ved at køre frontalt ind i 10 mennesker der står og venter på bussen... Hvad skal den så vælge... De beregninger kan computerne allerede nå at beregne i dag og stadig regerer hurtigere og mere sikkert end mennesker, men skal samfundet, chaufføren eller bilproducenten træffe valget?

2
21. februar 2013 kl. 15:36

På trods af hvad du skriver, er vi jo temmelig langt fra autonome sociale robotter, altså robotter der er ikke hele tiden skal have at vide hvad de skal gøre. Hvis vi skal teoretisere om dem, kan vi vel også teoretisere om en løsning: vi stiller bare samme krav til dem som vi stiller til mennesker. Hvis de virkeligt er intelligente, kan de vel lære at opføre sig som mennesker.

Jeg synes det virker som om du forestiller dig at vi skal lægge en forprogrammeret simuleret etik ned i dem - men er det overhovedet en relevant tanke?

For robotter der blot er selvkørende værktøj, dvs. alle robotter der ligger inden for den overskuelige fremtid, ja, der er det vel som med andet værktøj at mennesket i den anden ende er ansvarlig for brugen, og værktøjsproducenten er ansvarlig for at visse basale sikkerhedskrav er opfyldt. Så f.eks. skal en selvkørende landbrugsrobot have sensorer der gør at den ikke bare tromler naboens børn over - ellers skal landmanden sørge for opsyn eller indhegning. En kirurgrobot der bare er et stykke værktøj, ville aldrig skulle overveje etiske dilemmaer.

1
21. februar 2013 kl. 15:21

En krigsrobot kan vel ikke rigtig overholde de 3 love der i hvert fald.

Og så er der den klassiske, hvor robotterne overtager verden for at opfylde 1), nemlig at beskytte mennesket mod sig selv - det kunne være forurening etc.

Heldigvis tror jeg er er et godt stykke vej til sådan rigtig tænkende robotter. Det vi får først er maskiner der kan hjælpe endnu mere end vaskemaskiner og sådan. Robotstøvsugeren er et godt eksempel. Den selvkørende bil et andet. Men det er da bestemt vigtige ting at tage stilling til. Hvis vi når dertil hvor robotten har et "sind", så rejser der sig jo også spørgsmål om robottens rettigheder til at leve. Hvor længe skal den have lov til det f.eks.