close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.
kronikken blog

Når robotterne kommer, vil de så opføre sig ordentligt?

 

Autonome, sociale robotter forudsiges at komme til at udgøre det næste store teknologiske spring fremad med betydelige samfundsmæssige følger. Det drejer sig om maskiner, der kan interagere med omgivelserne, mennesker og andre robotter, og som selv kan tage beslutninger i komplekse situationer under hensyntagen til sociale og kulturelle strukturer i den pågældende situation.

De mest åbenlyse funktioner for sociale robotter ligger inden for 'de tre S'er': sex, slaver og soldater. Det omfatter blandt andet sexrobotter og robotsoldater og care bots, der med simuleret empati kan tage sig af børn og ældre.

Mens ingeniører arbejder på højtryk på at gøre sådanne maskiner til virkelighed, opstår der nye etiske spørgsmål: Er det amoralsk at udbyde sexrobotter eller er det tværtimod et skridt i mod et mere moralsk samfund, idet ofrene for prostitution kunne tænkes at forsvinde, når kunderne kan få deres behov stillet af maskiner?

Hvis robotter kan programmeres til at følge krigens love bedre end menneskelige soldater, giver det os da en moralsk forpligtelse til at udvikle sådanne robotter? Når robotterne skal til at gebærde sig rundt i vores hverdag, hvordan sikrer vi os, at de opfører sig ordentligt?

Hvad mener vi egentlig med ordentligt i denne sammenhæng? Eller som en filosof ville sige, hvilken type etik, skal robotten følge? Skal robotterne følge en konsekvensetik og handle efter, hvad der giver størst samfundsmæssig nytte?

Der synes at være en stor risiko forbundet med at slippe sådanne automatiske utilitarister ud i samfundet, som i deres ensidige forsøg på at maksimere nytten kunne overskride menneskers basale rettigheder. Skal robotterne så i stedet følge en pligtetik og dermed være bundet af et sæt af regler? Science fiction-forfatteren Isaac Asimov fremførte tre sådanne regler i sine berømte historier om robotter, kaldet robotologiens tre love:

1) En robot må ikke skade et menneske eller gennem undladelse af handling tillade et menneske at komme til skade.

2) En robot skal adlyde ordrer givet af mennesker, undtagen når sådanne ordrer strider mod den første lov.

3) En robot skal sikre sin egen overlevelse, så længe dette ikke strider mod den første eller den anden lov.

Hvis man forestiller sig robotter handle efter reglerne i denne simple form, kan det nemt give problemer. En robot kunne f.eks. tænkes at standse en vigtig kirurgisk operation, fordi patienten er ved at 'komme til skade'. Af sådanne grunde kan reglerne ikke være absolutte, men dette åbner op for en række nye problemer, som Asimovs historier netop viser med al ønskelig tydelighed.

En krigsrobot kan vel ikke rigtig overholde de 3 love der i hvert fald.

Og så er der den klassiske, hvor robotterne overtager verden for at opfylde 1), nemlig at beskytte mennesket mod sig selv - det kunne være forurening etc.

Heldigvis tror jeg er er et godt stykke vej til sådan rigtig tænkende robotter. Det vi får først er maskiner der kan hjælpe endnu mere end vaskemaskiner og sådan. Robotstøvsugeren er et godt eksempel. Den selvkørende bil et andet. Men det er da bestemt vigtige ting at tage stilling til. Hvis vi når dertil hvor robotten har et "sind", så rejser der sig jo også spørgsmål om robottens rettigheder til at leve. Hvor længe skal den have lov til det f.eks.

  • 0
  • 0

På trods af hvad du skriver, er vi jo temmelig langt fra autonome sociale robotter, altså robotter der er ikke hele tiden skal have at vide hvad de skal gøre. Hvis vi skal teoretisere om dem, kan vi vel også teoretisere om en løsning: vi stiller bare samme krav til dem som vi stiller til mennesker. Hvis de virkeligt er intelligente, kan de vel lære at opføre sig som mennesker.

Jeg synes det virker som om du forestiller dig at vi skal lægge en forprogrammeret simuleret etik ned i dem - men er det overhovedet en relevant tanke?

For robotter der blot er selvkørende værktøj, dvs. alle robotter der ligger inden for den overskuelige fremtid, ja, der er det vel som med andet værktøj at mennesket i den anden ende er ansvarlig for brugen, og værktøjsproducenten er ansvarlig for at visse basale sikkerhedskrav er opfyldt. Så f.eks. skal en selvkørende landbrugsrobot have sensorer der gør at den ikke bare tromler naboens børn over - ellers skal landmanden sørge for opsyn eller indhegning. En kirurgrobot der bare er et stykke værktøj, ville aldrig skulle overveje etiske dilemmaer.

  • 0
  • 0

Den selvkørende bil et andet. Men det er da bestemt vigtige ting at tage stilling til.

Hvis en selvkørende bil kun kan undgå at køre frontalt ind i en lastbil (og derved dræbe dens egen passagerer) ved at køre frontalt ind i 10 mennesker der står og venter på bussen... Hvad skal den så vælge... De beregninger kan computerne allerede nå at beregne i dag og stadig regerer hurtigere og mere sikkert end mennesker, men skal samfundet, chaufføren eller bilproducenten træffe valget?

  • 0
  • 0