»Jeg har svært ved at se formålet med at give robotter personlige rettigheder. Ansvaret for robotternes handlinger ligger hos os mennesker. Det vil blot øge forvirringen, hvis vi antropomorfiserer robotter,« siger Thomas Ploug, der er professor i teknologietik på Aalborg Universitet.
Hans kommentar kommer som reaktion på en rapport fra EU's lovgivningskomité, som opfordrer kommisionen til at udfærdige retningslinjer for, hvordan robotter skal håndteres, hvis de for eksempel skader mennesker.
Læs også: Kronik: Etiske robotter vil gøre verden til et bedre sted
Rapportens forfatter, Mady Delvaux, der er medlem af parlamentet for Luxembourg, siger i den forbindelse til European Parliament News, at en af løsningerne kunne være at give robotter en form for juridisk e-personlighed. Lidt i stil med den 'corporate personality', virksomheder har i dag:
»Vi har brug for at udarbejde de juridiske rammer for robotter, som allerede er på markedet eller som vil blive tilgængelige over de næste 10-15 år,« siger hun.
I 1950'erne udformerede den russisk/amerikanske science fiction-forfatter Isaac Asimov de tre robotlove. Lovene indgik i hans romaner om robotter og er siden blevet brugt af en lang række andre forfattere. Lovene bliver ofte nævnt i diskussionerne om fremtidens etiske problemstillinger for robotter: 1) En robot må ikke skade et menneske eller gennem undladelse af handling tillade et menneske at komme til skade. 2) En robot skal adlyde ordrer givet af mennesker, undtagen når sådanne ordrer strider mod den første lov. 3) En robot skal sikre sin egen overlevelse, så længe dette ikke strider mod den første eller den anden lov.Tre robot-love
Robotter er menneskers ansvar
Men Thomas Ploug er uenig i, at robotter skal behandles som juridisk ansvarlige enheder. Han tager udgangspunkt i IBM’s Watson-system, som allerede i dag bruges på hospitaler til at assistere læger i diagnosticeringen sygdomme:
»Men hvis diagnosen er forkert, hvem har så ansvaret? Jeg mener ikke, det er meningsfuldt alene at lægge ansvaret på teknologien,« siger han.
Læs også: Kunstig intelligens forudsiger, hvordan scener udspiller sig
Det skyldes blandt andet, at når nogen pålægges et ansvar, så følger der normalt også en sanktionering eller anden form for straf med. Men hvad skulle straffen være over for Watson? At strømmen bliver taget?
Thomas Ploug erkender, at der er risiko for, at systemerne lærer af hinanden og derigennem dygtiggør sig. Men næppe i det tempo, som vi vil forvente.
Læs også: Sex-robotter med kunstig intelligens vil gøre almindeligt samleje dødkedeligt
Men hvis ansvaret ikke entydigt kan placeres, så er der risiko for at motivationen for at sikre, at der ikke sker fejl blive mindre. Derfor mener Thomas Ploug, at en løsning vil være meget omfattende testprocedurer:
»Det er jo noget, vi kender fra udviklingen af medicin. Her kan vi jo heller ikke være 100 procent sikre på de langsigtede virkninger, og derfor har vi udviklet et omfattende testsystem.
Robotlove dur ikke
Og så er vi tilbage ved Asimovs tre robotlove. De handler om maskiner, og ikke mennesker. Thomas Ploug ser ikke den store fremtid i at underlægge robotter den slags love:
»Det nytter ikke noget at lægge en liste ind, som forsøger at afspejle det menneskelige moralkodeks i praksis. For desværre fejler vi sådan cirka hver anden gang, når vi forsøger at leve op til det. Og hvilket moralkodeks er det også lige, vi skal lægge ind, og hvordan skal de vægtes i forhold til hinanden?« siger han.
Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?
I stedet peger han på andre områder, hvor vi allerede i dag skal håndtere meget komplekse problemstillinger. Det er, som tidligere nævnt, udviklingen af medicin, hvor vi på trods af grundige tests grundlæggende ikke kan kende den fulde sandhed om langtidsvirkende effekter.
Men også områder som brugen af genmodificerede afgrøder og klimaskadelige produkter er områder, hvor vi ikke med sikkerhed kan forudsige effekterne på lang sigt.
