Kronik: Etiske robotter vil gøre verden til et bedre sted

Hvis du er hollywoodinstruktør eller filosof med interesse for robotter, så sælger det flere biletter – eller bøger – at fremmale dystre fremtidsscenarier end nøgternt at påpege, at denne teknologi højst sandsynligt vil gøre verden til et bedre sted at leve for os mennesker.

Det er ikke sandsynligt, som den svenske filosof og fremtidsforsker Nick Bostrom, professor ved Oxford universitet, har foreslået, at morgendagens ensidigt maksimerende robotter vil omdanne alt i verden til papirclips, men tanken kan da give et frydefuldt gys.

Bostrom har dog den vigtigere pointe, at det bliver en afgørende opgave for det 21. århundredes robotforskere at programmere robotter således, at de opfylder etiske betingelser. Den generation af robotter, der kommer inden for de næste fem-ti år, vil udfylde en række opgaver, der går ud over de rent industrielle. De vil bevæge sig rundt i trafikken, de vil være til stede på plejehjem og de vil underholde vores børn.

Dette er eksempler på sociale robotter, og disse vil nærmest pr. definition indtræde i den etiske sfære og dermed fordre et fokus på etiske aspekter. Det er nok ikke for meget sagt, at tidens ingeniører ikke helt har indset nødvendigheden af dette fokus – mere om dette senere.

Ret indlysende er det, at de etiske krav til robotter må gå ud over rene nyttebetragtninger og f.eks. tage hensyn til menneskers basale rettigheder, og til at man ikke bare kan bruge et menneske som middel til at opnå et hvilket som helst mål. Og dette er netop vejen væk fra Bostroms papirklipsmareridt, for en robot kan ikke bruge en menneskekrop til at lave clips af uden at overtræde basale rettigheder.

Men det går længere end det. Robotter vil være heroiske, de vil i deres handlinger bevæge sig ud over, hvad vi kan kræve etisk af mennesker, når de uden hensyn til muligheden af deres egen destruktion vil overtage farlige job i forbindelse med katastrofer og epidemier og udforske rummet for os. De vil kunne udføre sådanne opgaver, fordi de ikke er personer, men ting, og derfor ikke kan tilskrives rettigheder.

De gør det sådan set allerede. Robotter udforsker Mars, og robotter kravlede allerede rundt under ruinerne efter 11. september 2001. Darpa Robotics Challenge (DRC), finansieret af det amerikanske militær, kulminerer i en længe ventet finale i juni 2015. Her vil det vise sig, hvad state of the art kan præstere inden for redningsrobotik.

Koreanske Team Robotis er blandt fina­listerne i Darpa Robotics Challenge Finals, der afholdes til juni, med robotten Thormang 2. Illustration: Robotis

25 hold fra forskellige steder i verden vil dyste mod hinanden, herunder flere hold fra Tyskland og et fra Italien, men langt de fleste hold er fra USA og Asien, og denne fordeling afspejler robotforskningen generelt. Robotterne skal vise at de kan klare opgaver, der er vigtige i forbindelse med katastrofescenarier, herunder at køre en bil og stige ud af den, skære hul i en væg, kravle over forhindringer og op ad en stige osv.

Bemærkelsesværdigt er det dog, at ingen af opgaverne indebærer et møde med mennesker, og at der ikke stilles nogen etiske krav til, hvordan opgaverne løses. Selv om robotforskere som Alan Winfield er begyndt at få øjnene op for behovet for og mulighederne i at programmere etiske robotter, så er en sådan forskning stadig på proof of principle-niveau og altså endnu ikke en del af robotindustriens state of the art. Det vil være en læreproces for både etikere og ingeniører at lære at tale hinandens sprog, men det er nødvendigt.

Det er vigtigt at sætte etiske grænser for robotters handlemønstre og grundlæggende funktionalitet. Det er for eksempel et stort spørgsmål lige nu, om militære robotter overhovedet skal tillades – jeg er personligt mere nervøs for at bruge robotter til at opdrage børn eller som sociale partnere for ældre.

Men jeg er ikke i tvivl om, at vi kan løse opgaven om at lave robotter, der fungerer etisk korrekt, og at disse robotter i mange situationer vil gøre tilværelsen bedre for os mennesker. Vil de fleste ikke foretrække at blive reddet ud af en brændende bygning, hvad end det er et menneske eller en robot, der rækker hånden frem?

Emner : Robotter
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

De fleste robotter er ikke intelligente, men programmeret til en opgave. De kan kun omdanne verden til papirklips, hvis programmøren har programmeret dem til det. I langt de fleste tilfælde, er opgaven derfor at sikre, at programmøren ikke programmere dem til noget, uden at vide hvad han gør. En måde at sikre sig, at programmøren ikke programmere utilsigtede ting ind i robotten, er at anvende metoder der sikrer mod menneskelige fejl. De samme metoder udelukker også softwarefejl, bagdøre, og andre menneskelige fejl. En ikke intelligent robot, gør kun det som der ønskes den skal gøre. Ellers er programmeringen ikke sikret mod menneskelige fejl eller hardwaren ikke sikret mod de mulige tekniske fejl.

Robotter med kunstig intelligens, kan have et ikke bevist underliggende fundament, der gør disse robotter uforudsigelige. I nogle tilfælde, kan de sikres ved, at programmeringen kombineres med sædvanlig forudsigelig programmering, der sikrer at robotten holder sig indenfor nogle rammer.

  • 4
  • 1

Hej Martin. Der er ikke nogen der er bange for "robotter" - det er værktøj med elektronik i. Folk (inklusiv Nick Bostrom som jeg lige har slået op) er bange for super intelligens. Altså en kunstig intelligens der er klogere end et menneske, generelt - ikke bare at løse et specifikt problem. Man har stor held med at lave selvlærende maskiner og man laver hjernesimuleringer - bekymringen skyldes at når en kunstig intelligens på mission for at gøre sig selv klogere når menneskestadiet går der ikke mange øjeblikke før at den er mere intelligent end et menneske. Hvis denne intelligens på nogen måde ønsker at skade mennesker (direkte eller indirekte - "løs klimaproblemet") og er på internettet vil den i løbet af ganske kort tid kunne replikere sig ud på store dele af nettet og være nær ustoppelig. Derfor ønsker mange at man laver en masse research så man ikke opretter den "forkerte" kunstige intelligens. Det er svært at spå om hvad der vil ske - men det ærgeligt hvis det går galt, for så kan det gå rigtig galt. Mvh Pascal

  • 4
  • 0

En robot som får meneskelignede intelligens, eller endnu bedre og er i stand til at tilegne sig nye færdigheder, vil stadig være en maskine. Det vil sige ingen samvittighed, moral eller etik, men med en intelligens som sikkert kommer til at overgå menneskets, det mener jeg også er en meget dårlig ide og er en udvikling som hurtigt kan komme helt ud af kontrol. Men tvivler desvære ikke på at vi nok skal komme til at se sådanne indenfor en overskuelig fremtid, lidt skræmmende.

Hvis at den så har en intelligens som overgår menneskers, kan lære nye færdigheder og træffer sine egne valg, hvornår eller hvordan vurderer, eller beslutter man så om den også har en bevidsthed ?. Og hvis at den har en bevisthed, ville et meneske som kunne finde på at slukke for den så ikke være at betragte som en fjende ?.

  • 1
  • 0

Der er en konstant og misforstået antropomorfisering af AI, men den vil højst sandsynligt slet ikke være interesseret i at se mennesker som andet end en samling atomer. Det er derfor muligt, at denne AI kan finde et bedre formål til de individuelle atomer, og derfor søger at omarrangere dem.

Der er mange måder at opfatte mennesker på, men det er kun mennesker, der opfatter andre mennesker som mennesker. Kæledyr ser noget større end dem selv og adlyder vores kommandoer, hvilket ligner vores egen opfattelse lidt. Insekter eller bakterier opfatter mennesker anderledes end kæledyr. En AI vil sidestille os med et træ eller en sten, dog med den unikke egenskab, at vi kan i højere grad end andre naturfænomener systematisk manipulere vores omgivelser.

At programmere en AI med menneske-agtige egenskaber, som f.eks. at kunne forstå talesprog, så man kan diskutere etik med den, vil være en illusion, ligesom etik er en illusion i vores egne hjerner. Etik er bare et godt værktøj for mennesker, når vi søger mindst mulig lidelse, men for en AI kan lidelse aldrig være andet end en regel, som vi kan fortælle den, skal forekomme mindst muligt, når denne AI interagerer med mennesker.

Kompleks super-AI vil sandsynligvis være umulig for os at styre og forstå. Den slags AI opstår formodentligt, når den første AI selv bygger den næste generation af AI, hvis opførsel kan fejlopfattes som støj eller kaos.

  • 3
  • 1

Jeg ved ikke lige om jeg ville stole på en maskine med etiske opfattelser, jeg stoler dårligt på mine medmennesker med samme fornemmelser, men måske en maskine ville være bedre til at leve op til sine idealer?

  • 1
  • 0

..men etik på højt plan kan som jeg ser det, gå meget galt.

Er det etisk at sætte folk i fængsel, når det koster millioner for een indsat? Disse millioner kunne gå til bedre ting.

Er det ikke bedre at dræbe en massemorder end at holde ham i fængsel?

Hvorfor holde live i uhelbredelige syge?

Til hvad gavn er det at sætte dybt psykotiske folk i en anstalt?

Fremtiden byder på teoretisk MEGET intelligente robotter, og når de kan hackes og der er programmeringsfejl, så kan konsekvenserne blive uforudsigelige.

  • 0
  • 0

Mange tak for interessante kommentarer til min artikel! Det er klart, at der er tale om en populær artikel og den skal tages som sådan, med andre ord, jeg kan ikke gå meget i detaljer med tingene, men pege på nogle tendenser. Generelt så taler jeg om etik i en funktionel forstand, robotterne fungerer på en måde vi ville kalde etisk, hvis mennesker gjorde det samme - det betyder ikke at robotterne har bevidsthed eller samvittighed. (se Wendell Wallach og Colin Allens bog "Moral Machines" for flere detaljer. @ Jens Madsen: Man kan helt klart komme langt med sikring gennem effektiv programmering. Du kan se de etiske begrænsninger som en udvidelse af sikkerheden - det er i virkeligheden en udvidelse af hvad et "planning problem" for en robot indebærer (således ser indenfor robotverdenen, f.eks. Allan Winfield også på det). Mht om robotter selv kan finde på at lave papirklips, så er det jo et spørgsmål om hvor mange frihedsgrader ( i fysisk forstand af ordet), man giver dem. Jo højere grad af "autonomi" robotterne har, jo mere kan de "finde på selv". Det er ikke urealistisk at robotter i den nærmeste fremtid kan finde løsninger på et højere niveau end de kan i dag. @Pascal: En robot= mekanik/elektronik+ kunstig intelligens, så din indvending giver ikke meget mening. En kunstig intelligens uden krop kan ikke lave papirclips og det kan en krop uden styring af AI heller ikke. Bostrom fandt på dilemmaet tilbage i 00érne, se http://wiki.lesswrong.com/wiki/Paperclip_m... (om han er bange for det rent personligt ved jeg selvfølgelig ikke :-) Endnu en gang tak og med venlig hilsen, Martin

  • 0
  • 0

Robotter bliver til for at erstatte kedeligt, ensformigt, dyrt eller farligt arbejde.

Nogle af de dyreste og farligste arbejdspladser finder vi i militæret og der er da også en rivende udvikling af robotter til militært brug rundt om i verdenen.

Vi har allerede murder-drones, snart får vi også robot infanteri (se f.eks Boston Dynamics). Disse vil først være at finde i støtteopgaver, men vil på sigt mere og mere komplicerede opgaver indtil vi har en fuldstændig autonom T-800 CSM 101.

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten