Robotter har brug for etik – men hvilken?
Hvis samtalen til et socialt arrangement løber lidt tungt, så vil det her spørgsmål hurtigt få sindene i kog: Hvem har ansvaret, hvis en eller anden form for kunstig intelligens, for eksempel i en selvkørende bil, er skyld i en ulykke – og hvordan træffer den det moralsk korrekte valg, hvis der opstår et dilemma?
Billedet bliver højaktuelt, hvis valget står mellem førerens liv og den berømte børnehave, der netop er ved at krydse vejen. Er det overhovedet muligt at træffe det etisk korrekte valg?
Det spørgsmål er forskerne og politikere optaget af i disse år. På EU-plan besluttede kommissionens retsudvalg i sidste uge, at der skulle udarbejdes et forslag til, hvordan man rent juridisk skal forholde sig til robotter, som har en eller anden form for kunstig intelligens.
Leder af udvalget Mady Delvaux fra Luxembourg foreslog i den forbindelse, at selvlærende robotter kunne tildeles en eller anden form for ‘e-personlighed’, så de kunne stilles til ansvar for handlinger. Men hun forventede ikke, at arbejdet med den type lovgivning ville være færdig før om 10-15 år.
Problemet er blot, at udviklingen kan gå meget hurtigere, end EU og mange landes lovgivningsarbejde kan følge med til.
Ansvar uden bevidsthed?
Martin Mose Bentzen er adjunkt ved DTU Management Engineering, ph.d. i filosofi og en af dem, som sammen med kolleger i blandt andet Tyskland forsøger at udvikle rammer for, hvordan robotter med en højt udviklet kunstig intelligens skal opføre sig i samarbejdet med mennesker:
»Grundlæggende giver det kun mening at placere et ansvar for en handling hos én, som har en bevidsthed om, hvad vedkommende gør. Men alligevel mener jeg, det er muligt at få robotter til at fungere som etiske enheder. Det kræver, at vi programmerer dem med etiske principper og regler,« siger Martin Mose Bentzen.
Men den slags etiske principper er ikke ligetil at kode ind i en robot. For hvad skal den grundlæggende rette sig efter? Skal en robot redde det enkelte menneske, eller skal den måske handle ud fra et overordnet hensyn til hele menneskeheden – redde børnene frem for en enkelt voksen?
Et af de mest kendte forsøg på at sætte robotters handlinger på formel, kom allerede i midten af forrige århundrede, hvor den russisk-amerikanske science fiction-forfatter Isaac Asimov udformede de tre robotlove:
1) En robot må ikke skade et menneske eller gennem undladelse af handling tillade et menneske at komme til skade. 2) En robot skal adlyde ordrer givet af mennesker, undtagen når sådanne ordrer strider mod den første lov. 3) En robot skal sikre sin egen overlevelse, så længe dette ikke strider mod den første eller den anden lov.Asimovs robotlove
»Den måde, Asimov formulerede de tre robotlove på, er grundlæggende relevant i dag. Men hvis vi for eksempel siger, at robotten overordnet set skal fungere ud fra utilitarisme, altså ønsket om at skabe så meget nytte så muligt, så bliver vi nødt til at supplere med en række regler og etiske principper, så hensynet til det hele ikke går ud over folks rettigheder,« siger Martin Mose Bentzen, der samarbejder med tyske forskere fra universitetet i Freiburg.
Her arbejder man på at udvikle en softwarerobot, som bygger på etiske principper. Det er så op til mennesker i ‘samtale’ med robotten at afgøre, om den også opfører sig etisk forsvarligt.
Når robotter lærer af andre
Forskerne er dog godt klar over, at fremtidens robotter ikke er koblet op på faste regler kodet ind et almindeligt programmeringssprog, så det til enhver tid er muligt at forklare, hvorfor robotten foretog en given handling.
Fremtidens robotter baserer sig på neurale netværk, hvor logikken i handlingerne kan være mere eller mindre diffus set udefra. Det skyldes blandt andet, at robotten løbende bliver bedre til sin opgave, i takt med at den indsamler mere og mere data. Robotten er altså ikke bedre end det datagrundlag, den har adgang til.
Lige netop det viste sig at få uheldige konsekvenser, da Microsoft i marts måned sidste år, lancerede konversationsrobotten – eller ‘chatbotten’ – Tay på Twitter. I løbet af få timer begyndte Tay at sende tweets ud med racistisk og sexistisk indhold, og efter 16 timer på nettet blev den lukket. Robotten var simpelthen begyndt at tilegne sig det sprog, den blev mødt med på Twitter.
Faste regler og neurale netværk
Derfor er forskerne også godt klar over, at hvis robotter skal være ‘etiske’, så er det nødvendigt at bruge både faste regler og neurale netværk. Det er netop sådan et hybridsystem, Martin Mose Bentzen og hans kolleger arbejder på:
»Udfordringen er at formalisere nogle af de etiske principper, vi kender fra filosofien, og forsøge at skabe et hybridsystem, hvor vi både har de selvlærende principper fra de neurale netværk og et sæt regler, som systemet kan fungere inden for,« forklarer han og peger på det grundlæggende princip, hvor et menneskes handling både kan føre til noget godt og skidt – det såkaldte dobbelteffekt-princip:
»Det betyder for eksempel, at det ikke er i orden, hvis en lægerobot skærer én patient i fem stykker for at redde fem andre patienter,« siger han og erkender, at robotter styret af neurale netværk i mange andre situationer vil være stillet over for langt mere komplicerede problemstillinger.
Her vender vi tilbage til den selvkørende bil og børnehaven, som ved et uheld har forvildet sig ud på vejen:
»Selvom de etiske ideer, der ligger bag, er gamle, så er det jo en helt ny situation, hvor vi forsøger at koble filosofien med teknologien. Målet er at opstille nogle principper, som så måske kan omdannes til standarder for, hvordan robotter skal fungere i forhold til mennesker,« siger Martin Mose Bentzen.
Og når det gælder den selvkørende bil, så har han ikke noget klart svar:
»Men der er ingen tvivl om, at vi bliver nødt til at være mere forsigtige og stille større krav til robotter, end vi gør til os dødelige mennesker.«
