Menneskets synlige tilstedeværelse på slagmarken er ikke det eneste, som er ved at forsvinde i takt med fremmarchen af droner. Eksperter verden over advarer også om, at nye våbensystemer gør, at menneskelige beslutninger i disse år bliver overtaget af software.
I FN opfordrer den særlige rapportør på området, Christof Heyns, til et stop for udvikling af de intelligente våbensystemer, og amerikanske militæranalytikere udtrykker i medierne bekymring over, hvad de kalder et ‘våbenkapløb i autonome våbensystemer’. Herhjemme følger forskere også udviklingen med bekymrede miner, for robotterne befinder sig i en voksende juridisk gråzone i forhold til den humanitære folkeret, der regulerer, hvad man må – og ikke må – i krig.
For hvornår handler et system så meget på egen hånd, at det kan betegnes som autonomt? Det er det centrale juridiske spørgsmål, mener ph.d.-stipendiat ved Juridisk Institut på Aarhus Universitet Iben Yde, hvis afhandling netop omhandler legaliteten af autonome våbensystemer.
»Hvor høj grad af ‘selvbestemmelse’ skal der være, før de falder i denne her kategori af problematiske våben? Jeg har siddet tre år med min afhandling nu, og jeg er ikke i stand til at sætte det skel,« siger hun.
I dag er de intelligente våbensystemer allerede vidt udbredt – de kommer især fra amerikanske producenter, men også Storbritannien, Norge og Israel har systemerne eller er i fuld gang med udviklingen. Lockheed Martin har udviklet anti-skibsmissilet LRASM, der af Human Rights Watch og medlemmer af den internationale komité for robotvåben (ICRAC) betegnes som en forløber for fuldt automatiserede våben.
LRASM udvælger selv sit mål og beregner sin egen rute uden om antiluftskyts. US Navy har også søsat hurtigtgående, selvstyrende speedbåde, der ved brug af software-arkitekturen CARACaS (Control Architecture for Robotic Agent Command and Sensing) kan koordinere deres bevægelser, omringe og på sigt tilintetgøre flådefartøjer, der kommer for tæt på krigsskibe.
Israel står bag antiradar-våbnet Harpy. Harpy er en to meter lang drone, der bliver affyret fra et militært køretøj og følger en forprogrammeret rute, mens den scanner jorden under sig for fjendtlige radarsystemer – parat til at angribe.
Fra det øjeblik, Harpy er sendt af sted, er den ikke under menneskelig kontrol. Hvis en radar på jorden bliver aktiveret, opfanger dronen signalet og forsøger at matche signalet med en database med godkendte mål. Er der match, styrtdykker dronen og indleder sit kamikazeangreb.
Men spørgsmålet for jurister – især i USA, hvor man bryster sig af, at ethvert angreb er funderet i en klar juridisk formulering – er, om et fuldgyldigt autonomt våbensystem kan operere lovligt under gældende international ret.
For som professor i menneskerettigheder og FN’s særlige rapportør Christof Heyns slog fast i maj sidste år, risikerer vi at ‘ende på den forkerte side af grænsen, og til den tid er det meget svært at vende tilbage. Hvis der nogensinde er et oplagt tidspunkt at regulere og stoppe disse våben på, er det nu’, som han sagde under et FN-møde i Genève.
Det er dog ikke utænkeligt, at et fuldstændigt autonomt våbensystem kan operere lovligt under gældende international ret, mener Iben Yde. Hun påpeger dog, at teknologien endnu ikke er tilstrækkelig til at foretage de nødvendige nuancerede menneskelignende skøn.
Men hvis et våbensystem i fremtiden selv selv skal stå for måludpegning og beslutninger om angreb, skal det kunne opretholde to helt grundlæggende principper for at leve op til kravene for militære angreb under den humanitære folkeret, forklarer hun.
På trods af slagmarkens brutale virkelighed foreskriver krigens regler nemlig, at militære handlinger i mindst muligt omfang skal gå ud over civile, uanset hvem eller hvad der trykker på aftrækkeren, og det reguleres i henholdsvis ‘distinktionsprincippet’ og ‘proportionalitetsprincippet’.
Hvis autonome våbensystemer kan handle i overenstemmelse med de to bærende principper, er våbensystemerne også lovlige at bruge i krig, lyder Iben Ydes vurdering.
Civile må ikke være direkte mål for et militært angreb, og distinktionsprincippet foreskriver derfor, at et automatiseret våben skal være i stand til at skelne militære mål fra civile, inden det angriber.
»Men det kræver en ‘situationsfornemmelse’, der omtrent er på højde med menneskers, og der har vi endnu lang vej, før vi når det teknologiske niveau med kunstig intelligens,« siger Iben Yde.
Grader af autonomi Autonomi er ikke en fast defineret størrelse, men snarere et spektrum, hvor mennesket er placeret i forskellige led i beslutningskæden. Mange roboteksperter læner sig op ad en model, der definerer tre grader af selvbestemmelse i våbensystemer:
‘Human-in-the-loop’, hvor mennesker er en integreret del af beslutningskæden og har fuld kontrol over systemet.
‘Human-on-the-loop’, hvor mennesker betragter beslutningskæden og har mulighed for at gribe ind i systemet.
‘Human-out-of-the-loop’, hvor mennesker ikke har indflydelse på beslutningskæden.
For det andet skal systemerne også kunne tage stilling til den mere moralsk flydende problemstilling, der ligger i at overholde proportionalitetsprincippet, hvor uønskede civile tab skal holdes op mod angrebets strategiske fordel.
Men selv om civile ikke må være direkte mål, åbner folkeretten for en accept af civile dødsfald. De skal bare være proportionelle med den militære strategiske fordel ved at angribe.
»Den afvejning er også vanskelig for mennesker, der jo heller ikke har en fast standard for, hvad der er rigtigt at gøre i sådan en situation,« siger Iben Yde.
I dag findes der ingen regulering eller juridisk definition af autonome våbensystemer under de internationale love. Begrebet autonomi kan nemlig defineres så snævert, at udfaldet af systemets egne beslutninger nærmest er forudsigeligt.
Flere eksisterende amerikanske droner kan allerede indstilles til at operere autonomt, men på grund af våbenproducenternes hemmelighedskræmmeri står det ikke klart, om dronerne eksempelvis er i stand til selv at udpege mål og tage beslutning om angreb.
Men hvis dronerne besidder disse egenskaber, vurderer Iben Yde, at det under ekstremt skærpede omstændigheder ville være lovligt at give dronen ret til selv at angribe på egen hånd.
Hun forklarer, at en lang række forbehold ville gøre sig gældende, såsom at dronen udelukkende må gå efter materielle mål i afsides områder, hvor der ingen risiko er for at ramme civile mål.
Stram programmering
Som eksempel på et delvist selvbestemmende våbensystem nævner Iben Yde antiluftskyts-systemet Phalanx, som sidder på stort set alle britiske og amerikanske krigsskibe. Systemet kan sættes op til selv at detektere, spore og angribe indkommende missiler uden menneskelig indblanding.
Systemet forsøger bl.a. at tage radiokontakt for at sikre, at det ikke er et civilt fly, det er ved at skyde ned, og tager en lang række andre forbehold, inden det angriber.
»Et menneske kunne aldrig nå at foretage så mange vurderinger på så kort tid, så jeg mener ikke, det er det, vi skal forbyde,« siger Iben Yde, der som jurist ser en fremtid, hvor robotterne bliver stramt programmeret og holdt i kort snor.
Det samme billede i krystalkuglen ser Thomas Bolander, der forsker i kunstig intelligens ved DTU.
»Som teknologien er i dag, skal du instruere robotten i alle de regler, den skal efterleve, men du skal også programmere samtlige undtagelser, som i kampens hede ofte beror på et subjektivt skøn. Fjendens uniform er måske det, som for robotten definerer, hvad der må skydes på, og hvad der ikke må, men hvis et barn var klædt i fjendens uniform, ville et menneske måske ikke skyde, mens robotten i den situation ikke ville gøre forskel,« siger Thomas Bolander og fortsætter:
»Det kan man selvfølgelig tage forbehold for, men hvem kan garantere, at det program, man begynder at skrive, tager højde for samtlige ting? Ved den ene yderlighed kan det betyde, at robotter udgør en stor risiko i forhold til at begå frygtelige fejl, eller også bliver de så forsigtige, at man kan diskutere, hvor interessante de så er at benytte,« siger han.
Han slår fast, at der endnu er meget lang vej, før det bliver muligt at skabe fuldgyldige autonome systemer, der kan bruges i komplekse situationer, som krig ofte er, så dræberrobotterne invaderer ikke slagmarken lige foreløbigt.
»Dybest set forstår vi ikke, hvordan vi skal lave menneskelignende intelligens på en computer. Det er ikke engang sådan, at man kan sige, at vi er godt på vej, for det er en nød, vi simpelthen ikke har knækket endnu,« siger Thomas Bolander.
Er dræberrobotter sikre?
I FN har man diskuteret lovligheden af dødbringende autonome våbensystemer de seneste to år, men er endnu ikke nået frem til, om de autonome droner skal på listen over våben, der er forbudte at anvende i krig.
FN afholdt i maj et ekspertmøde om emnet og inviterede blandt andre Paul Scharre, der leder et mangeårigt forskningsprojekt, som skal kortlægge fremtidens krigsførsel for den uafhængige organisation Center for a New American Security.
Han arbejder på at finde ud af, hvilken rolle autonome robotter kommer til at spille i fremtidens krig, og mener, at vi i øjeblikket står midt i en revolution inden for robotik – både civil og militær – og det kræver, at vi som verdenssamfund forholder os til perspektiverne i den nye teknologi.
»Mange vil hævde, at der ikke findes dødbringende autonome våbensystemer. Det er ikke sandt, når man ser isoleret på funktionaliteten ‘beslutning om udvælgelse af mål’. De er ikke i brug mange steder, men der er et lille antal systemer i brug i dag, som udfører denne funktion,« fortalte Poul Scharre til de officielle repræsentanter fra mere end 25 lande og nævnte blandt andet Harpy-systemet som eksempel.
Under den kolde krig, forklarede han, var der automatiske detektionssystemer på begge sider, der ved flere lejligheder fejlagtigt troede, at et atomangreb var undervejs. Dengang var det indgreb fra mennesker i beslutningskæden, der sikrede, at en global atomkrig ikke blev udløst.
»Der er et presserende behov for, at verdens nationer tænker over, hvordan man garanterer, at autonome våben er sikre og bruges på en sikker måde. Det er et ansvar, der påhviler enhver stat, at garantere sin egen sikkerhed, men utilsigtet krig kan ikke komme nogen til gode,« sagde Paul Scharre.
Set fra den modsatte pol har selvbestemmende robotter også interessante perspektiver i forhold til at gøre slagmarken mere human. Robotter handler aldrig på følelser og instinkter, og fortalere vil mene, at de kyniske robotter ikke vil være i stand til at begå krigsforbrydelser.
»Den humanitære folkeret har primært til formål at beskytte ofre for krig – og her menes primært civile, der kan blive fanget i krydsilden. Hvis man kan lave autonome våbensystemer, som kan yde en bedre beskyttelse, så kan man argumentere for, at vi er moralsk og politisk forpligtede til at videreudvikle denne slags systemer, ville jeg mene,« siger Iben Yde.
