Autonome droner giver krigens regler kamp til stregen
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser og accepterer, at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Autonome droner giver krigens regler kamp til stregen

Menneskets synlige tilstedeværelse på slagmarken er ikke det eneste, som er ved at forsvinde i takt med fremmarchen af droner. Eksperter verden over advarer også om, at nye våbensystemer gør, at menneskelige beslutninger i disse år bliver overtaget af software.

I FN opfordrer den særlige rapportør på området, Christof Heyns, til et stop for udvikling af de intelligente våbensystemer, og amerikanske militæranalytikere udtrykker i medierne bekymring over, hvad de kalder et ‘våbenkapløb i autonome våbensystemer’. Herhjemme følger forskere også udviklingen med bekymrede miner, for robotterne befinder sig i en voksende juridisk gråzone i forhold til den humanitære folkeret, der regulerer, hvad man må – og ikke må – i krig.

For hvornår handler et system så meget på egen hånd, at det kan betegnes som autonomt? Det er det centrale juridiske spørgsmål, mener ph.d.-stipendiat ved Juridisk Institut på Aarhus Universitet Iben Yde, hvis afhandling netop omhandler legaliteten af autonome våben­systemer.

»Hvor høj grad af ‘selvbestemmelse’ skal der være, før de falder i denne her kategori af problematiske våben? Jeg har siddet tre år med min afhandling nu, og jeg er ikke i stand til at sætte det skel,« siger hun.

Lockheed Martins LRASM-missil.

I dag er de intelligente våben­systemer allerede vidt udbredt – de kommer især fra amerikanske producenter, men også Storbritannien, Norge og Israel har systemerne eller er i fuld gang med udviklingen. Lockheed Martin har udviklet anti-skibsmissilet LRASM, der af Human Rights Watch og medlemmer af den internationale komité for robotvåben (ICRAC) betegnes som en forløber for fuldt automatiserede våben.

LRASM udvælger selv sit mål og beregner sin egen rute uden om antiluftskyts. US Navy har også søsat hurtigtgående, selvstyrende speedbåde, der ved brug af software-arkitekturen CARACaS (Control Architecture for Robotic Agent Command and Sensing) kan koordinere deres bevægelser, omringe og på sigt tilintetgøre flådefartøjer, der kommer for tæt på krigsskibe.

Det israelske antiradar-våben Harpy.

Israel står bag antiradar-våbnet Harpy. Harpy er en to meter lang drone, der bliver affyret fra et militært køretøj og følger en forprogrammeret rute, mens den scanner jorden under sig for fjendtlige radarsystemer – parat til at angribe.

Fra det øjeblik, Harpy er sendt af sted, er den ikke under menneskelig kontrol. Hvis en radar på jorden bliver aktiveret, opfanger dronen signalet og forsøger at matche signalet med en database med godkendte mål. Er der match, styrtdykker dronen og indleder sit kamikaze­angreb.

Men spørgsmålet for jurister – især i USA, hvor man bryster sig af, at ethvert angreb er funderet i en klar juridisk formulering – er, om et fuldgyldigt autonomt våbensystem kan operere lovligt under gældende international ret.

For som professor i menneskerettigheder og FN’s særlige rapportør Christof Heyns slog fast i maj sidste år, risikerer vi at ‘ende på den forkerte side af grænsen, og til den tid er det meget svært at vende tilbage. Hvis der nogensinde er et oplagt tidspunkt at regulere og stoppe disse våben på, er det nu’, som han sagde under et FN-møde i Genève.

Det er dog ikke utænkeligt, at et fuldstændigt autonomt våben­system kan operere lovligt under gældende international ret, mener Iben Yde. Hun påpeger dog, at teknologien endnu ikke er tilstrækkelig til at foretage de nødvendige nuancerede menneskelignende skøn.

Men hvis et våbensystem i fremtiden selv selv skal stå for måludpegning og beslutninger om angreb, skal det kunne opretholde to helt grundlæggende principper for at leve op til kravene for militære angreb under den humanitære folkeret, forklarer hun.

På trods af slagmarkens brutale virkelighed foreskriver krigens regler nemlig, at militære handlinger i mindst muligt omfang skal gå ud over civile, uanset hvem eller hvad der trykker på aftrækkeren, og det reguleres i henholdsvis ‘distink­tionsprincippet’ og ‘proportionalitetsprincippet’.

Hvis autonome våbensystemer kan handle i overenstemmelse med de to bærende principper, er våbensystemerne også lovlige at bruge i krig, lyder Iben Ydes vurdering.

Civile må ikke være direkte mål for et militært angreb, og distinktionsprincippet foreskriver derfor, at et automatiseret våben skal være i stand til at skelne militære mål fra civile, inden det angriber.

»Men det kræver en ‘situationsfornemmelse’, der omtrent er på højde med menneskers, og der har vi endnu lang vej, før vi når det teknologiske niveau med kunstig intelligens,« siger Iben Yde.

For det andet skal systemerne også kunne tage stilling til den mere moralsk flydende problemstilling, der ligger i at overholde proportionalitetsprincippet, hvor uønskede civile tab skal holdes op mod angrebets strategiske fordel.

Men selv om civile ikke må være direkte mål, åbner folkeretten for en accept af civile dødsfald. De skal bare være proportionelle med den militære strategiske fordel ved at angribe.

»Den afvejning er også vanskelig for mennesker, der jo heller ikke har en fast standard for, hvad der er rigtigt at gøre i sådan en situation,« siger Iben Yde.

I dag findes der ingen regulering eller juridisk definition af autonome våbensystemer under de internationale love. Begrebet autonomi kan nemlig defineres så snævert, at udfaldet af systemets egne beslutninger nærmest er forudsigeligt.

Flere eksisterende amerikanske droner kan allerede indstilles til at operere autonomt, men på grund af våbenproducenternes hemmelighedskræmmeri står det ikke klart, om dronerne eksempelvis er i stand til selv at udpege mål og tage beslutning om angreb.

Men hvis dronerne besidder disse egenskaber, vurderer Iben Yde, at det under ekstremt skærpede omstændigheder ville være lovligt at give dronen ret til selv at angribe på egen hånd.

Hun forklarer, at en lang række forbehold ville gøre sig gældende, såsom at dronen udelukkende må gå efter materielle mål i afsides områder, hvor der ingen risiko er for at ramme civile mål.

Stram programmering

Antiluftskyts-systemet Phalanx.

Som eksempel på et delvist selv­bestemmende våbensystem nævner Iben Yde antiluftskyts-systemet Phalanx, som sidder på stort set alle britiske og amerikanske krigsskibe. Systemet kan sættes op til selv at detektere, spore og angribe indkommende missiler uden menneskelig indblanding.

Systemet forsøger bl.a. at tage radiokontakt for at sikre, at det ikke er et civilt fly, det er ved at skyde ned, og tager en lang række andre forbehold, inden det angriber.

»Et menneske kunne aldrig nå at foretage så mange vurderinger på så kort tid, så jeg mener ikke, det er det, vi skal forbyde,« siger Iben Yde, der som jurist ser en fremtid, hvor robotterne bliver stramt programmeret og holdt i kort snor.

Det samme billede i krystalkuglen ser Thomas Bolander, der forsker i kunstig intelligens ved DTU.

»Som teknologien er i dag, skal du instruere robotten i alle de regler, den skal efterleve, men du skal også programmere samtlige undtagelser, som i kampens hede ofte beror på et subjektivt skøn. Fjendens uniform er måske det, som for robotten definerer, hvad der må skydes på, og hvad der ikke må, men hvis et barn var klædt i fjendens uniform, ville et menneske måske ikke skyde, mens robotten i den situation ikke ville gøre forskel,« siger Thomas Bolander og fortsætter:

»Det kan man selvfølgelig tage forbehold for, men hvem kan garantere, at det program, man begynder at skrive, tager højde for samtlige ting? Ved den ene yderlighed kan det betyde, at robotter udgør en stor risiko i forhold til at begå frygtelige fejl, eller også bliver de så forsigtige, at man kan diskutere, hvor interessante de så er at benytte,« siger han.

Han slår fast, at der endnu er meget lang vej, før det bliver muligt at skabe fuldgyldige autonome systemer, der kan bruges i komplekse situationer, som krig ofte er, så dræberrobotterne invaderer ikke slagmarken lige foreløbigt.

»Dybest set forstår vi ikke, hvordan vi skal lave menneskelignende intelligens på en computer. Det er ikke engang sådan, at man kan sige, at vi er godt på vej, for det er en nød, vi simpelthen ikke har knækket endnu,« siger Thomas Bolander.

Er dræberrobotter sikre?

Luft-til-jord-missilet Brimstone opererer autonomt, når først det er affyret.

I FN har man diskuteret lovligheden af dødbringende autonome våbensystemer de seneste to år, men er endnu ikke nået frem til, om de autonome droner skal på listen over våben, der er forbudte at anvende i krig.

FN afholdt i maj et ekspertmøde om emnet og inviterede blandt andre Paul Scharre, der leder et mangeårigt forskningsprojekt, som skal kortlægge fremtidens krigsførsel for den uafhængige organisation Center for a New American Security.

Han arbejder på at finde ud af, hvilken rolle autonome robotter kommer til at spille i fremtidens krig, og mener, at vi i øjeblikket står midt i en revolution inden for robotik – både civil og militær – og det kræver, at vi som verdenssamfund forholder os til perspektiverne i den nye teknologi.

»Mange vil hævde, at der ikke findes dødbringende autonome våbensystemer. Det er ikke sandt, når man ser isoleret på funktionaliteten ‘beslutning om udvælgelse af mål’. De er ikke i brug mange steder, men der er et lille antal systemer i brug i dag, som udfører denne funktion,« fortalte Poul Scharre til de officielle repræsentanter fra mere end 25 lande og nævnte blandt andet Harpy-systemet som eksempel.

Under den kolde krig, forklarede han, var der automatiske detektions­systemer på begge sider, der ved flere lejligheder fejlagtigt troede, at et atomangreb var undervejs. Dengang var det indgreb fra mennesker i beslutningskæden, der sikrede, at en global atomkrig ikke blev udløst.

»Der er et presserende behov for, at verdens nationer tænker over, hvordan man garanterer, at autonome våben er sikre og bruges på en sikker måde. Det er et ansvar, der påhviler enhver stat, at garantere sin egen sikkerhed, men utilsigtet krig kan ikke komme nogen til gode,« sagde Paul Scharre.

Set fra den modsatte pol har selvbestemmende robotter også interessante perspektiver i forhold til at gøre slagmarken mere human. Robotter handler aldrig på følelser og instinkter, og fortalere vil mene, at de kyniske robotter ikke vil være i stand til at begå krigsforbrydelser.

»Den humanitære folkeret har primært til formål at beskytte ofre for krig – og her menes primært civile, der kan blive fanget i krydsilden. Hvis man kan lave autonome våbensystemer, som kan yde en bedre beskyttelse, så kan man argumentere for, at vi er moralsk og politisk forpligtede til at videreudvikle denne slags systemer, ville jeg mene,« siger Iben Yde.

Kommentarer (19)

... når man ikke risikerer nogen af sine soldaters liv?

Herunder et uddrag af artiklen "Robotter har ingen mødre" som jeg skrev i Berlingske for nogle år siden.

http://m.b.dk/?redirect=www.b.dk/kultur/ro...;

Der er også et andet incitament til at få robotterne ud på slagmarken nemlig det faktum, at befolkningens modstand mod krigen vokser, når først ligposer og flagtildækkede kister begynder at komme hjem i en lind strøm. Et tydeligt eksempel er Cindy Sheehan også kaldt »Peace Mom«. Hun mistede sin søn i Irak og har i sin sorg flere gange samlet hundredtusindvis af demonstranter for at få de amerikansker styrker ud af Irak. Så hvis robotterne kunne bringe færre tab i egne rækker ville lederne formentlige også lettere få befolkningen til at sluge krigspillen. "

  • 9
  • 0

I dag findes der ingen regulering eller juridisk definition af autonome våbensystemer under de internationale love. Begrebet autonomi kan nemlig defineres så snævert, at udfaldet af systemets egne beslutninger nærmest er forudsigeligt.

Det er noget ævl. En riffelkugle er også "autonom" i det øjeblik den forlader løbet. Den kan ikke kaldes tilbage. Det juridiske og moralske ansvar ligger alene hos den der har kontrol over aftrækkeren eller joysticket. Om rækkevidden måles i hundrede meter eller tusinde kilometer er uvæsentligt.

Det er altså alvorligt at slå ihjel uanset hvilken metode man vælger. Og man står til ansvar.

  • 20
  • 1