Autonome droner giver krigens regler kamp til stregen
more_vert
close
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Autonome droner giver krigens regler kamp til stregen

Menneskets synlige tilstedeværelse på slagmarken er ikke det eneste, som er ved at forsvinde i takt med fremmarchen af droner. Eksperter verden over advarer også om, at nye våbensystemer gør, at menneskelige beslutninger i disse år bliver overtaget af software.

I FN opfordrer den særlige rapportør på området, Christof Heyns, til et stop for udvikling af de intelligente våbensystemer, og amerikanske militæranalytikere udtrykker i medierne bekymring over, hvad de kalder et ‘våbenkapløb i autonome våbensystemer’. Herhjemme følger forskere også udviklingen med bekymrede miner, for robotterne befinder sig i en voksende juridisk gråzone i forhold til den humanitære folkeret, der regulerer, hvad man må – og ikke må – i krig.

For hvornår handler et system så meget på egen hånd, at det kan betegnes som autonomt? Det er det centrale juridiske spørgsmål, mener ph.d.-stipendiat ved Juridisk Institut på Aarhus Universitet Iben Yde, hvis afhandling netop omhandler legaliteten af autonome våben­systemer.

»Hvor høj grad af ‘selvbestemmelse’ skal der være, før de falder i denne her kategori af problematiske våben? Jeg har siddet tre år med min afhandling nu, og jeg er ikke i stand til at sætte det skel,« siger hun.

I dag er de intelligente våben­systemer allerede vidt udbredt – de kommer især fra amerikanske producenter, men også Storbritannien, Norge og Israel har systemerne eller er i fuld gang med udviklingen. Lockheed Martin har udviklet anti-skibsmissilet LRASM, der af Human Rights Watch og medlemmer af den internationale komité for robotvåben (ICRAC) betegnes som en forløber for fuldt automatiserede våben.

LRASM udvælger selv sit mål og beregner sin egen rute uden om antiluftskyts. US Navy har også søsat hurtigtgående, selvstyrende speedbåde, der ved brug af software-arkitekturen CARACaS (Control Architecture for Robotic Agent Command and Sensing) kan koordinere deres bevægelser, omringe og på sigt tilintetgøre flådefartøjer, der kommer for tæt på krigsskibe.

Israel står bag antiradar-våbnet Harpy. Harpy er en to meter lang drone, der bliver affyret fra et militært køretøj og følger en forprogrammeret rute, mens den scanner jorden under sig for fjendtlige radarsystemer – parat til at angribe.

Fra det øjeblik, Harpy er sendt af sted, er den ikke under menneskelig kontrol. Hvis en radar på jorden bliver aktiveret, opfanger dronen signalet og forsøger at matche signalet med en database med godkendte mål. Er der match, styrtdykker dronen og indleder sit kamikaze­angreb.

Men spørgsmålet for jurister – især i USA, hvor man bryster sig af, at ethvert angreb er funderet i en klar juridisk formulering – er, om et fuldgyldigt autonomt våbensystem kan operere lovligt under gældende international ret.

For som professor i menneskerettigheder og FN’s særlige rapportør Christof Heyns slog fast i maj sidste år, risikerer vi at ‘ende på den forkerte side af grænsen, og til den tid er det meget svært at vende tilbage. Hvis der nogensinde er et oplagt tidspunkt at regulere og stoppe disse våben på, er det nu’, som han sagde under et FN-møde i Genève.

Det er dog ikke utænkeligt, at et fuldstændigt autonomt våben­system kan operere lovligt under gældende international ret, mener Iben Yde. Hun påpeger dog, at teknologien endnu ikke er tilstrækkelig til at foretage de nødvendige nuancerede menneskelignende skøn.

Men hvis et våbensystem i fremtiden selv selv skal stå for måludpegning og beslutninger om angreb, skal det kunne opretholde to helt grundlæggende principper for at leve op til kravene for militære angreb under den humanitære folkeret, forklarer hun.

På trods af slagmarkens brutale virkelighed foreskriver krigens regler nemlig, at militære handlinger i mindst muligt omfang skal gå ud over civile, uanset hvem eller hvad der trykker på aftrækkeren, og det reguleres i henholdsvis ‘distink­tionsprincippet’ og ‘proportionalitetsprincippet’.

Hvis autonome våbensystemer kan handle i overenstemmelse med de to bærende principper, er våbensystemerne også lovlige at bruge i krig, lyder Iben Ydes vurdering.

Civile må ikke være direkte mål for et militært angreb, og distinktionsprincippet foreskriver derfor, at et automatiseret våben skal være i stand til at skelne militære mål fra civile, inden det angriber.

»Men det kræver en ‘situationsfornemmelse’, der omtrent er på højde med menneskers, og der har vi endnu lang vej, før vi når det teknologiske niveau med kunstig intelligens,« siger Iben Yde.

For det andet skal systemerne også kunne tage stilling til den mere moralsk flydende problemstilling, der ligger i at overholde proportionalitetsprincippet, hvor uønskede civile tab skal holdes op mod angrebets strategiske fordel.

Men selv om civile ikke må være direkte mål, åbner folkeretten for en accept af civile dødsfald. De skal bare være proportionelle med den militære strategiske fordel ved at angribe.

»Den afvejning er også vanskelig for mennesker, der jo heller ikke har en fast standard for, hvad der er rigtigt at gøre i sådan en situation,« siger Iben Yde.

I dag findes der ingen regulering eller juridisk definition af autonome våbensystemer under de internationale love. Begrebet autonomi kan nemlig defineres så snævert, at udfaldet af systemets egne beslutninger nærmest er forudsigeligt.

Flere eksisterende amerikanske droner kan allerede indstilles til at operere autonomt, men på grund af våbenproducenternes hemmelighedskræmmeri står det ikke klart, om dronerne eksempelvis er i stand til selv at udpege mål og tage beslutning om angreb.

Men hvis dronerne besidder disse egenskaber, vurderer Iben Yde, at det under ekstremt skærpede omstændigheder ville være lovligt at give dronen ret til selv at angribe på egen hånd.

Hun forklarer, at en lang række forbehold ville gøre sig gældende, såsom at dronen udelukkende må gå efter materielle mål i afsides områder, hvor der ingen risiko er for at ramme civile mål.

Stram programmering

Som eksempel på et delvist selv­bestemmende våbensystem nævner Iben Yde antiluftskyts-systemet Phalanx, som sidder på stort set alle britiske og amerikanske krigsskibe. Systemet kan sættes op til selv at detektere, spore og angribe indkommende missiler uden menneskelig indblanding.

Systemet forsøger bl.a. at tage radiokontakt for at sikre, at det ikke er et civilt fly, det er ved at skyde ned, og tager en lang række andre forbehold, inden det angriber.

»Et menneske kunne aldrig nå at foretage så mange vurderinger på så kort tid, så jeg mener ikke, det er det, vi skal forbyde,« siger Iben Yde, der som jurist ser en fremtid, hvor robotterne bliver stramt programmeret og holdt i kort snor.

Det samme billede i krystalkuglen ser Thomas Bolander, der forsker i kunstig intelligens ved DTU.

»Som teknologien er i dag, skal du instruere robotten i alle de regler, den skal efterleve, men du skal også programmere samtlige undtagelser, som i kampens hede ofte beror på et subjektivt skøn. Fjendens uniform er måske det, som for robotten definerer, hvad der må skydes på, og hvad der ikke må, men hvis et barn var klædt i fjendens uniform, ville et menneske måske ikke skyde, mens robotten i den situation ikke ville gøre forskel,« siger Thomas Bolander og fortsætter:

»Det kan man selvfølgelig tage forbehold for, men hvem kan garantere, at det program, man begynder at skrive, tager højde for samtlige ting? Ved den ene yderlighed kan det betyde, at robotter udgør en stor risiko i forhold til at begå frygtelige fejl, eller også bliver de så forsigtige, at man kan diskutere, hvor interessante de så er at benytte,« siger han.

Han slår fast, at der endnu er meget lang vej, før det bliver muligt at skabe fuldgyldige autonome systemer, der kan bruges i komplekse situationer, som krig ofte er, så dræberrobotterne invaderer ikke slagmarken lige foreløbigt.

»Dybest set forstår vi ikke, hvordan vi skal lave menneskelignende intelligens på en computer. Det er ikke engang sådan, at man kan sige, at vi er godt på vej, for det er en nød, vi simpelthen ikke har knækket endnu,« siger Thomas Bolander.

Er dræberrobotter sikre?

I FN har man diskuteret lovligheden af dødbringende autonome våbensystemer de seneste to år, men er endnu ikke nået frem til, om de autonome droner skal på listen over våben, der er forbudte at anvende i krig.

FN afholdt i maj et ekspertmøde om emnet og inviterede blandt andre Paul Scharre, der leder et mangeårigt forskningsprojekt, som skal kortlægge fremtidens krigsførsel for den uafhængige organisation Center for a New American Security.

Han arbejder på at finde ud af, hvilken rolle autonome robotter kommer til at spille i fremtidens krig, og mener, at vi i øjeblikket står midt i en revolution inden for robotik – både civil og militær – og det kræver, at vi som verdenssamfund forholder os til perspektiverne i den nye teknologi.

»Mange vil hævde, at der ikke findes dødbringende autonome våbensystemer. Det er ikke sandt, når man ser isoleret på funktionaliteten ‘beslutning om udvælgelse af mål’. De er ikke i brug mange steder, men der er et lille antal systemer i brug i dag, som udfører denne funktion,« fortalte Poul Scharre til de officielle repræsentanter fra mere end 25 lande og nævnte blandt andet Harpy-systemet som eksempel.

Under den kolde krig, forklarede han, var der automatiske detektions­systemer på begge sider, der ved flere lejligheder fejlagtigt troede, at et atomangreb var undervejs. Dengang var det indgreb fra mennesker i beslutningskæden, der sikrede, at en global atomkrig ikke blev udløst.

»Der er et presserende behov for, at verdens nationer tænker over, hvordan man garanterer, at autonome våben er sikre og bruges på en sikker måde. Det er et ansvar, der påhviler enhver stat, at garantere sin egen sikkerhed, men utilsigtet krig kan ikke komme nogen til gode,« sagde Paul Scharre.

Set fra den modsatte pol har selvbestemmende robotter også interessante perspektiver i forhold til at gøre slagmarken mere human. Robotter handler aldrig på følelser og instinkter, og fortalere vil mene, at de kyniske robotter ikke vil være i stand til at begå krigsforbrydelser.

»Den humanitære folkeret har primært til formål at beskytte ofre for krig – og her menes primært civile, der kan blive fanget i krydsilden. Hvis man kan lave autonome våbensystemer, som kan yde en bedre beskyttelse, så kan man argumentere for, at vi er moralsk og politisk forpligtede til at videreudvikle denne slags systemer, ville jeg mene,« siger Iben Yde.

... når man ikke risikerer nogen af sine soldaters liv?

Herunder et uddrag af artiklen "Robotter har ingen mødre" som jeg skrev i Berlingske for nogle år siden.

http://m.b.dk/?redirect=www.b.dk/kultur/ro...;

Der er også et andet incitament til at få robotterne ud på slagmarken nemlig det faktum, at befolkningens modstand mod krigen vokser, når først ligposer og flagtildækkede kister begynder at komme hjem i en lind strøm. Et tydeligt eksempel er Cindy Sheehan også kaldt »Peace Mom«. Hun mistede sin søn i Irak og har i sin sorg flere gange samlet hundredtusindvis af demonstranter for at få de amerikansker styrker ud af Irak. Så hvis robotterne kunne bringe færre tab i egne rækker ville lederne formentlige også lettere få befolkningen til at sluge krigspillen. "

  • 9
  • 0

I dag findes der ingen regulering eller juridisk definition af autonome våbensystemer under de internationale love. Begrebet autonomi kan nemlig defineres så snævert, at udfaldet af systemets egne beslutninger nærmest er forudsigeligt.

Det er noget ævl. En riffelkugle er også "autonom" i det øjeblik den forlader løbet. Den kan ikke kaldes tilbage. Det juridiske og moralske ansvar ligger alene hos den der har kontrol over aftrækkeren eller joysticket. Om rækkevidden måles i hundrede meter eller tusinde kilometer er uvæsentligt.

Det er altså alvorligt at slå ihjel uanset hvilken metode man vælger. Og man står til ansvar.

  • 20
  • 1

Det er noget ævl. En riffelkugle er også "autonom" i det øjeblik den forlader løbet. Den kan ikke kaldes tilbage. Det juridiske og moralske ansvar ligger alene hos den der har kontrol over aftrækkeren eller joysticket.

Grundlæggende set er jeg enig.

Men soldaten kan nemmere overskue konsekvensen af at affyre et riffelskud end at 'enable' et autonomt forsvars/angrebs-system.

Derfor er producenten af systemet, den godkendende myndighed og den institution, der har uddannet soldaten medansvarlig.

  • 1
  • 1

En robot bliver ikke påvirket af omkringværende pres og pyskisk nedbrud/forandring over en lang udsendelse, og jeg tænker derfor, at de i mange tilfælde vil træffe de optimale valg (Med den rette programmering). Det lyder i artiklen som om, at sammenligningsgrundlaget er de perfekte soldater der sidder i flyene og går rundt på jorden, men det er disse langt fra. Mange valg bliver truffet udfra refleks og følelser, og jeg vil langt hen ad vejen tænke, at en robot vil være bedre til kun at bruge den objektive nødvendige magt, hvor soldater altid bruger den subjektive magt de finder nødvendig.
Der er selvfølgelig en masse træning der spiller ind også - Men her lærer man netop også at anvende så meget magt som muligt. Hvilket som helst angreb svares tilbage med fuld magt (Af håndbående våben), fordi man ikke tager nogen chancer med ens egne soldaters liv, det kan man med en robot, som man kan lade se tingene lidt an.

Er det ikke meget li samme problemstilling som er med de autonome biler?

  • 2
  • 1

Det personlige ansvar er ubetinget.

Det er jeg enig i.

Men med så meget mere komplekse våbensystemer end sabel og riffel, må ansvaret også pålægges bagud til den militære enhed, myndighed og våbenproducent.

Den enkelte soldat kan godt forventes at være ansvarlig for et riffelskud - det er ikke våbenproducentens ansvar. Men hvad softwaren i et autonomt våbensystem kan 'finde på', når soldaten 'enabler' det, er altså ikke alene soldatens ansvar. Det ER også et systemansvar.

Og referencen til autonome biler i trafikken er absolut også relevant.

  • 9
  • 0

det kommer vist til at tage mange mange år før robotter bliver så intelligente og handlingsmæssigt avancerede, at de kan erstatte menneskelig overvejelser.

Det er klart, at hvis en robot baserer et angreb på en menneskeskabt "negativliste" der ligger i hukommelsen, så er ansvaret klart placeret på et eller flere mennesker. Det forekommer dog at være hensigtsmæssigt, med en "exit mulighed" hvis nu f.eks. et emne på liste i sidste øjeblik er kommet af positivlisten.

Pointen med riffelskud og WWII bombardementer er iøvrigt virkelig god.

  • 1
  • 1

netop.

En skole kan jo også være skole man - fre kl. 8 - 15 og (mis-)bruges til skumle formål på andre tider af døgnet og ugen. Den der "negativliste" skal altså opdateres ret ofte eller være uhyre detaljeret (tæt på utopi).

  • 1
  • 2

...skulle vi hellere komme igang med at udvikle systemer der ER mere ufejlbarlige end mennesker. Så vil I se avisoverskrifter à la: Beslutning om at skyde overladt til mennesker - to civile dræbt.

Autonome systemer vil analysere i flere spektre samtidig, kunne lave lynhurtig mønstergenkendelse, genkende en bestemt person udfra måden han går på. Og de vil kunne samarbejde lynhurtigt om at intensivere dataindsamlingen, indtil de er 99,9999 % sikre.

  • 2
  • 1

Indførelse af autonome våbensystemer er ikke anderledes end al mulig anden automatisering:

Der vil ske fejl - det gør der altid - og automatiske systemer vil altid lave fejl som intet menneske nogensinde ville gøre.
Til gengæld vil mennesker lave fejl som intet automatisk system ville gøre. Og de vil lave ti gange så mange, hvis ikke flere.

Det giver det problem hos befolkningen, at det selvfølgelig vil være de 'dumme' fejl hos automatikken der bliver skrevet om i aviserne. Hvor grædende mødre og andre pårørende vil udbrede sig om at dette eller hint AL-drig ville være sket uden de forbandede maskiner!

Som med al teknologi vil der være en periode hvor der er oprørte vande i nogle år, indtil man begynder at kunne kigge tilbage og sige sådan noget som: "Ja, dengang gjorde vi jo sådan-og-sådan, og det var jo egentlig komplet vanvittigt! I dag har vi jo <teknologi> og siden er antallet af <menneskeskabt ulykke> jo faldet 99%".

Sådan var det med bilen og flyvemaskinen og industrialiseringen generelt, og nu har vi den med selvkørende biler og autonome våbensystemer.

Forhåbentlig vil vi en dag komme til et punkt hvor krig ikke længere eksisterer.
En dag hvor mennesket hovedrystende kigger tilbage på den tid hvor vi slog hinanden ihjel på grund af religiøs overbevisning, ideologi eller uretfærdig fordeling af ressourcerne.
En dag med fred i hele verden.
Og forhåbentlig ikke den slags fred der hersker mellem pigtråd og glemte grave.

  • 3
  • 0

En landmine er også er kynisk autonomt våben som er forudprogrammeret til at dræbe.
Dem har vi så forbudt, men jeg tror ikke at nogen er interesserede i at forbyde dræber robotter fordi de har mange fordele for besidderen.

Når først en konflikt er brudt ud, så vil disse våben på linier med masser af andre våben kunne lave enorme ødelæggelser. Det bedste er derfor at konflikterne ikke bryder ud. Den bedste anvendelse af et våben, er til at gøre konsekvensen ved en konflikt så alvorligt at en forhandlingsløsning er at foretrække. Der er en grund til at Colt 45 blev kaldt for Peacemaker.

Selvom fredsbevægelsen råbte og skreg om hvor forfærdelige atomvåben var, så er der nok ingen tvivl om at de er skyld i at den kolde krig aldrig blev til en åben konflikt på slagmarken. I en verden med ligeværdige parter holder den også.

Hvad så når den ene part er klart militært overlegen? Eller den ene part er komplet ligeglad med konsekvenserne?

Automatiserede droner eller ej, USA har benyttet sin militære overlegenhed til at kaste sig ud i flere krige, hvis nytte jeg ikke vil diskutere her. I stedet for at diskutere droner, kunne man også blot kigge på BNP, når man ser på om der udbryder en åben væbnet konflikt eller ej. Det eneste som vi kan trøste os med på den front, er at USA's økonomiske overlegenhed skyldes et retssamfund med en fri økonomi.

Dronerne kommer derfor af en økonomisk overlegenhed, og det er også det som skal til for at lave autonome våbensystemer som overholder krigens love. Ligesom atomvåben (tilladt) har en fattigmandsversion i form af krigsgas(forbudt) så vil der dog ske det samme med de autonome våbensystemer. For at matche USA's overlegenhed vil flere lande sikkert udvikle systemer som ser stort på krigens love, men bare dræber løs. Skal de så forbydes på den konto?

Så er der de som er ligeglade med konsekvenserne, aka terrorister. Det er i bund og grund dem som er årsag til at der er lagt så mange dollars i udviklingen af disse våbensystemer. Når der er parter som er ligeglade med menneskeliv, så er det jo praktisk at man kan bekæmpe dem uden at sætte egne liv på spil. Det gør dog næppe at våbensystemerne kommer til at forhindre krig.

Terrorisme er en hel ny game changer på det her felt. Den åbne krig mellem to stater bliver mere og mere en sjældenhed. I stedet er konflikten mellem staten og egne borgere, i nogle tilfælde med indgreb udefra på enten borgernes eller statens side. Her kommer de automatiserede våbensystemer ind til statens fordel, da det er den som har ressourcerne til at udvikle og anskaffe disse våben i stor stil.

Det er så godt hvis det er en fri og demokratisk stat, men skidt hvis det er en diktaturstat. Dog så er vi ved at komme væk fra krigens regler, og over til noget mere generelt med menneskerettigheder.

  • 0
  • 3

... så længe det ikke er Cyberdyne, der skal bygge autonome våbensystemer, så er alt jo godt.

  • 0
  • 0

Det objektive ansvar er vanskeligt.
Når man taler omkring autonome systemer er det endnu mere komplekst,er det indhentnings delen eller targeting delen af softwaren der bestemmer hvad der skal angribes, og hvilken sensor bestemmer om et mål er validt?
Det er forskellige firmaer der udvikler undersystemerne og andre der programmere.
Med autonome systemer er vi tilbage til at det er den øverst kommanderende der har det fulde ansvar og alle andre fulgte ordre.
Hvad hvis softwaren bliver hacket, hvem har så ansvaret? Den IT ansvarlige eller den sikkerheds ansvarlige?

  • 0
  • 0

"Herhjemme følger forskere også udviklingen med bekymrede miner"
Skulle man ikke hellere følge udviklingen med ubekymrede våbenstemer. Hvad med eventuelle pjattede missiler? De må da være farligere. Men jeg er selvfølgelig ikke våbenforsker.

  • 1
  • 1

Med autonome systemer er vi tilbage til at det er den øverst kommanderende der har det fulde ansvar og alle andre fulgte ordre.

Det er ikke korrekt. Man slipper ikke af sted med "at have fulgt ordre". Man har et personligt ansvar. Bare fordi en gal general siger "skyd" må/skal man ikke skyde. Først skal man overholde Geneve-konventionen, og dernæst gør man klogt i at vurdere ens odds i krigsforbryderdomstolen i Haag. De ser ikke med milde øjne på argumentet "jamen, jeg gjorde bare som jeg fik besked på".

Geneve-konventionen trænger ganske vist til en opdatering, da den svjv kun omhandler legitime kombattanter, og den type konflikter er ikke hyppige nu om dage. Fx kører der umærkede ex-sovjet tanks rundt i østukraine. De er illegitime.

  • 3
  • 0

Det er både rigtigt og forkert!!!
Når vi taler autonome våbensystemer er der ingen der er ansvarlig!!
Er det mekanikeren der starter systemet,efteretnings manden der uploader databasen,analytikeren der laver databasen, programøren der udvikler softwaren, Armament manden der lader systemet, fabrikanten der sælger systemet, arbejderen der bygger systemet ?
Hvem er ansvarlig med et autonomt system?
Jeg vil mene at det er den øverste ledelse, her hjemme statsministeren, i USA og Rusland præsidenten der har ansvaret.
Det er en politisk beslutning at indkøbe og opererer disse autonome systemer, ikke et militært.
Det må ikke være en militær beslutning at indsætte et autonomt system, det er nød til at være en politisk beslutning, på højde med at indsætte A,B og C våben.

  • 1
  • 0