Har de selvstyrende kamprobotter allerede vundet krigen?
I luftrummet over et amerikansk militært testområde, der ligner en mellemøstlig by, svæver en lille drone kaldet Bendner, imens den regner på, hvilke personer nær en moske den skal sende hjem til deres skaber.
Dronen med seks svirrende rotorer er en billig, nærmest kedelig en af slagsen. Ja, altså, hvis vi ser bort fra dronens software. Den består af det amerikanske militærs mest avancerede kunstige intelligens, som skal gøre dronen i stand til på egen hånd at opsøge, identificere og eliminere fjendtlige enheder.
Da Pentagons hemmelighedsfulde udviklingsenhed Darpa sidste sommer demonstrerede en ubevæbnet udgave af den autonome drone, havde Bendner sommetider svært ved at skelne mellem tårnet på moskeen og en bevæbnet mand. Andre gange udpegede dronen ifølge Darpa resolut de rigtige mål.
Et andet sted på kloden, ved en storstilet russisk militærmesse sidste år, erklærede våbenproducenten Kalashnikov, at firmaets kunder inden for den nærmeste fremtid kan købe en særlig serie af landbaserede kamprobotter. Med firmaets legendariske 69 år gamle stormgeværsteknik i hånden og på baggrund af neurale netværk er robotterne i stand til egenhændigt at identificere mål, træffe beslutninger og trykke på aftrækkeren, lover Kalashnikov.
Aegis Combat System SGR-A1 Sea HunterTre eksempler på autonome våben
Kampsystemet Aegis, som udgør it-rygraden i Natos ballistiske missilforsvar, kan selv identificere og nedskyde fjendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx-nærforsvarssystem med maskinkanon, kan det også nedskyde fjendtlige fly. Den menneskelige operatør kan som udgangspunkt underkende systemets beslutning om at angribe, men Aegis kan også fungere i casualty mode, hvor det antager, at operatøren er forhindret i at betjene systemet, og derfor selv træffer beslutning om at skyde.
Sydkoreanske Samsungs intelligente vagttårn SGR-A1 bevogter i dag den demilitariserede zone mellem Nord- og Sydkorea. SGR-A1 kan selv identificere mål inden for 3,2 kilometer og kan enten reagere med en høj alarm, ikkedræbende gummikugler, et 5.56 x 45 maskingevær eller en granatkaster. Et lignende system i form af det israelske SentryTech er placeret langs grænsen til Gazastriben.
Sea Hunter fra Pentagons udviklingsenhed Darpa er udviklet til autonom ubådsjagt og elektronisk krigsførelse. Det ubemandede skib scanner havet under sig, og finder den et mål, kan den selv udpege fjendens mest sårbare punkter og indlede et angreb. Dog kan den ikke foretage angreb uden grønt lys fra et menneske. Sea Hunter har netop afsluttet et toårigt testforløb og er principielt klar til operativ tjeneste.
Den tredje krigsrevolution
Dette er blot to eksempler på noget af det nyeste militære isenkram, som offentligheden har fået indblik i. To eksempler, som måske ikke fremstår særligt frygtindgydende sammenlignet med moderne ballistiske missiler og højenergilasere.
Men når de to eksempler fra USA og Rusland skiller sig ud, hænger det heller ikke sammen med, hvad der rent faktisk bliver affyret. Det handler om, hvem der bestemmer, hvornår der skal trykkes på aftrækkeren.
I begge tilfælde er den beslutning udlagt til en kunstig intelligens (AI): et softwareprogram, som efterligner et eller flere aspekter af den menneskelige intelligens såsom analyse, logik eller udvikling på baggrund af fejl.
Læs også: Kamprobotterne kommer
Kunstig intelligens er i dag så veludviklet, at AI-eksperterne over en bred kam mener, at vi nu befinder os i begyndelsen af den tredje revolution inden for krigsførelse: Først kom krudtet, dernæst atombomben og nu et system, der midt i krigens tåge formår at tænke og reagere mangefold hurtigere end menneskehjernen.
Første officielle møder i FN
Inden for de seneste to uger har flere forskere og programmører plæderet for aldrig at gøre krigsrobotter komplet autonome. Eller endnu bedre, at vi helt sætter udviklingen af krigsteknologi med AI på pause.
Blandt de bekymrede fagfolk er professor Toby Walsh fra New South Wales University, en af verdens mest fremtrædende AI-forskere og talsmand for 50 førende AI-forskere bag en boykot af det prominente sydkoreanske universitet KAIST.
Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter
Universitetet har indgået et samarbejde om AI med en sydkoreansk våbenproducent, der fremstiller klyngebomber, som FN’s krigskonvention ellers har bandlyst brugen af.
»Vi bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere fordrede en helt hær. Krig bliver opskaleret i et hidtil uset omfang,« siger Toby Walsh til Ingeniøren.
Han befinder sig i Genève, hvor FN i denne uge for første gang har indkaldt medlemslandene til officielle diskussioner, der kan afgøre de autonome våbens fremtid.
Få dage efter forskerboykotten af KAIST blev et protestbrev fra 3.100 Google-ansatte lækket. De ansatte bønfalder it- mastodontens øverste chef, Sundar Pichai, om at skrotte projekt Maven: et samarbejde med Pentagon om at benytte Googles AI-mønstergenkendelse til at forbedre droners evne til at udpege trusler.
Læs også: Google-ansatte til chefen: Stop våben med kunstig intelligens
Ikke i nærheden af definition
Men et forbud mod autonome våbensystemer på slagmarken kræver, at FN’s medlemslande rent faktisk kan blive enige om, hvad man gerne vil forbyde.
»Vi er ikke i nærheden af en definition, som er tilstrækkeligt holdbar og afgrænset til at kunne danne grundlag for et juridisk forbud. Problemet er, at autonomi i modsætning til eksempelvis miner, klyngebomber eller kemikalier ikke er en håndgribelig ting med bestemte fysiske egenskaber,« siger Iben Yde, ph.d. i folkeret og juridisk rådgiver for Forsvarskommandoen. Hun skrev for to år siden sin afhandling ved Aarhus Universitet om regulering af autonome våben.
Ugens møderække i Genève udgør den foreløbige kulmination på, at FN siden 2014 har afholdt multilaterale møder om autonome våben.
»Og man har altså siddet i fire år uden at komme i nærheden af en definition af autonome våben. I mandags startede det første af to årlige møder om autonome våbensystemer i FN-regi, og her er det tungeste punkt på dagsordenen stadigvæk, at vi skal finde en solid og retvisende arbejdsdefinition, som alle parter kan enes om,« siger Iben Yde.
Alle de mest gængse definitioner af autonome våben tager udgangspunkt i det amerikanske forsvarsministeriums direktiv 3000.09 fra 2014. Her defineres et autonomt våben ved, at det efter aktivering ikke er underlagt menneskelig kontrol. Problemet med den definition er, at den dækker en lang række allerede anvendte miner, torpedoer og missiler, der selv kan angribe specifikke mål eller måltyper uden menneskelig indblanding. Derfor har det amerikanske forsvarsministerium undtaget en masse våbensystemer fra direktivet.
»Så man famler sig frem og retter opmærksomheden mod våbensystemer, som ikke er underlagt menneskelig kontrol efter affyring, men det omfatter i princippet en række eksisterende våbentyper, der ikke betragtes som ulovlige,« siger Iben Yde.
»Derfor vil man i FN få ufatteligt svært ved at få alle stater til at enes om en definition. For der vil i alle tilfælde være lande, hvis våbensystemer bliver ramt af definitioner så brede som dem, der er på bordet lige nu. Og de vil sandsynligvis ikke gå med til at begrænse deres råderum yderligere,« siger Iben Yde.
Vi får aldrig alle med
Hos Center for Militære Studier på Københavns Universitet vurderer seniorforsker Gary Schaub, at et internationalt forbud mod bevæbnet AI aldrig kommer til at se dagens lys.
»Ikke alene vil verdens supermagter ikke tilslutte sig et forbud. Mange andre stater vil også se autonomi som en oplagt mulighed for at skyde genvej til et militært topniveau,« siger Gary Schaub.
Læs også: Ny rapport: Danmark mangler politik for autonome våben
Han er forfatter til den første danske rapport om autonome våben, som blev udgivet i 2016. Han vurderer ligesom Iben Yde, at selv en fælles definition af autonome våben har lange udsigter.
»Især fordi kapaciteten til at behandle og distribuere data gradvis ændrer det, der kan defineres som autonomt. Fra en enkelt enhed som en kampvogn eller en drone til et netværk af enheder, der hver for sig ikke er autonome, men som i fællesskab kan blive det,« siger Gary Schaub.
Meningsfuld kontrol
Derfor er man i FN nu også begyndt at kigge i retning af, hvordan man bedst muligt kan tøjle kamprobotterne. Fagtermen er meningsfuld menneskelig kontrol, og den har inden for de seneste år vundet indpas i den akademiske debat om autonome våben.
»Frem for et forbud giver det mening at diskutere, hvordan vi kan indrette kontrollen med autonome systemer, så vi sikrer os, at våbnene bliver brugt inden for de regler, som vi allerede har i blandt andet Genèvekonventionerne. Og nu ser det endelig ud til, at man begynder at kigge mere den vej i FN,« siger Iben Yde.
Et eksempel kunne være en drone, som er forprogrammeret til at afsøge et område og angribe eventuelle mål på egen hånd. En kapacitet, som står højt på flere landes militære ønskelister.
»Hvis dronen bare skal finde fjender, bliver det meget svært. For det er svært for et våbensystem at skelne mellem en kombattant og en civil. Man kan derimod sætte dronen til specifikt at finde pansrede køretøjer eller radarsystemer, som kan identificeres på baggrund af objektive kriterier såsom størrelse, vægt eller termisk profil, og som er lovlige mål ifølge folkeretten,« siger Iben Yde.
»Så det er min vurdering, at den slags systemer bedst kan anvendes på meget stramt afgrænsede måltyper. Det kan godt gøres uden menneskelig overvågning, men man bliver nødt til at have en mekanisme, så det autonome system beder om en menneskelig revurdering af opgaven, hvis målet afviger fra, hvad det er programmeret til at ramme. For eksempel hvis der dukker civile op i målområdet,« siger hun.
Læs også: Galleri: Autonome våben gennem tiderne
En måske urealistisk opgave
Samtlige tilhængere af et forbud mod autonome våben, som Ingeniøren har talt med, medgiver da også, at de er på en måske urealistisk opgave.
For professor ved Lancaster University Lucy Suchman, som forsker i designet af autonome våbensystemer og er medlem af International Committee for Robot Arms Control, er det imidlertid afgørende, at verdenssamfundet ikke accepterer et eskalerende AI-våbenkapløb.
Hun peger på, at FN’s medlemslande tidligere er blevet enige om et forbud mod landminer, kemiske våben og atomvåben. Og selvom disse forbud bliver brudt og omgået, har de alligevel en vigtig funktion.
»De har skabt en norm, der har begrænset brugen af disse våben. Det er altafgørende at gøre det samme med AI-våben,« siger hun.
