»Det spørgsmål, vi må stille os selv, lyder: Hvilke skridt kan vi tage for at forhindre en militær konkurrence, hvis udfald bliver katastrofalt for alle parter?«
Sådan lød advarslen mod en frygtindgydende ny våbenteknologi i et manifest, hvis medunderskrivere omfatter nogle af de mest anerkendte forskere inden for udviklingen af selv samme teknologi. Dengang, i juli 1955, handlede advarslen om atombomben, i et manifest fra 11 videnskabsmænd anført af Bertrand Russell og Albert Einstein.
Seks årtier senere lyder advarslen mod en ny våbenteknologi under hastig udvikling ikke meget anderledes.
»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb. Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt.«
Advarslen mod at anvende kunstig intelligens til militære formål er formuleret i et åbent brev til FN fra 2015, hvis medunderskrivere nok engang omfatter forskere inden for selv samme teknologi. Nærmere bestemt 3.963 forskere inden for robotter og kunstig intelligens, foruden 22.396 medunderskrivere, der omfatter prominente navne som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.
Aegis Combat System SGR-A1 Sea HunterTre eksempler på autonome våben
Kampsystemet Aegis, som udgør it-rygraden i Natos ballistiske missilforsvar, kan selv identificere og nedskyde fjendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx-nærforsvarssystem med maskinkanon, kan det også nedskyde fjendtlige fly. Den menneskelige operatør kan som udgangspunkt underkende systemets beslutning om at angribe, men Aegis kan også fungere i casualty mode, hvor det antager, at operatøren er forhindret i at betjene systemet, og derfor selv træffer beslutning om at skyde.
Sydkoreanske Samsungs intelligente vagttårn SGR-A1 bevogter i dag den demilitariserede zone mellem Nord- og Sydkorea. SGR-A1 kan selv identificere mål inden for 3,2 kilometer og kan enten reagere med en høj alarm, ikkedræbende gummikugler, et 5.56 x 45 maskingevær eller en granatkaster. Et lignende system i form af det israelske SentryTech er placeret langs grænsen til Gazastriben.
Sea Hunter fra Pentagons udviklingsenhed Darpa er udviklet til autonom ubådsjagt og elektronisk krigsførelse. Det ubemandede skib scanner havet under sig, og finder den et mål, kan den selv udpege fjendens mest sårbare punkter og indlede et angreb. Dog kan den ikke foretage angreb uden grønt lys fra et menneske. Sea Hunter har netop afsluttet et toårigt testforløb og er principielt klar til operativ tjeneste.
Krig i et hidtil uset omfang
Og spørger man en af specialisterne bag advarslen fra 2015, skal autonome våben ligesom atombomben kategoriseres som et masseødelæggelsesvåben. Han hedder Toby Walsh og er professor i kunstig intelligens ved New South Wales University og formand for organisationen AI Access Foundation, som har til formål at udbrede forkningsresultater indenfor kunstig intelligens.
»Verdenssamfundet bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere krævede en hel hær. Krig bliver opskaleret i et hidtil uset omfang,« fortalte Toby Walsh for få dage siden til Ingeniøren i en artikel om regulering af autonome våben.
Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?
Han er også en af de 50 forskere bag den boykot, der i sidste uge fik det sydkoreanske universitet KAIST til at opgive et samarbejde med den sydkoreanske våbenproducent Hanwha Systems om et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.
Ikke masseødelæggelsesvåben
Spørger man derimod forfatteren til den første danske videnskabelige rapport om autonome våben, rammer Toby Walshs og andre bekymrede fagfolks bestræbelser på at få kategoriseret autonome våben som masseødelæggelsesvåben ved siden af.
»Problemet er, at disse systemer slet ikke er masseødelæggelsesvåben,« siger Gary Schaub, seniorforsker ved Center for Militære Studier på Københavns Universitet. Han offentliggjorde i 2016 en rapport om behovet for retningslinjer for anvendelsen af autonome våben.
Læs også: Ny rapport: Danmark mangler politik for autonome våben
»Masseødelæggelsesvåben er per definition ikke diskriminerende i deres ødelæggelser. Det er den masseødelæggelse, der gør dem unikke. Autonome våben er ikke udiskriminerende. De autonome våben, der bliver udviklet i den nære fremtid, vil være ligesom de konventionelle våben, der anvendes i dag – kampvogne, kampfly, missiler, fregatter og ubåde – bare med en maskine som beslutningstager i stedet for et menneske,« siger Gay Schaub.
Han vurderer dog, ligsom en række andre forskere, som Ingeniøren har talt med til de seneste dages artikler, at det er nødvendigt at opstille retningslinjer for, hvordan den menneskelige kontrol med autonome våbensystemer skal foregå.
Læs også: Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben
Når der i FN tages officielle diskussioner om mulige restriktioner på autonome våbensystemer, som det skete i Genève i sidste uge, sker det indtil videre med udgangspunkt i, at autonome våbensystemer ikke er masseødelæggelsesvåben, nemlig med henblik på en mulig opdatering af FN's konvention om særlige konventionelle våben.
Den har til formål at forbyde eller begrænse brugen af våben, som anses for at være unødigt skadevoldende eller for at ramme i flæng, såsom landminer, lureminer, brandvåben og blindende laservåben, hvorimod listen af masseødelæggelsesvåben i dag kun omfatter kemiske, biologiske, radioaktive og nukleare våben.
Er slet ikke våben
Arbejdet med at opstille juridiske rammer for autonome våbensystemer bliver vanskeliggjort af, at selve våbendelen af systemerne næppe kommer til at adskille sig fra konventionelle våbentyper som missiler og projektiler.
En artikel bragt i ICRC’s internationale forskningstidsskrift i 2012 konkluderede på den baggrund, at autonome våbensystemer end ikke er våben, men at de alene er kendetegnet ved en særlig anvendelse af konventionelle våben. Forfatteren til rapporten, Hin-Yan Liu, er i dag professor ved Juridisk Institut på Københavns Universitet.
»Den afgørende forskel på autonome våbensystemer og andre våben er, at autonome våbensystemer ikke er våben. Våben er redskaber til at begå vold, som kræver en operatør. Det problematiske ved autonome våbensystemer er derfor ikke selve våbnet, men den operatør, der betjener det. Det bliver åbenlyst, når man tager i betragtning, at autonome våbensystemer med al sandsynlighed kommer til at benytte sig af eksisterende, konventionelle våbentyper,« siger Hin-Yan Liu.
Læs også: Kamprobotternes akilleshæl er uforudsigelighed
Fuldt autonome våbensystemer, der uden menneskelig indblanding udvælger og angriber deres mål, anvendes endnu ikke i nogen lande. I Danmark benytter Forsvaret i dag delvist autonome våben i form af såkaldte fire and forget-missiler, som efter affyring selv kan finde frem til deres mål.
Sidste uges diskussioner i FN udgjorde det andet møde i den mellemstatslige ekspertgruppe med regeringsrepræsentanter, som FN besluttede at oprette i 2016, og som skal diskutere både de teknologiske, militære, juridiske og etiske implikationer ved at udvikle autonome våben.
Den såkaldte Group of Governmental Experts on Lethal Autonomous Weapons Systems fortsætter diskussionerne ved sit næste møde i august i år.
