Har de selvstyrende kamprobotter allerede vundet krigen?

13. april 2018 kl. 05:075
Har de selvstyrende kamprobotter allerede vundet krigen?
Illustration: MI grafik.
Regulering af våben styret af kunstig intelligens kuldsejler, fordi teknologien i sig selv ikke er et våben. Imens fortsætter det globale våben­kapløb, hvor autonome krigssystemer selv udvælger og eliminerer mål.
Artiklen er ældre end 30 dage

I luftrummet over et amerikansk militært testområde, der ligner en mellemøstlig by, svæver en lille drone kaldet Bendner, imens den regner på, hvilke personer nær en moske den skal sende hjem til deres skaber.

Dronen med seks svirrende rotorer er en billig, nærmest kedelig en af slagsen. Ja, altså, hvis vi ser bort fra dronens software. Den består af det amerikanske militærs mest avancerede kunstige intelligens, som skal gøre dronen i stand til på egen hånd at opsøge, identificere og eliminere fjendtlige enheder.

Da Pentagons hemmelighedsfulde udviklingsenhed Darpa sidste sommer demonstrerede en ubevæbnet udgave af den autonome drone, havde Bendner sommetider svært ved at skelne mellem tårnet på moskeen og en bevæbnet mand. Andre gange udpegede dronen ifølge Darpa resolut de rigtige mål.

Et andet sted på kloden, ved en storstilet russisk militærmesse sidste år, erklærede våbenproducenten Kalashnikov, at firmaets kunder inden for den nærmeste fremtid kan købe en særlig serie af landbaserede kamprobotter. Med firmaets legendariske 69 år gamle stormgeværsteknik i hånden og på baggrund af neurale netværk er robotterne i stand til egenhændigt at identificere mål, træffe beslutninger og trykke på aftrækkeren, lover Kalashnikov.

Artiklen fortsætter efter annoncen

Tre eksempler på autonome våben

Illustration: US Navy.

Aegis Combat System
Kampsystemet Aegis, som udgør it-rygraden i Natos ballistiske missilforsvar, kan selv identificere og nedskyde fjendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx-nærforsvarssystem med maskinkanon, kan det også nedskyde fjendtlige fly. Den menneskelige operatør kan som udgangspunkt underkende systemets beslutning om at angribe, men Aegis kan også fungere i casualty mode, hvor det antager, at operatøren er forhindret i at betjene systemet, og derfor selv træffer beslutning om at skyde.

Illustration: Samsung.

SGR-A1
Sydkoreanske Samsungs intelligente vagttårn SGR-A1 bevogter i dag den demilitariserede zone mellem Nord- og Sydkorea. SGR-A1 kan selv identificere mål inden for 3,2 kilometer og kan enten reagere med en høj alarm, ikkedræbende gummikugler, et 5.56 x 45 maskingevær eller en granatkaster. Et lignende system i form af det israelske SentryTech er placeret langs grænsen til Gazastriben.

Illustration: U.S. Navy.

Sea Hunter
Sea Hunter fra Pentagons udviklingsenhed Darpa er udviklet til autonom ubådsjagt og elektronisk krigsførelse. Det ubemandede skib scanner havet under sig, og finder den et mål, kan den selv udpege fjendens mest sårbare punkter og indlede et angreb. Dog kan den ikke foretage angreb uden grønt lys fra et menneske. Sea Hunter har netop afsluttet et toårigt testforløb og er principielt klar til operativ tjeneste.

Den tredje krigsrevolution

Dette er blot to eksempler på noget af det nyeste militære isenkram, som offentligheden har fået indblik i. To eksempler, som måske ikke fremstår særligt frygtindgydende sammenlignet med moderne ballistiske missiler og højenergilasere.

Men når de to eksempler fra USA og Rusland skiller sig ud, hænger det heller ikke sammen med, hvad der rent faktisk bliver affyret. Det handler om, hvem der bestemmer, hvornår der skal trykkes på aftrækkeren.

I begge tilfælde er den beslutning udlagt til en kunstig intelligens (AI): et softwareprogram, som efterligner et eller flere aspekter af den menneskelige intelligens såsom analyse, logik eller udvikling på baggrund af fejl.

Læs også: Kamprobotterne kommer

Artiklen fortsætter efter annoncen

Kunstig intelligens er i dag så veludviklet, at AI-eksperterne over en bred kam mener, at vi nu befinder os i begyndelsen af den tredje revolution inden for krigsførelse: Først kom krudtet, dernæst atombomben og nu et system, der midt i krigens tåge formår at tænke og reagere mangefold hurtigere end menneskehjernen.

Første officielle møder i FN

Inden for de seneste to uger har flere forskere og programmører plæderet for aldrig at gøre krigsrobotter komplet autonome. Eller endnu bedre, at vi helt sætter udviklingen af krigsteknologi med AI på pause.

Blandt de bekymrede fagfolk er professor Toby Walsh fra New South Wales University, en af verdens mest fremtrædende AI-forskere og talsmand for 50 førende AI-forskere bag en boykot af det prominente sydkoreanske universitet KAIST.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Universitetet har indgået et samarbejde om AI med en sydkoreansk våbenproducent, der fremstiller klyngebomber, som FN’s krigskonvention ellers har bandlyst brugen af.

»Vi bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere fordrede en helt hær. Krig bliver opskaleret i et hidtil uset omfang,« siger Toby Walsh til Ingeniøren.

Han befinder sig i Genève, hvor FN i denne uge for første gang har indkaldt medlemslandene til officielle diskussioner, der kan afgøre de autonome våbens fremtid.

Få dage efter forskerboykotten af KAIST blev et protestbrev fra 3.100 Google-ansatte lækket. De ansatte bønfalder it- mastodontens øverste chef, Sundar Pichai, om at skrotte projekt Maven: et samarbejde med Pentagon om at benytte Googles AI-mønster­genkendelse til at forbedre droners evne til at udpege trusler.

Artiklen fortsætter efter annoncen

Læs også: Google-ansatte til chefen: Stop våben med kunstig intelligens

Ikke i nærheden af definition

Men et forbud mod autonome våben­systemer på slagmarken kræver, at FN’s medlemslande rent faktisk kan blive enige om, hvad man gerne vil forbyde.

»Vi er ikke i nærheden af en definition, som er tilstrækkeligt holdbar og afgrænset til at kunne danne grundlag for et juridisk forbud. Problemet er, at autonomi i modsætning til eksempelvis miner, klynge­bomber eller kemikalier ikke er en håndgribelig ting med bestemte fysiske egenskaber,« siger Iben Yde, ph.d. i folkeret og juridisk rådgiver for Forsvars­kommandoen. Hun skrev for to år siden sin afhandling ved Aarhus Universitet om regulering af autonome våben.

Ugens møderække i Genève udgør den foreløbige kulmination på, at FN siden 2014 har afholdt multilaterale møder om autonome våben.

»Og man har altså siddet i fire år uden at komme i nærheden af en definition af autonome våben. I mandags startede det første af to årlige møder om autonome våbensystemer i FN-regi, og her er det tungeste punkt på dagsordenen stadigvæk, at vi skal finde en solid og retvisende arbejdsdefinition, som alle parter kan enes om,« siger Iben Yde.

Alle de mest gængse definitioner af autonome våben tager udgangspunkt i det amerikanske forsvarsministeriums direktiv 3000.09 fra 2014. Her defineres et autonomt våben ved, at det efter aktivering ikke er underlagt menneskelig kontrol. Problemet med den definition er, at den dækker en lang række allerede anvendte miner, torpedoer og missiler, der selv kan angribe specifikke mål eller måltyper uden menneskelig indblanding. Derfor har det amerikanske forsvarsministerium undtaget en masse våbensystemer fra direktivet.

»Så man famler sig frem og retter opmærksomheden mod våbensystemer, som ikke er underlagt menneskelig kontrol efter affyring, men det omfatter i princippet en række eksisterende våbentyper, der ikke betragtes som ulovlige,« siger Iben Yde.

»Derfor vil man i FN få ufatteligt svært ved at få alle stater til at enes om en definition. For der vil i alle tilfælde være lande, hvis våben­systemer bliver ramt af definitioner så brede som dem, der er på bordet lige nu. Og de vil sandsynligvis ikke gå med til at begrænse deres råderum yderligere,« siger Iben Yde.

Vi får aldrig alle med

Hos Center for Militære Studier på Københavns Universitet vurderer seniorforsker Gary Schaub, at et internationalt forbud mod bevæbnet AI aldrig kommer til at se dagens lys.

»Ikke alene vil verdens supermagter ikke tilslutte sig et forbud. Mange andre stater vil også se autonomi som en oplagt mulighed for at skyde genvej til et militært topniveau,« siger Gary Schaub.

Læs også: Ny rapport: Danmark mangler politik for autonome våben

Han er forfatter til den første danske rapport om autonome våben, som blev udgivet i 2016. Han vurderer ligesom Iben Yde, at selv en fælles definition af autonome våben har lange udsigter.

»Især fordi kapaciteten til at behandle og distribuere data gradvis ændrer det, der kan defineres som autonomt. Fra en enkelt enhed som en kampvogn eller en drone til et netværk af enheder, der hver for sig ikke er autonome, men som i fællesskab kan blive det,« siger Gary Schaub.

Meningsfuld kontrol

Derfor er man i FN nu også begyndt at kigge i retning af, hvordan man bedst muligt kan tøjle kamp­robotterne. Fagtermen er meningsfuld menneskelig kontrol, og den har inden for de seneste år vundet indpas i den akademiske debat om autonome våben.

»Frem for et forbud giver det mening at diskutere, hvordan vi kan indrette kontrollen med autonome systemer, så vi sikrer os, at våbnene bliver brugt inden for de regler, som vi allerede har i blandt andet Genèvekonventionerne. Og nu ser det endelig ud til, at man begynder at kigge mere den vej i FN,« siger Iben Yde.

Et eksempel kunne være en drone, som er forprogrammeret til at afsøge et område og angribe eventuelle mål på egen hånd. En kapacitet, som står højt på flere landes militære ønskelister.

»Hvis dronen bare skal finde fjender, bliver det meget svært. For det er svært for et våbensystem at skelne mellem en kombattant og en civil. Man kan derimod sætte dronen til specifikt at finde pansrede køretøjer eller radarsystemer, som kan identificeres på baggrund af objektive kriterier såsom størrelse, vægt eller termisk profil, og som er lovlige mål ifølge folkeretten,« siger Iben Yde.

»Så det er min vurdering, at den slags systemer bedst kan anvendes på meget stramt afgrænsede måltyper. Det kan godt gøres uden menneskelig overvågning, men man bliver nødt til at have en mekanisme, så det autonome system beder om en menneskelig revurdering af opgaven, hvis målet afviger fra, hvad det er programmeret til at ramme. For eksempel hvis der dukker civile op i målområdet,« siger hun.

Læs også: Galleri: Autonome våben gennem tiderne

En måske urealistisk opgave

Samtlige tilhængere af et forbud mod autonome våben, som Ingeniøren har talt med, medgiver da også, at de er på en måske urealistisk opgave.

For professor ved Lancaster University Lucy Suchman, som forsker i designet af autonome våbensystemer og er medlem af International Committee for Robot Arms Control, er det imidlertid afgørende, at verdenssamfundet ikke accepterer et eskalerende AI-våbenkapløb.

Hun peger på, at FN’s medlemslande tidligere er blevet enige om et forbud mod landminer, kemiske våben og atomvåben. Og selvom disse forbud bliver brudt og omgået, har de alligevel en vigtig funktion.

»De har skabt en norm, der har begrænset brugen af disse våben. Det er altafgørende at gøre det samme med AI-våben,« siger hun.

5 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
5
15. april 2018 kl. 16:22

Så vidt jeg kan se, er grafikken i billedet øverst oppe lavet som et afledt værk af følgende billede fra Wikimedia på følgende adresse:https://en.wikipedia.org/wiki/File:Gun-type_fission_weapon_en-labels_thin_lines.svg(For denne SVG grafik fil er licensen angivet som "This file is licensed under the Creative Commons Attribution-Share Alike 3.0 Unported license". ) Det betyder, sådan som jeg tolker det, at man skal kreditere Wikimedia hvis man bruger dele af grafikken og laver et afledt værk og derefter publicerer det. Hvad er Ingeniørens interne retningslinjer hvis man bruger materiale underlagt ovenstående licens? Det samme billede er bragt i den trykte udgave af Ingeniøren, igen uden at kreditere Wikimedia.

4
13. april 2018 kl. 21:18

For hvad er kærneproblemet? Hvorvidt nogen slås ihjel af det ene eller det andet våben med den ene eller den anden teknologi bag? Hvis vi nu forestiller os at man går endnu videre, så at selve de beslutninger der fører til enten væbnet opgør eller ej måske også helt eller delvis afgøres med assistance af matematiske kalkuler, evt computerkraft vil det så gøre tingene værre og farligere? Gør det at der er menneskelige aktører beslutningerne så "etiske"?

3
13. april 2018 kl. 11:34

Udemærket artikel om kompliceret emne.

Måske er det i diskussionen vigtigt at skelne mellem angrebssystemer og forsvarssystemer, selvom et forsvarssystem i natur er angrebssystem.

Det er let at komme med eksempler på anvendelser, som er uønskede. Eksemplet med dronen er et sådant angrebssystem. Men var dronen nu anvendt til overvågning og forsvar af eg. en soldaterlejr, hvor der var en afmærket perimeter med "ingen adgang" ville et autonomt forsvarssystem så være tilladt - den observerede person inden for hegnet kunne være en stakkels forvirret gamling eller et barn og ikke en kriger ?

Tilsvarende kunne et krigsskib erklærer no-fly og no-sailing indenfor 5 sømil og 40.000 fod. Ville et autonomt forsvarssystem være tilladt ? Måske er det observerede en fiskerbåde, måske er det en flydende bombe i en båd. Måske er det en drone ....... Det er ikke let det her.

Specielt området selvforsvar og autonome forsvarssystemer synes at være kompliceret.

2
13. april 2018 kl. 10:47

...kæmper med hinanden, dør mennesker omkring dem som "casual damage".

Det lyder som opskriften på en god Sci-Fi bog.

1
13. april 2018 kl. 10:46

"Her defineres et autonomt våben ved, at det efter aktivering ikke er underlagt menneskelig kontrol."

Et projektil fra en pistol er heller ikke 'underlagt menneskelig kontrol' efter 'aktivering' (affyring).

Burde der i det mindste ikke være tilføjet noget om, at et autonomt våben selv kan foretage ændringer i sine handlinger uden menneskelig indblanding?