Forbud mod kamprobotter kræver en katastrofe
»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb.«
Sådan lød det for to år siden i et protestbrev til FN, i hvilket 3.963 forskere og fagfolk advarede mod at bevæbne kunstig intelligens. Brevet affødte international opmærksomhed, ikke mindst på grund af de prominente medunderskrivere som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.
»Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt, og slutmålet for den teknologiske kurs er indlysende: Autonome våben bliver morgendagens Kalashnikov,« skrev de.
Røde Kors og Human Rights Watch fulgte op og opfordrede til helt at forbyde al udvikling og anvendelse af fuldt autonome våben.
Man skelner normalt mellem tre overordnede grader af selvbestemmelse i våbensystemer: Semi-autonome systemer, som er underlagt fuld menneskelig kontrol og kræver tilladelse til at angribe specifikke mål, kendt som human-in-the-loop. Autonome systemer under opsyn, hvor mennesker overvåger systemets operationer og har mulighed for at gribe ind, kendt som human-on-the-loop. Og endelig fuldt autonome våbensystemer, hvor mennesker ikke længere har indflydelse på beslutningskæden, og systemet selv kan udvælge mål.Autonome våben
Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter
Nu har regeringsrepræsentanterne for FN’s medlemslande for første gang drøftet det, der er af de bekymrede fagfolk betegnes som den tredje revolution af krigsførelse: Anvendelsen af krigsmaskiner, som på baggrund af kunstig intelligens (AI) egenhændigt kan afgøre, hvornår der skal skydes for at dræbe.
Og vil landene og især de nationale militære stormagter så følge op på forskernes advarsler?
Næppe.
Rusland skældte ud, USA fremhævede fordele
Ingeniøren har gennemgået oplæg og talepapirer fra det just overståede møde i Genève. Her advarede Kina om, at et forbud mod AI i selvstyrende krigsmaskiner ikke måtte forplumre den overordnede udvikling og implementering af AI i almindelige fredelige formål.
Rusland harcelerede over, at nogle medlemslande var forvirrede over forskellen på autonome og semi-autonome våben. Rusland havde desuden travlt med at pointere, at de ikke ønsker at overlade fingeren på aftrækkeren til en AI’s beslutningskæde, men påpegede samtidig, at en sådan beslutning stadig vil kunne spores tilbage til et menneske.
»Man glemmer, at de maskinens automatiserede funktioner til at identificere og ramme mål er afgjort af et menneske gennem algoritme,« lød det i Ruslands talepapir.
I et seks sider langt talepapir, præsenteret under møderne i Genève, opstillede USA lutter fordele ved at anvende autonome våben. AI vil markant kunne reducere antallet af civile ofre, som er langt i overtal i de væbnede konflikter. De dør ifølge den amerikanske delegation typisk, fordi bomber affyres for upræcist, fordi vi mennesker nu en gang er upræcise og sommetider har vanskeligt ved at holde hovedet koldt.
Ubers og Teslas fatale eksperimenter med selvkørende biler vidner om, at der vil være utilsigtede autonome drone-dødsfald, før børnesygdommene med autonome våben er fjernet.
--Peter Lee, professor, University of Portsmouth
Mange AI-forskere har svært ved at få denne argumentation til at gå op, om end de samtidig peger på et paradoks, som måske ligefrem kan dæmme op for brugen af fuldt autonome kamprobotter i klodens militære brændpunkter. For fidusen ved selvlærende algoritmer, altså programmer, der lærer uafhængigt af de data, de kan indsamle, er, at teknologien konstant forbedrer udførelsen af opgaven.
Så hvis en autonom bevæbnet drone for alvor skal blive bedre til at være fleksibel, men samtidig forudsigelig nok til at operere sikkert i en kaotisk krigszone gennem en selvlærende algoritme, fordrer det en menneskelig afvejning af et acceptabelt udviklingsstadium, før det autonome system bliver sluppet løs på slagmarken egenhændigt.
Altså en afvejning af, hvornår AI kan udnyttes i sin fulde udstrækning i krig.
Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?
»Inden for militariseret machine learning betyder det, at politiske, militære og industrielle ledere skal specificere, hvor mange civile dødsfald der vil blive opfattet som acceptable, før AI’en betragtes som værende raffineret nok,« siger professor Peter Lee, direktør for Security and Risk Research ved University of Portsmouth, til phys.org.
Selvstyrende krigsmaskiner beskrives som den tredje revolution af krigsførelse. Men hvad er et autonomt våben egentlig, og bliver det nogensinde forsvarligt at overlade beslutningen om militær magt til maskiner? Ingeniøren ser nærmere på de stadig mere intelligente kamprobotter. 1. Uni-boykot af frygt for dræberrobotterAI med fingeren på aftrækkeren
2. AI’ens far:Nytteløst med forbud mod AI-våben
3. Google-ansatte: Stop våben med AI
4. Kamprobotter misforstår krigens regler
5. Hvornår er krigsrobotter autonome?
6. Er AI et masseødelæggelsesvåben?
7. Danmark mangler politik for autonome våben
10. Kamprobotternes akilleshæl er uforudsigelighed
11. Kunstig intelligens overvinder kampflypilot
12. Hvornår er krigsrobotter autonome?
13. Har kamprobotterne allerede vundet krigen?
Peter Lee, som især forsker i krig med droner, erklærer ligefrem, at hvis det i sidste ende er op til en AI i stor stil at afgøre, hvornår der skal skydes eller bombes for at dræbe, så vil vi være vidne til ren og skær udryddelse.
»Enhver regering eller militær, der frigjorde sådanne kræfter, ville krænke de værdier, som de hævder at forsvare. Til sammenligning bliver en dronepilot, der bryder sit hoved med en ‘kill or no kill’-afgørelse reduceret til det sidste vidnesbyrd om menneskelighed i den ofte umenneskelige affære, som krig er,« siger han.
Afgørende AI-vendepunkt
FN-gruppen af eksperter og regeringsrepræsentanter med fokus på autonome mødes igen i august. Men ifølge mange af de forskere, som Ingeniøren har talt med om sagen, har et forbud mod autonome våben lange udsigter.
»Jeg ser absolut ingen chancer for et proaktivt forbud, omend jeg gerne så det,« siger kinesiske Hin-Yan Liu, der tidligere har skrevet artikler om autonome våbensystemer i internationale forskningstidskrifter og i dag er professor ved Juridisk Institut på Københavns Universitet.
Læs også: Robotterne vil få kontrol over aftrækkeren
Trods hans pessimisme tror han ligesom Peter Lee, at der også kan være en chance for, at holdningen til fuldstændigt autonome krigsmaskiner ændrer sig, såfremt det militære AI-kapløb kulminerer, og verdenssamfundet bliver vidner til konflikter, hvor AI får liv på samvittigheden.
»Verden bliver formentlig nødt til at opleve et afgørende øjeblik, der destillerer alle de frygtelige ting, som autonome våben legemliggør. Og på en måde, som er relaterbar for offentligheden. Hvis der bliver indført et forbud, bliver det på baggrund af en frygtelig ugerning begået af autonome våbensystemer. Jeg håber inderligt, at jeg tager fejl, men mennesker er tilbøjelige til først at lære af deres fejl,« siger Hin-Yan Liu.
