Forbud mod kamprobotter kræver en katastrofe

19. april 2018 kl. 17:177
Forbud mod kamprobotter kræver en katastrofe
Når AI styrer fingeren på aftrækkeren, er der efter meget at dømme færre civile ofre i bevæbnede konflikter, men et dilemma er, hvornår og hvordan en militær AI vurderes som værende raffineret nok til at blive anvendt. Illustration: Yacobchuk /Big Stock.
Udbredelsen af autonome kamprobotter på slagmarken tegner til at blive afgjort af i hvor høj grad vi accepterer antallet af civile tab dræbt af algoritmer og AI.
Artiklen er ældre end 30 dage

»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb.«

Sådan lød det for to år siden i et protestbrev til FN, i hvilket 3.963 forskere og fagfolk advarede mod at bevæbne kunstig intelligens. Brevet affødte international opmærksomhed, ikke mindst på grund af de prominente medunderskrivere som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.

»Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt, og slutmålet for den teknologiske kurs er indlysende: Autonome våben bliver morgendagens Kalashnikov,« skrev de.

Røde Kors og Human Rights Watch fulgte op og opfordrede til helt at forbyde al udvikling og anvendelse af fuldt autonome våben.

Artiklen fortsætter efter annoncen

Autonome våben

Man skelner normalt mellem tre overordnede grader af selvbestemmelse i våbensystemer:

  • Semi-autonome systemer, som er underlagt fuld menneskelig kontrol og kræver tilladelse til at angribe specifikke mål, kendt som human-in-the-loop.

  • Autonome systemer under opsyn, hvor mennesker overvåger systemets operationer og har mulighed for at gribe ind, kendt som human-on-the-loop.

  • Og endelig fuldt autonome våbensystemer, hvor mennesker ikke længere har indflydelse på beslutningskæden, og systemet selv kan udvælge mål.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Nu har regeringsrepræsentanterne for FN’s medlemslande for første gang drøftet det, der er af de bekymrede fagfolk betegnes som den tredje revolution af krigsførelse: Anvendelsen af krigsmaskiner, som på baggrund af kunstig intelligens (AI) egenhændigt kan afgøre, hvornår der skal skydes for at dræbe.

Og vil landene og især de nationale militære stormagter så følge op på forskernes advarsler?

Næppe.

Rusland skældte ud, USA fremhævede fordele

Ingeniøren har gennemgået oplæg og talepapirer fra det just overståede møde i Genève. Her advarede Kina om, at et forbud mod AI i selvstyrende krigsmaskiner ikke måtte forplumre den overordnede udvikling og implementering af AI i almindelige fredelige formål.

Artiklen fortsætter efter annoncen

Rusland harcelerede over, at nogle medlemslande var forvirrede over forskellen på autonome og semi-autonome våben. Rusland havde desuden travlt med at pointere, at de ikke ønsker at overlade fingeren på aftrækkeren til en AI’s beslutningskæde, men påpegede samtidig, at en sådan beslutning stadig vil kunne spores tilbage til et menneske.

»Man glemmer, at de maskinens automatiserede funktioner til at identificere og ramme mål er afgjort af et menneske gennem algoritme,« lød det i Ruslands talepapir.

I et seks sider langt talepapir, præsenteret under møderne i Genève, opstillede USA lutter fordele ved at anvende autonome våben. AI vil markant kunne reducere antallet af civile ofre, som er langt i overtal i de væbnede konflikter. De dør ifølge den amerikanske delegation typisk, fordi bomber affyres for upræcist, fordi vi mennesker nu en gang er upræcise og sommetider har vanskeligt ved at holde hovedet koldt.

Ubers og Teslas fatale eksperimenter med selvkørende biler vidner om, at der vil være utilsigtede autonome drone-dødsfald, før børnesygdommene med autonome våben er fjernet.
--Peter Lee, professor, University of Portsmouth

Mange AI-forskere har svært ved at få denne argumentation til at gå op, om end de samtidig peger på et paradoks, som måske ligefrem kan dæmme op for brugen af fuldt autonome kamprobotter i klodens militære brændpunkter. For fidusen ved selvlærende algoritmer, altså programmer, der lærer uafhængigt af de data, de kan indsamle, er, at teknologien konstant forbedrer udførelsen af opgaven.

Så hvis en autonom bevæbnet drone for alvor skal blive bedre til at være fleksibel, men samtidig forudsigelig nok til at operere sikkert i en kaotisk krigszone gennem en selvlærende algoritme, fordrer det en menneskelig afvejning af et acceptabelt udviklingsstadium, før det autonome system bliver sluppet løs på slagmarken egenhændigt.

Altså en afvejning af, hvornår AI kan udnyttes i sin fulde udstrækning i krig.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

»Inden for militariseret machine learning betyder det, at politiske, militære og industrielle ledere skal specificere, hvor mange civile dødsfald der vil blive opfattet som acceptable, før AI’en betragtes som værende raffineret nok,« siger professor Peter Lee, direktør for Security and Risk Research ved University of Portsmouth, til phys.org.

Artiklen fortsætter efter annoncen

AI med fingeren på aftrækkeren

Illustration: Paul Fleet/BigStock.

Selvstyrende krigsmaskiner beskrives som den tredje revolution af krigsførelse. Men hvad er et autonomt våben egentlig, og bliver det nogensinde forsvarligt at overlade beslutningen om militær magt til maskiner? Ingeniøren ser nærmere på de stadig mere intelligente kamprobotter.

1. Uni-boykot af frygt for dræberrobotter
2. AI’ens far:Nytteløst med forbud mod AI-våben
3. Google-ansatte: Stop våben med AI
4. Kamprobotter misforstår krigens regler
5. Hvornår er krigsrobotter autonome?
6. Er AI et masseødelæggelsesvåben?
7. Danmark mangler politik for autonome våben
10. Kamprobotternes akilleshæl er uforudsigelighed
11. Kunstig intelligens overvinder kampflypilot
12. Hvornår er krigsrobotter autonome?
13. Har kamprobotterne allerede vundet krigen?

Peter Lee, som især forsker i krig med droner, erklærer ligefrem, at hvis det i sidste ende er op til en AI i stor stil at afgøre, hvornår der skal skydes eller bombes for at dræbe, så vil vi være vidne til ren og skær udryddelse.

»Enhver regering eller militær, der frigjorde sådanne kræfter, ville krænke de værdier, som de hævder at forsvare. Til sammenligning bliver en dronepilot, der bryder sit hoved med en ‘kill or no kill’-afgørelse reduceret til det sidste vidnesbyrd om menneskelighed i den ofte umenneskelige affære, som krig er,« siger han.

Afgørende AI-vendepunkt

FN-gruppen af eksperter og regeringsrepræsentanter med fokus på autonome mødes igen i august. Men ifølge mange af de forskere, som Ingeniøren har talt med om sagen, har et forbud mod autonome våben lange udsigter.

»Jeg ser absolut ingen chancer for et proaktivt forbud, omend jeg gerne så det,« siger kinesiske Hin-Yan Liu, der tidligere har skrevet artikler om autonome våbensystemer i internationale forskningstidskrifter og i dag er professor ved Juridisk Institut på Københavns Universitet.

Læs også: Robotterne vil få kontrol over aftrækkeren

Trods hans pessimisme tror han ligesom Peter Lee, at der også kan være en chance for, at holdningen til fuldstændigt autonome krigsmaskiner ændrer sig, såfremt det militære AI-kapløb kulminerer, og verdenssamfundet bliver vidner til konflikter, hvor AI får liv på samvittigheden.

»Verden bliver formentlig nødt til at opleve et afgørende øjeblik, der destillerer alle de frygtelige ting, som autonome våben legemliggør. Og på en måde, som er relaterbar for offentligheden. Hvis der bliver indført et forbud, bliver det på baggrund af en frygtelig ugerning begået af autonome våbensystemer. Jeg håber inderligt, at jeg tager fejl, men mennesker er tilbøjelige til først at lære af deres fejl,« siger Hin-Yan Liu.

7 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
6
20. april 2018 kl. 11:29

At tænke sig, hvad alle disse kompetencer kunne udrette, hvis de satte sig sammen og fokuserede på at udvikle menneskehedens muligheder, fremfor at bekrige hinanden.

Det har jeg tit tænkt.

At vi som menneskehed ikke er kommet videre end dette endnu, er for mig fuldstændig uforståeligt.

Desværre er det ganske forståeligt.

Hvis vi alle sad sammen og fokuserede på at udvikle mulighederne, så ville én person som får lyst til at angribe de andre få frit spil. Fordi de andre er fuldstændig uforberedte. Og det vil ske på et eller andet tidspunkt.

Hvis vi alle sammen gruppevis slås indbyrdes, så vil den stærkeste gruppe have overtaget - og kan bruge noget af sin styrke på at udvikle muligheder. Det sidste kræver bare, at vi bruger noget krudt på at udvikle nogle muligheder for at blive ved med at have overtaget. Og det er sådan det fungerer i dag.

5
20. april 2018 kl. 10:20

At tænke sig, hvad alle disse kompetencer kunne udrette, hvis de satte sig sammen og fokuserede på at udvikle menneskehedens muligheder, fremfor at bekrige hinanden.

Det er fuldstændig grotesk at sidde og læse en "nøgtern" tilgang, hvorledes vi "bedst" fremover kan bekæmpe hinanden med, hvad der anses som "et acceptabelt antal civile ofre".

At vi som menneskehed ikke er kommet videre end dette endnu, er for mig fuldstændig uforståeligt.

To planeter nærmede sig hinanden i en galakse langt langt væk.... Planet 1: "Nå, hvordan går det så?" Planet 2: "Det går ikke så godt du. Jeg har vist fået Homo Sapiens". Planet 1: "Det skal du ikke bekymre dig så meget om. Det går over af sig selv"

4
20. april 2018 kl. 08:36

Om det er militært isenkram eller selvkørende biler er det afgørende vel det samme:

"hvor mange civile dødsfald der vil blive opfattet som acceptable, før AI’en betragtes som værende raffineret nok"

Mon ikke grænsen er en del højere for militært udstyr end det er for biler, selv om det nok ikke er så højt som i Terminator filmene. Men ovenstående gælder jo alt, både adfærd og teknik, der har muligheden for at ende med dødsfald. AI ændrer vel som sådan ikke på vores måde at vurdere det acceptable udfald, men gør bare en funktion mere effektiv.

Med hensyn til civile ofre, er det netop i mange konflikter en strategi at ramme dem, så hvad hjælper AI på dette, så længe AI ikke er fuldstændigt selvkørende og ikke prøver at understøtte en strategi? Måske de store nationer vil frasige sig dette, men hvor mange vil leve op til det i en reel situation?

2
20. april 2018 kl. 05:42

Spin Docs i USA vil nok bagatellisere dødsfald og sammenligne det med biler, naturkatastrofer osv osv, så alvoren forsvinder ved sammenligning og våbenlobbyen får sin vilje som sædvanligt, samt der ville gå for mange jobs tabt ved nedlægning af en god industri der klinger i kassen.

1
19. april 2018 kl. 19:44

"Ubers og Teslas fatale eksperimenter med selvkørende biler vidner om, [...]"

Peter Lee og jeg er nok ikke helt enige om hvad 'fatal' dækker over.

Jeg synes i øvrigt man kan lave en bedre når man vender den om:

"Verdens fatale eksperiment med biler ført af mennesker vidner om, at man vist skal tænke sig godt om, før man anbringer dødbringene våben i hænderne på mennesker."