Robotterne vil få kontrol over aftrækkeren
more_vert
close
close

Vores nyhedsbreve

close
Når du tilmelder dig nyhedsbrevet, accepterer du både vores brugerbetingelser og at Mediehuset Ingeniøren og IDA group ind i mellem kontakter dig angående events, analyser, nyheder, tilbud etc. via telefon, SMS og e-mail. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Robotterne vil få kontrol over aftrækkeren

ai kunstig intelligens kampfly droner
I 2016 lykkedes det for første gang en AI-computer at nedkæmpe en menneskelig kampflypilot i simulatorøvelser i det amerikanske luftvåbens centrale forskningslaboratorium i Ohio. Foto: University of Cincinnati

Da det amerikanske forsvarsministerium for få år siden formulerede sin politik angående autonome våben i Direktiv 3000.09, gjorde man ét forhold særligt klart: Autonome våbens brug af dødelig magt skal være underlagt menneskers kontrol.

Pentagons standpunkt i det yderst kontroversielle spørgsmål om fuldt autonome våben er siden blev gentaget af adskillige forsvarsspidser, senest i år af det amerikanske flyvevåbens general Paul Selva, som under en tale i Washington proklamerede, at mennesker altid kommer til at være in the loop hos det amerikanske forsvar. Men spørgsmålet er, hvor fasttømret et standpunkt det er.

»Det tror jeg simpelthen ikke på. Der er jo et våbenkapløb i gang. Så hvis en general siger, at vi beholder mennesket in the loop, så må det opfattes som et politisk udsagn om, hvor man er lige nu, frem for en forudsigelse om fremtiden. Det er han ikke i stand til at forudse med den hastighed, udviklingen har,« siger Thomas Vestskov Terney, konsulent inden for digital strategi og ph.d. i kunstig intelligens.

»Gradvis reduktion af kontrol«

Og efter alt at dømme er det da også et spørgsmål om hvornår, snarere end hvorvidt, det amerikanske forsvarsministerium opgiver sit standpunkt. Pentagon og det amerikanske forsvar formulerer i en række offentligt tilgængelige dokumenter netop en konkret forventning om at anvende autonome våben uden menneskelig indblanding i fremtiden.

I den omfattende 25-årsplan Unmanned Systems Integrated Roadmap FY2011-2036 skriver det amerikanske forsvarsministerium, at man »forventer, at ubemandede systemer problemfrit vil operere side om side med bemandede systemer, med en gradvis reduktion af menneskelig kontrol i den ubemandede del af forsvaret«.

Hos det amerikanske luftvåben, der i årtier har anvendt fjernbetjente kampdroner, forventer man ifølge den såkaldte Unmanned Aircraft Systems Flight Plan 2009-2047, at »fremskridt inden for kunstig intelligens vil gøre det muligt for systemer at bestemme og udføre kamphandlinger inden for de juridiske og politiske rammer uden at behøve input fra mennesker«.

Specifikt om våbensystemer til landjorden beskriver Pentagon tilsvarende i sin Unmanned Ground Systems Roadmap en igangværende indsats for at øge selvstændigheden for UGV’er (Unmanned Ground Vehicles). Med et aktuelt mål om overvåget autonomi, kendt som human on the loop, men med et endeligt mål om fuld autonomi.

Taler med to tunger

Heller ikke Mikkel Willum Johansen, adjunkt og lektor i videnskabs­teori ved Københavns Universitet, køber udmeldingen fra den amerikanske forsvarstop.

»Når en amerikansk general melder ud, at man ikke vil lade robotter trykke på aftrækkeren, taler militæret med to tunger. På den ene side melder man en politisk grænse ud, mens man samtidig sætter gang i den teknologiske udvikling, der skal muliggøre netop den type robotter. Så man kan sætte spørgsmålstegn ved, hvor troværdig den udmelding er,« siger Mikkel Willum Johansen.

Som Ingeniøren tidligere har skrevet, anvender USA allerede i dag våbensystemer med kapaciteten til fuld autonomi, men under opsyn, så mennesker har mulighed for at gribe ind. Med andre ord human on the loop.

Eksempelvis kan kampsystemet Aegis, som udgør it-rygraden i Natos ballistiske missilforsvar, selv identificere og nedskyde fjendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx CIWS-nærforsvarssystem, kan det også nedskyde fjendtlige fly. Den menneskelige operatør kan som udgangspunkt underkende systemets beslutning om at angribe, men Aegis kan også fungere i casualty mode, hvor det antager, at operatøren er forhindret i at betjene systemet, og derfor selv træffer beslutning om at skyde.

For langsom med tøjlede robotter

»Min frygt er, at man bevæger sig ud på en glidebane. For hvis man en dag fravælger at bruge et våbensystem, som kunne have forsvaret et antal amerikanske soldater, som i stedet blev dræbt af Islamisk Stat, så bliver det i et indenrigspolitisk perspektiv svært for politikerne at insistere på, at vi stadig skal have et menneske ind over beslutningen. Vi ved fra historien, at der ikke skal mange bodybags til, for at den politiske vind vender,« siger Thomas Vestskov Terney.

Militærforskere som Michael N. Schmitt og Jeffrey S. Thurnher, som netop har publiceret en artikel om kunstig intelligens i Harvard National Security Journal, peger også på risikoen for, at amerikanske styrker sakker bagud på slagmarken, hvis Pentagon ikke slipper tøjlerne på sine kamprobotter. Efterhånden som lande som Kina og Rusland også udvikler autonome våben, kan tempoet på slagmarken blive så højt, at mennesker ikke længere kan følge med. Og med et tøjlet våbensystem vil man uvægerligt træffe sine beslutninger langsommere end en fjende med et fuldt autonomt våbensystem. Derfor kan de operationelle realiteter tvinge USA til at forkaste sin praksis med at beholde et menneske i beslutningskæden, skriver de.

Daværende forskningschef Werner Dahm fra det amerikanske luftvåben sagde tilbage i 2010 tilsvarende, at det teknologisk har været muligt at lade robotter foretage autonome angreb i lang tid. Og at mennesket inden 2030 vil være blevet kamppladsens svageste led.

Kommentarer (13)