Militære sværvægtere ruster sig til krig på kunstig intelligens
Mængden af krudt og kugler var engang udslagsgivende for, hvem der sejrede eller betalte den ultimative pris på slagmarken. Trumfkortet fremover tegner til at blive kredsløb og kunstig intelligens.
Det indikerer sidste uges FN-diskussioner i Genève. En mellemstatslig ekspertgruppe og regeringsrepræsentanter drøftede for første gang officielt det, der bliver betegnet som den tredje revolution inden for krigsførelse: anvendelsen af krigsmaskiner, som på baggrund af kunstig intelligens (AI) egenhændigt kan afgøre, hvornår der skal skydes for at dræbe.
Blandt oplægsholderne var en række forskere, der advarede om at overlade aftrækkeren til kunstig intelligens. Anvendelsen af selvstyrende krigsmaskiner risikerer ifølge forskerne at bryde Genèvekonventionens regler om beskyttelse af civilbefolkning i krigstid, fordi AI på nuværende tidspunkt er uforudsigelig.
Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter
»Teknisk set mangler autonome våben de nødvendige komponenter til, at vi kan være sikre på, at de er i stand til at udvise proportionalitet for at opfylde en opgave i en konflikt. Desuden er deres opførsel uforudsigelig, særligt i scenarier, hvor flere forskellige AI’er interagerer,« lød det fra Lucy Suchman, professor ved Lancaster University, da Ingeniøren talte med hende forud for møderne i Genève.
Læs også: Kamprobotternes akilleshæl er uforudsigelighed
USA’s politik for autonome våben er formuleret i direktiv 3000.09, som kræver, at dødelig magtanvendelse er underlagt »passende niveauer af menneskelig vurdering,« men direktivet udløb egentlig sidste år. USA’s fremtidige anvendelse af kamprobotter skal derfor revurderes under præsident Donald Trump.
I et seks sider langt talepapir fra Genève opstiller USA lutter fordele ved at anvende autonome våben.
»Frem for at forsøge at stigmatisere eller bandlyse teknologier, der er på vej inden for autonome våbensystemer, bør nationerne hellere opfordre til innovation, der fremmer formålet med konventionen,« lød det fra USA’s repræsentant.
Aftrækkeren bliver programmeret
Lande som USA, Israel, Storbritannien og Sydkorea råder allerede i dag over skibe eller artillerisystemer baseret på det, man kunne kalde militær machine learning. Uden menneskelig indflydelse er de i stand til at opstøve fjender og indlede angreb. Indtil videre skal mennesket dog stadig give grønt lys i beslutningskæden.
Ruslands præsident, Vladimir Putin, erklærede sidste år, at dén, som formår at være toneangivende inden for AI, vil styre verden.
I Genève fremførte Rusland dog, at de ikke agter at anvende fuldstændig autonome krigsmaskiner. Men Rusland kritiserede samtidig, at FN-bestræbelserne på at regulere brugen af autonome våben med AI efter Ruslands opfattelse er på vej til også at gøre brugen af bevæbnede droner mindre automatisk af misforstået frygt for og forvirring over at afgive for megen menneskelig medbestemmelse.
Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?
»Man glemmer, at maskiners automatiserede funktioner til at identificere og ramme mål er afgjort af et menneske gennem algoritmer,« fremførte Rusland.
Herhjemme lyder samme pointe fra Iben Yde, ph.d. i folkeret og juridisk rådgiver for Forsvarskommandoen. Hun skrev for to år siden sin afhandling om regulering af autonome våben.
»Den eneste forskel fra konventionelle våben er, at den menneskelige kontrol bliver forskudt fra realtid til at ligge i programmeringsfasen,« siger hun til Ingeniøren.
Ifølge Rusland forplumrer mange lande drøftelserne, fordi de ikke forstår forskellene på autonome og semi-autonome våben såsom en lang række eksisterende målsøgende missiler. Ruslands udsendte understregede derfor, at det er en misforståelse, at fuldt selvstyrende kamprobotter allerede bliver anvendt i militære brændpunkter, og at diskussionen om et forbud bygger på »spekulative diskussioner løsrevet fra realiteterne«.
AI-kapløb tager til
Ikke overraskende samtykkede Kina, som tegner til at indtage AI-førertrøjen.
Ifølge folkeretsforskere som Michael N. Schmitt og Jeffrey S. Thurnher, der for få år siden offentliggjorde en artikel om kunstig intelligens i Harvard National Security Journal, kan den forventede udvikling i Kina og Rusland gøre tempoet på slagmarken så højt, at mennesker ikke kan følge med, hvorfor udviklingen ganske enkelt kan tvinge USA til at slippe tøjlerne på kamprobotter.
Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?
Kina ser brugen af AI som nødvendig for at opretholde økonomisk vækst, så mulige FN-restriktioner kan stække landets ambitiøse AI-agenda.
»Kina tror, at påvirkningen fra nye teknologier fortjener objektive, upartiske og fyldestgørende diskussioner. Indtil sådanne diskussioner er foretaget, bør der ikke indgås nogle præmisser eller forudindtagne resultater, som kan obstruere udviklingen af AI-teknologi,« sagde Kinas repræsentant.
Læs også: Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben
FN-regeringsrepræsentanterne nåede ikke til enighed om noget forbud. Gruppen mødes igen i august, men ifølge mange af de forskere, som Ingeniøren har talt med om sagen, har et forbud mod autonome våben lange udsigter. Kinesiske Hin-Yan Liu har tidligere skrevet artikler om autonome våbensystemer i internationale forskningstidsskrifter og er i dag professor ved Juridisk Institut på Københavns Universitet.
»Jeg ser absolut ingen chancer for et proaktivt forbud, omend jeg gerne så det,« siger han.
»Verden bliver formentlig nødt til at opleve et afgørende øjeblik, der destillerer alle de frygtelige ting, autonome våben legemliggør. Og på en måde, som er relaterbar for offentligheden. Hvis der bliver indført et forbud, bliver det på baggrund af en frygtelig ugerning begået af autonome våbensystemer. Jeg håber inderligt, at jeg tager fejl, men mennesker er tilbøjelige til først at lære af deres fejltrin,« siger Hin-Yan Liu.
