Militære sværvægtere ruster sig til krig på kunstig intelligens

22. april 2018 kl. 16:00
Militære sværvægtere ruster sig til krig på kunstig intelligens
USA har få kvababbelser over kunstig intelligens i kamp­robotter, Rusland skælder ud på nærmest alle for at misforstå autonomi i kamprobotter, og Kina kæmper mest af alt for at beskytte sine AI-ambitioner. Illustration: Nanna Skytte.
Stormagterne ser stort potentiale i autonome våbensystemer, der kan gøre tempoet på slagmarken så højt, at mennesker ikke kan følge med. FN har netop afsluttet en uges debat uden at blive enige om restriktioner.
Artiklen er ældre end 30 dage

Mængden af krudt og kugler var engang udslagsgivende for, hvem der sejrede eller betalte den ultimative pris på slagmarken. Trumfkortet fremover tegner til at blive kredsløb og kunstig intelligens.

Det indikerer sidste uges FN-­diskussioner i Genève. En mellemstatslig ekspertgruppe og regeringsrepræsentanter drøftede for første gang officielt det, der bliver betegnet som den tredje revolution inden for krigsførelse: anvendelsen af krigsmaskiner, som på baggrund af kunstig intelligens (AI) egenhændigt kan afgøre, hvornår der skal skydes for at dræbe.

Blandt oplægsholderne var en række forskere, der advarede om at overlade aftrækkeren til kunstig intelligens. Anvendelsen af selvstyrende krigsmaskiner risikerer ifølge forskerne at bryde Genèvekonventionens regler om beskyttelse af civilbefolkning i krigstid, fordi AI på nuværende tidspunkt er uforudsigelig.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Artiklen fortsætter efter annoncen

»Teknisk set mangler autonome våben de nødvendige komponenter til, at vi kan være sikre på, at de er i stand til at udvise proportionalitet for at opfylde en opgave i en konflikt. Desuden er deres opførsel uforudsigelig, særligt i scenarier, hvor flere forskellige AI’er interagerer,« lød det fra Lucy Suchman, professor ved Lancaster University, da Ingeniøren talte med hende forud for møderne i Genève.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

USA’s politik for autonome våben er formuleret i direktiv 3000.09, som kræver, at dødelig magtanvendelse er underlagt »passende niveauer af menneskelig vurdering,« men direktivet udløb egentlig sidste år. USA’s fremtidige anvendelse af kamp­robotter skal derfor revurderes under præsident Donald Trump.

I et seks sider langt talepapir fra Genève opstiller USA lutter fordele ved at anvende autonome våben.

Artiklen fortsætter efter annoncen

»Frem for at forsøge at stigmatisere eller bandlyse teknologier, der er på vej inden for autonome våbensystemer, bør nationerne hellere opfordre til innovation, der fremmer formålet med konventionen,« lød det fra USA’s repræsentant.

Aftrækkeren bliver programmeret

Lande som USA, Israel, Storbritannien og Sydkorea råder allerede i dag over skibe eller artillerisystemer baseret på det, man kunne kalde militær machine learning. Uden menneskelig indflydelse er de i stand til at opstøve fjender og indlede angreb. Indtil videre skal mennesket dog stadig give grønt lys i beslutningskæden.

Ruslands præsident, Vladimir Putin, erklærede sidste år, at dén, som formår at være toneangivende inden for AI, vil styre verden.

I Genève fremførte Rusland dog, at de ikke agter at anvende fuldstændig autonome krigsmaskiner. Men Rusland kritiserede samtidig, at FN-bestræbelserne på at regulere brugen af autonome våben med AI efter Ruslands opfattelse er på vej til også at gøre brugen af bevæbnede droner mindre automatisk af misforstået frygt for og forvirring over at afgive for megen menneskelig medbestemmelse.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

»Man glemmer, at maskiners automatiserede funktioner til at identificere og ramme mål er afgjort af et menneske gennem algoritmer,« fremførte Rusland.

Herhjemme lyder samme pointe fra Iben Yde, ph.d. i folkeret og juridisk rådgiver for Forsvars­kommandoen. Hun skrev for to år siden sin afhandling om regulering af autonome våben.

»Den eneste forskel fra konven­tionelle våben er, at den menneskelige kontrol bliver forskudt fra realtid til at ligge i programmerings­fasen,« siger hun til Ingeniøren.

Artiklen fortsætter efter annoncen

Ifølge Rusland forplumrer mange lande drøftelserne, fordi de ikke forstår forskellene på autonome og semi-autonome våben såsom en lang række eksisterende målsøgende missiler. Ruslands udsendte understregede derfor, at det er en misforståelse, at fuldt selvstyrende kamprobotter allerede bliver anvendt i militære brændpunkter, og at diskussionen om et forbud bygger på »spekulative diskussioner løsrevet fra realiteterne«.

AI-kapløb tager til

Ikke overraskende samtykkede Kina, som tegner til at indtage AI-førertrøjen.

Ifølge folkeretsforskere som Michael N. Schmitt og Jeffrey S. Thurnher, der for få år siden offentliggjorde en artikel om kunstig intelligens i Harvard National Security Journal, kan den forventede udvikling i Kina og Rusland gøre tempoet på slagmarken så højt, at mennesker ikke kan følge med, hvorfor udviklingen ganske enkelt kan tvinge USA til at slippe tøjlerne på kamp­robotter.

Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?

Kina ser brugen af AI som nødvendig for at opretholde økonomisk vækst, så mulige FN-restriktioner kan stække landets ambitiøse AI-agenda.

»Kina tror, at påvirkningen fra nye teknologier fortjener objektive, upartiske og fyldestgørende diskussioner. Indtil sådanne diskussioner er foretaget, bør der ikke indgås nogle præmisser eller forudindtagne resultater, som kan obstruere udviklingen af AI-teknologi,« sagde Kinas repræsentant.

Læs også: Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben

FN-regeringsrepræsentanterne nåede ikke til enighed om noget forbud. Gruppen mødes igen i august, men ifølge mange af de forskere, som Ingeniøren har talt med om sagen, har et forbud mod autonome våben lange udsigter. Kinesiske Hin-Yan Liu har tidligere skrevet artikler om autonome våbensystemer i internationale forskningstidsskrifter og er i dag professor ved Juridisk Institut på Københavns Universitet.

»Jeg ser absolut ingen chancer for et proaktivt forbud, omend jeg gerne så det,« siger han.

»Verden bliver formentlig nødt til at opleve et afgørende øjeblik, der destillerer alle de frygtelige ting, autonome våben legemliggør. Og på en måde, som er relaterbar for offentligheden. Hvis der bliver indført et forbud, bliver det på baggrund af en frygtelig ugerning begået af autonome våbensystemer. Jeg håber inderligt, at jeg tager fejl, men mennesker er tilbøjelige til først at lære af deres fejltrin,« siger Hin-Yan Liu.

Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger