Dødbringende og fuldt autonome kamikaze-droner med en eksplosiv ladning kan for første gang have været brugt til at angribe mennesker. Hændelsen, som fandt sted under den libyske borgerkrig sidste år, kan være den første af sin slags.
Det skriver nyhedsmediet New Scientist efter at være kommet i besiddelse af en ekspertrapport fra FN’s Sikkerhedsråd.
»Mens de fulde detaljer om hændelsen, der fandt sted i Libyen, ikke er frigivet, og det er uklart, om der er nogen tilskadekomne, så antyder hændelsen, at det måske allerede er for sent med den internationale indsats for at forbyde dødbringende autonome våben, inden de tages i anvendelse,« skriver nyhedsmediet.
Hændelsen fandt sted i marts 2020. Her skulle en den tyrkisk producerede Kargu-2 quadcopter ifølge FN-rapporten af sig selv have jagtet et menneskeligt mål under en konflikt mellem Libyens regeringstropper og den militære udbryderfraktion Libyan National Army anført af desertøren Khalifa Haftar.
Artiklen fortsætter under videoen:
Læs også: Tyrkisk militær får drone med maskingevær, der kan skyde præcist
Flere droner opererede under konflikten i fuldt autonom tilstand med »høj effektivitet«, som ikke kræver nogen som helst menneskelig kontrol, fremgår det af FN-rapporten, hvor der blandt andet står:
»De dødbringende autonome våbensystemer var programmeret til at angribe mål uden at kræve dataforbindelse mellem operatøren og våben: I virkeligheden er det en ‘affyr, glem og find’-kapacitet.«
Ifølge New Scientist antyder FN-rapporten, at en af dronerne jagtede en soldat under tilbagetrækning.
Læs også: Britisk general: Robotsoldater kan udgøre en fjerdedel af hæren i 2030'erne
Organisation vil have internationalt forbud mod »dræberrobotter«
Det er sandsynligvis første gang, en drone har angrebet mennesker uden at have fået instruktioner på at gøre det, fremgår det af FN-rapporten. Det samme vurderer sikkerhedseksperten, Zak Kellenborn, der specialiserer sig inden for ubemandede våbensystemer og droner, over for New Scientist. Han stiller spørgsmålene:
»Hvor skrøbeligt er systemet til objektgenkendelse? Hvor ofte tager det fejl af mål?«
Hændelsen viser, at der er et »presserende og vigtigt« behov for at diskutere en potentiel regulering af autonome våben, lyder det fra sikkerhedseksperten Jack Watling fra den britiske tænketank inden for forsvar og sikkerhed, Royal United Services Institute (RUSI) til New Scientist.
Læs også: Panel: USA har en moralsk forpligtelse til at udvikle AI-våben
Organisationen Humans Right Watch advarede i august under kampagnen ‘Campaign to Stop Killer Robots’ om, at autonome »dræberrobotter« med kunstig intelligens udgør en trussel mod vores civilisation.
»At fjerne menneskelig kontrol fra anvendelsen af magt betragtes nu bredt som en alvorlig trussel mod menneskeheden, der ligesom klimaforandringer fortjener multilateral handling,« lød det fra Mary Wareham, der er koordinator for kampagnen.
»En international forbudstraktat er en eneste effektive måde at tackle de alvorlige udfordringer, som fuldt autonome våben rejser,« lød det fra hende i forbindelse med udgivelsen af en rapport, som gennemgår 97 landes stillingtagen til spørgsmålet om våbensystemer, der kan angribe uden menneskelig kontrol.
30 lande ønsker ifølge rapporten fuldstændig at forbyde fuldt autonome våbensystemer.
