De drømmer om at bremse eller endnu bedre helt at stoppe kapløbet om udviklingen af fuldt automatiserede våben optimeret og drevet af kunstig intelligens.
Et opsigtsvækkende skridt er nu taget i den kamp. Over 50 af klodens førende forskere indenfor kunstig intelligens (AI) og robotudvikling fra 30 forskellige lande tager i en fælles udtalelse skarp afstand fra Sydkoreas topuniversitet, KAIST.
Forskerne stopper alt samarbejde med universitet på ubestemt tid, fordi KAIST i samarbejde med den sydkoreanske våbenproducent Hanwha Systems har oprettet et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.
Gruppen vil først ophæve boykotten, når KAIST forsikrer, at laboratoriet vil afholde sig fra at udvikle våben, som kan fungere 100 procent autonomt. Der skal altså fortsat være et menneske, som i et eller andet omfang kontrollerer de våben, som KAIST og Hanwha Systems udtænker, kræver forskerne.
Læs også: AI-forsker: Kamprobotter forstår ikke krigens regler
»Udviklingen inden for AI og autonome våben går i en potentiel farlig retning med dette her. Det er vores pligt at tage stilling og forsøge at gøre beslutningstagerne opmærksomme på konsekvenserne,« siger en af de 50 medunderskrivere på boykotten, Thomas Bolander til Ingeniøren.
Han er ph.d. og lektor i logik og kunstig intelligens ved DTU Compute og pointerer, at der er mange ubekendte faktorer ved Hanwha Systems’ universitets-laboratorium.
I sydkoreansk presse har KAIST udlagt samarbejdet, som om der blot er tale om et AI-assisteret navigationssystem til Hanwha Systems’ tanks eller missiler.
Blåstempler våben-kapløb
Uanset om det er tilfældet, betoner Thomas Bolander, at forskernes afstandtagen bør ses i en større kontekst.
I udmeldingen, som er forfattet af en af verdens mest fremtrædende AI-forskere, professor Toby Walsh fra New South Wales University, fremhæves risikoen for, at KAIST blåstempler og sætter turbo på kapløbet om udviklingen af autonome våben. Vel at mærke på et tidspunkt, hvor vi stadig kæmper med at begribe potentialet ved AI.
»Hvis udviklet, vil autonome våben være den tredje revolution inden for krigsførelse. Krig vil blive sat i gang hurtigere og i en skala større end nogensinde før. Despoter og tyraner kan bruge disse våben mod uskyldige og fjerne alle former for etiske begrænsninger. Denne Pandoras æske vil være svær at lukke, hvis den åbnes,« skriver de 50 forskere i fællesudmeldingen, hvor de opfordrer KAIST til at koncentrere deres AI-forskning om at fremme fredelige formål.
Læs også: Dræberrobotter på vagt i Sydkoreas demilitariserede zone
Hanwha Systems er kendt herhjemme, idet selskabets artilleri-system K9 Thunder var en af kandidaterne, da det danske forsvar for år tilbage åbnede op for en udbudsrunde om nyt artilleri.
Internationalt set har Hanwha Systems vakt opsigt, idet selskabet producerer klyngebomber til trods for, at en FN-konvention forbyder fremstillingen og brugen af denne type våben.
Sydkoreas signatur mangler på denne konvention, hvorfor der juridisk set ikke er noget at udsætte på KAIST’s samarbejde med Hanwha Systems.
Professor i computervidenskab og AI ved University of California Berkeley, Stuart Russel, er en af medunderskriverne på boykottet af KAIST. Han har tillige blåstemplet denne fiktive doku-film, der forsøger at visualisere konsekvenserne, såfremt FN ej bandlyser brugen af autonome AI-våben
AI som masseøddelæggelsesvåben
Foruden klyngevåben forbyder FN også brugen af atomvåben samt biologiske og kemiske våben. At autonome våben ikke optræder på listen skyldes, at FN’s 123 medlemslande aldrig har drøftet dem. Det sker dog på mandag efter tre års pression fra Toby Walsh.
Etik og moral vil fylde stadigt mere, i takt med at maskinerne får mere indflydelse i vores liv, politisk og i samfundet generelt. AI vil blive mere og mere som elektricitet og forsvinde ind i vores liv. Vi vil ikke tænke over det. Folk vil blive stadigt mere bekymrede for Kina, der investerer enorme summer i AI og ikke altid lader sig bremse af samme moralske standarder som i Vesten.Tre vigtige tendenser ifølge Toby Walsh
Han plæderer for, at AI til våben skal defineres som masseødelæggelsesvåben i FN-systemet. Et forbud som 22 FN-lande allerede støtter.
»Tidligere havde man brug for en hel hær for at føre krig. Du skulle overtale folk til at kæmpe, uddanne dem, give dem mad, udstyr og løn. Det behøver man ikke med AI, der gør det muligt at skalere krigsførelse på en måde, som vi aldrig har set før. En enkelt programmør vil kunne gøre, hvad der tidligere krævede titusinder af mennesker. Der vil ske en revolution inden for krig. Et kæmpe skridt i tempo og effektivitet, som ikke er en god ting. Vi vil ikke være i stand til at forsvare os mod disse våben, hvis de først kommer,« sagde Toby Walsh sidste år i et interview med Ingeniøren.
Her betegnede han sig selv som værende pessimistisk optimist. For ingen kan forudsige den teknologiske fremtid, der er produktet af AI i forhold til vores fantasi og beslutninger i dag.
»Vi forbød ikke kemi og vil heller ikke forbyde AI. Vi forbød brugen af kemiske våben, og jeg håber, vi kan forbyde brugen af AI-våben. Kunstig intelligens vil skabe et bedre samfund og gøre livet lettere på en masse områder. Men som alle andre teknologier kan den enten bruges eller misbruges,« understreger Toby Walsh.
Prototyper gemt væk
Thomas Bolander fra DTU samtykker. Særligt af to årsager.
For det første fordi universitetsforskerne reelt ikke ved, hvor langt fremme udviklingen af AI-våben egentlig er. Simpelthen fordi få ved, hvad der gemmer sig i skufferne af protoyper og semi-automatiserede AI-våben hos private våbenproducenter eller nationale militære udviklingsprojekter hos eksempelvis Kina, Rusland eller USA.
Læs også: Frankrig vil bruge milliarder på AI-kapløb med Kina og USA
For det andet fordi det er det uhyre svært at indtænke alle konsekvensrækker, når det gælder AI-våben.
»Selv hvis de store spillere sagde, at det vil vi ikke røre ved, og de stopper udvikling af fuldt autonome våben, så er der stadig risiko for, at en rig terrorcelle på et tidspunkt udvikler sådanne våben, og så er vi lige vidt og ret beset mere forsvarsløse. På den anden side hvis nationer eller universiteter bistår med udviklingen med sigte på forsvar, så er der sandsynlighed for, at det er en teknologi som terrorister vil få lettere ved at udvikle eller selv få fingre i på et tidspunkt,« siger Thomas Bolander.
