Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Flankeret af 50 kolleger forsøger den internationalt anerkendte AI-ekspert Toby Walsh at stoppe universiteterne i at være med til at accelere udviklingen af fuldt autonome våben. Illustration: Nanna Skytte

De drømmer om at bremse eller endnu bedre helt at stoppe kapløbet om udviklingen af fuldt automatiserede våben optimeret og drevet af kunstig intelligens.

Et opsigtsvækkende skridt er nu taget i den kamp. Over 50 af klodens førende forskere indenfor kunstig intelligens (AI) og robotudvikling fra 30 forskellige lande tager i en fælles udtalelse skarp afstand fra Sydkoreas topuniversitet, KAIST.

Forskerne stopper alt samarbejde med universitet på ubestemt tid, fordi KAIST i samarbejde med den sydkoreanske våbenproducent Hanwha Systems har oprettet et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.

Gruppen vil først ophæve boykotten, når KAIST forsikrer, at laboratoriet vil afholde sig fra at udvikle våben, som kan fungere 100 procent autonomt. Der skal altså fortsat være et menneske, som i et eller andet omfang kontrollerer de våben, som KAIST og Hanwha Systems udtænker, kræver forskerne.

Læs også: AI-forsker: Kamprobotter forstår ikke krigens regler

»Udviklingen inden for AI og autonome våben går i en potentiel farlig retning med dette her. Det er vores pligt at tage stilling og forsøge at gøre beslutningstagerne opmærksomme på konsekvenserne,« siger en af de 50 medunderskrivere på boykotten, Thomas Bolander til Ingeniøren.

Han er ph.d. og lektor i logik og kunstig intelligens ved DTU Compute og pointerer, at der er mange ubekendte faktorer ved Hanwha Systems’ universitets-laboratorium.

I sydkoreansk presse har KAIST udlagt samarbejdet, som om der blot er tale om et AI-assisteret navigationssystem til Hanwha Systems’ tanks eller missiler.

Blåstempler våben-kapløb

Uanset om det er tilfældet, betoner Thomas Bolander, at forskernes afstandtagen bør ses i en større kontekst.

I udmeldingen, som er forfattet af en af verdens mest fremtrædende AI-forskere, professor Toby Walsh fra New South Wales University, fremhæves risikoen for, at KAIST blåstempler og sætter turbo på kapløbet om udviklingen af autonome våben. Vel at mærke på et tidspunkt, hvor vi stadig kæmper med at begribe potentialet ved AI.

»Hvis udviklet, vil autonome våben være den tredje revolution inden for krigsførelse. Krig vil blive sat i gang hurtigere og i en skala større end nogensinde før. Despoter og tyraner kan bruge disse våben mod uskyldige og fjerne alle former for etiske begrænsninger. Denne Pandoras æske vil være svær at lukke, hvis den åbnes,« skriver de 50 forskere i fællesudmeldingen, hvor de opfordrer KAIST til at koncentrere deres AI-forskning om at fremme fredelige formål.

Læs også: Dræberrobotter på vagt i Sydkoreas demilitariserede zone

Hanwha Systems er kendt herhjemme, idet selskabets artilleri-system K9 Thunder var en af kandidaterne, da det danske forsvar for år tilbage åbnede op for en udbudsrunde om nyt artilleri.

Internationalt set har Hanwha Systems vakt opsigt, idet selskabet producerer klyngebomber til trods for, at en FN-konvention forbyder fremstillingen og brugen af denne type våben.

Sydkoreas signatur mangler på denne konvention, hvorfor der juridisk set ikke er noget at udsætte på KAIST’s samarbejde med Hanwha Systems.

Professor i computervidenskab og AI ved University of California Berkeley, Stuart Russel, er en af medunderskriverne på boykottet af KAIST. Han har tillige blåstemplet denne fiktive doku-film, der forsøger at visualisere konsekvenserne, såfremt FN ej bandlyser brugen af autonome AI-våben

AI som masseøddelæggelsesvåben

Foruden klyngevåben forbyder FN også brugen af atomvåben samt biologiske og kemiske våben. At autonome våben ikke optræder på listen skyldes, at FN’s 123 medlemslande aldrig har drøftet dem. Det sker dog på mandag efter tre års pression fra Toby Walsh.

Han plæderer for, at AI til våben skal defineres som masseødelæggelsesvåben i FN-systemet. Et forbud som 22 FN-lande allerede støtter.

»Tidligere havde man brug for en hel hær for at føre krig. Du skulle overtale folk til at kæmpe, uddanne dem, give dem mad, udstyr og løn. Det behøver man ikke med AI, der gør det muligt at skalere krigsførelse på en måde, som vi aldrig har set før. En enkelt programmør vil kunne gøre, hvad der tidligere krævede titusinder af mennesker. Der vil ske en revolution inden for krig. Et kæmpe skridt i tempo og effektivitet, som ikke er en god ting. Vi vil ikke være i stand til at forsvare os mod disse våben, hvis de først kommer,« sagde Toby Walsh sidste år i et interview med Ingeniøren.

Her betegnede han sig selv som værende pessimistisk optimist. For ingen kan forudsige den teknologiske fremtid, der er produktet af AI i forhold til vores fantasi og beslutninger i dag.

»Vi forbød ikke kemi og vil heller ikke forbyde AI. Vi forbød brugen af kemiske våben, og jeg håber, vi kan forbyde brugen af AI-våben. Kunstig intelligens vil skabe et bedre samfund og gøre livet lettere på en masse områder. Men som alle andre teknologier kan den enten bruges eller misbruges,« understreger Toby Walsh.

Prototyper gemt væk

Thomas Bolander fra DTU samtykker. Særligt af to årsager.

For det første fordi universitetsforskerne reelt ikke ved, hvor langt fremme udviklingen af AI-våben egentlig er. Simpelthen fordi få ved, hvad der gemmer sig i skufferne af protoyper og semi-automatiserede AI-våben hos private våbenproducenter eller nationale militære udviklingsprojekter hos eksempelvis Kina, Rusland eller USA.

Læs også: Frankrig vil bruge milliarder på AI-kapløb med Kina og USA

For det andet fordi det er det uhyre svært at indtænke alle konsekvensrækker, når det gælder AI-våben.

»Selv hvis de store spillere sagde, at det vil vi ikke røre ved, og de stopper udvikling af fuldt autonome våben, så er der stadig risiko for, at en rig terrorcelle på et tidspunkt udvikler sådanne våben, og så er vi lige vidt og ret beset mere forsvarsløse. På den anden side hvis nationer eller universiteter bistår med udviklingen med sigte på forsvar, så er der sandsynlighed for, at det er en teknologi som terrorister vil få lettere ved at udvikle eller selv få fingre i på et tidspunkt,« siger Thomas Bolander.

Man kan lave alle mulige regler, f.eks. blot et forbud mod at bruge dem mod civile eller civil infrastruktur men det er alt for mange folk ligeglade med. Vi har blot i det sidste år set kemisk krigsførsel i Syrien, nervegas i England, eller blot machetter mod børn i Afrika.

En af de allertidligste historier om mennesker, Adam og Eva, handler om et regelbrud. Det er menneskets natur, det kan ikke stoppes, og på samme måde som atomvåben er vi nød til at have vores egne våben til afskækkelse.

Jeg mener det var Charles Stross som i Accelerando skriver at kunstig intelligens er det næste skridt i evolutionen.
På samme måde som aber udviklede sig til mennesker (Vi avler nogle rigtig kloge børn, så kan de lave alt arbejdet mens vi slapper af eller leger) så er mennesker nu ved det samme igen.

Aberne er endt i reservater, I Accelerando gemmer de få overlevende sig i kolonier omkring røde dværge, som ikke er besværet værd for de nye væsner at omdanne til server farme.

  • 2
  • 3

Du har helt ret man kan ikke lovgive sig ud af det her. Men AI våben opstår ikke af sig selv - heldigvis. Så kloge forstandige forskere verden rundt kan blive enige med hinanden om: Det her har vi ikke brug for og så lade det være. Det vil virke.
Hvis Toby Walsh's mission lykkes er der håb.
De her våben er skabt til asymetrisk krig og en asymetrisk krig kan man ikke vinde, man kan kun holde op med at kæmpe den. Så med mindre man drømmer om den uendelige krig er de her våben ubrugelige.

  • 1
  • 3