Bliver kunstig intelligens et masseødelæggelsesvåben?
more_vert
close
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Bliver kunstig intelligens et masseødelæggelsesvåben?

I 2016 lykkedes det for første gang en AI-computer at nedkæmpe en menneskelig kampflypilot i simulatorøvelser i det amerikanske luftvåbens centrale forskningslaboratorium i Ohio. Illustration: University of Cincinnati

»Det spørgsmål, vi må stille os selv, lyder: Hvilke skridt kan vi tage for at forhindre en militær konkurrence, hvis udfald bliver katastrofalt for alle parter?«

Sådan lød advarslen mod en frygtindgydende ny våbenteknologi i et historisk manifest, hvis medunderskrivere omfattede nogle af de mest anerkendte forskere inden for udviklingen af selv samme teknologi. Dengang, i juli 1955, handlede advarslen om atombomben, i et manifest fra 11 videnskabsmænd anført af Bertrand Russell og Albert Einstein.

Seks årtier senere lyder advarslen mod en ny våbenteknologi under hastig udvikling ikke meget anderledes.

»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb. Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt.«

Advarslen mod at anvende kunstig intelligens til militære formål er formuleret i et åbent brev til FN fra 2015, hvis medunderskrivere nok engang omfatter forskere inden for selv samme teknologi. Nærmere bestemt 3.963 forskere inden for robotter og kunstig intelligens, foruden 22.396 medunderskrivere, der omfatter prominente navne som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.

Krig i et hidtil uset omfang

Og spørger man en af specialisterne bag advarslen fra 2015, skal autonome våben ligesom atombomben kategoriseres som et masseødelæggelsesvåben. Han hedder Toby Walsh og er professor i kunstig intelligens ved New South Wales University og formand for organisationen AI Access Foundation, som har til formål at udbrede forkningsresultater indenfor kunstig intelligens.

»Verdenssamfundet bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere krævede en hel hær. Krig bliver opskaleret i et hidtil uset omfang,« fortalte Toby Walsh for få dage siden til Ingeniøren i en artikel om regulering af autonome våben.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

Han er også en af de 50 forskere bag den boykot, der i sidste uge fik det sydkoreanske universitet KAIST til at opgive et samarbejde med den sydkoreanske våbenproducent Hanwha Systems om et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.

Ikke masseødelæggelsesvåben

Spørger man derimod forfatteren til den første danske videnskabelige rapport om autonome våben, rammer Toby Walshs og andre bekymrede fagfolks bestræbelser på at få kategoriseret autonome våben som masseødelæggelsesvåben ved siden af.

»Problemet er, at disse systemer slet ikke er masseødelæggelsesvåben,« siger Gary Schaub, seniorforsker ved Center for Militære Studier på Københavns Universitet. Han offentliggjorde i 2016 en rapport om behovet for retningslinjer for anvendelsen af autonome våben.

Læs også: Ny rapport: Danmark mangler politik for autonome våben

»Masseødelæggelsesvåben er per definition ikke diskriminerende i deres ødelæggelser. Det er den masseødelæggelse, der gør dem unikke. Autonome våben er ikke udiskriminerende. De autonome våben, der bliver udviklet i den nære fremtid, vil være ligesom de konventionelle våben, der anvendes i dag – kampvogne, kampfly, missiler, fregatter og ubåde – bare med en maskine som beslutningstager i stedet for et menneske,« siger Gay Schaub.

Han vurderer dog, ligsom en række andre forskere, som Ingeniøren har talt med til de seneste dages artikler, at det er nødvendigt at opstille retningslinjer for, hvordan den menneskelige kontrol med autonome våbensystemer skal foregå.

Læs også: Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben

Når der i FN tages officielle diskussioner om mulige restriktioner på autonome våbensystemer, som det skete i Genève i sidste uge, sker det indtil videre med udgangspunkt i, at autonome våbensystemer ikke er masseødelæggelsesvåben, nemlig med henblik på en mulig opdatering af FN's konvention om særlige konventionelle våben.

Den har til formål at forbyde eller begrænse brugen af våben, som anses for at være unødigt skadevoldende eller for at ramme i flæng, såsom landminer, lureminer, brandvåben og blindende laservåben, hvorimod listen af masseødelæggelsesvåben i dag kun omfatter kemiske, biologiske, radioaktive og nukleare våben.

Er slet ikke våben

Arbejdet med at opstille juridiske rammer for autonome våbensystemer bliver vanskeliggjort af, at selve våbendelen af systemerne næppe kommer til at adskille sig fra konventionelle våbentyper som missiler og projektiler.

En artikel bragt i ICRC’s internationale forskningstidsskrift i 2012 konkluderede på den baggrund, at autonome våbensystemer end ikke er våben, men at de alene er kendetegnet ved en særlig anvendelse af konventionelle våben. Forfatteren til rapporten, Hin-Yan Liu, er i dag professor ved Juridisk Institut på Københavns Universitet.

»Den afgørende forskel på autonome våbensystemer og andre våben er, at autonome våbensystemer ikke er våben. Våben er redskaber til at begå vold, som kræver en operatør. Det problematiske ved autonome våbensystemer er derfor ikke selve våbnet, men den operatør, der betjener det. Det bliver åbenlyst, når man tager i betragtning, at autonome våbensystemer med al sandsynlighed kommer til at benytte sig af eksisterende, konventionelle våbentyper,« siger Hin-Yan Liu.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

Fuldt autonome våbensystemer, der uden menneskelig indblanding udvælger og angriber deres mål, anvendes endnu ikke i nogen lande. I Danmark benytter Forsvaret i dag delvist autonome våben i form af såkaldte fire and forget-missiler, som efter affyring selv kan finde frem til deres mål.

Sidste uges diskussioner i FN udgjorde det andet møde i den mellemstatslige ekspertgruppe med regeringsrepræsentanter, som FN besluttede at oprette i 2016, og som skal diskutere både de teknologiske, militære, juridiske og etiske implikationer ved at udvikle autonome våben.

Den såkaldte Group of Governmental Experts on Lethal Autonomous Weapons Systems fortsætter diskussionerne ved sit næste møde i august i år.

Alt, hvad der kan bruges, vil blive brugt,
alt, hvad der bliver brugt, kan også misbruges
alt, hvad der kan misbruges, vil blive misbrugt.

  • 8
  • 0

Jeg vil mene at det er en ren akademisk diskussion om definitioner. I praksis vil det at man ikke længere skal sende 10.000'ere eller endog 100.000'ere af soldater afsted i krig, som risikere at komme hjem som invalide eller i en kiste, men i stedet bare kan sende en bunke hardware og software afsted, i sagens natur gøre det meget "lettere" for - særligt populistiske politikere som det jo desværre vrimler med - at starte og føre krig. I sidste ende vil det sandsynligvis betydeligt flere krige, og dermed mere ødelæggelse og flere dræbte .
Prøv fx at tænk på hele stemningen efter fx. 9/11 - hvorledes mange pludselig ikke kun gik ind for tortur, men endog på det nærmeste insisterede på det blev brugt uanset om det var nødvendigt eller ej. Rigtig mange mennesker var (og er stadig) villige til at blæse på de værdier og principper vores samfund ellers er basseret på, og havde ingen kvaler med at vi opførte os fuldstændigt ligeså afstumpet og hensynsløst som de terrorister vi var oppe imod. Det er ærligt talt skræmmende at tænke på hvad der kunne være sket hvis amerikanerne havde haft autonome våben, og endnu mere skræmmende at tænke på hvis samtidigt havde haft en præsident som Trumph.

  • 7
  • 2

Citat: "Verdenssamfundet bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere krævede en hel hær. ..."

Droner, som styres på afstand, fx af soldater der sidder i en container i USA, og styrer droner, der afsøger og skyder mål ned på den anden side af planeten, er en realitet. Det kræver et stort apparat, og droner er kun lidt kendt som enkeltindividers terrorvåben.

Men et autonomt våben, i hænderne på en programmør, kan bruges uden den pris som fx en selvmordsbomber betaler, nemlig sit eget liv.

Lidt opfindsomhed, fantasi, og så har vi et autonomt våben, sat i verden med ansigtsgenkendelse som udslagsgivende for om der skal skydes eller ej, alt sammen på foranledning af en person. Det er ikke særlig rart at tænke på.

  • 4
  • 0

Det bliver lettere for små lande at få adgang til et godt forsvars / angrebsvåben, men nyttelast er dermed også mindre, så det vil ikke udgøre noget masseødelæggelsesvåben i sig selv.

  • 0
  • 0

@ Ebbe

Næsten alle er sig selv nærmest og vil gøre hvad som helst for at undgå at blive dræbt, hvis man ikke parerer ordrer .

Og ja, troende mennesker uden viden, er istand til at gøre de underligste ting. Muslimerne påstår at deres selvmordsbombere kommer direkte ind i himlen, hvis de slår fjender ihjel ved deres handlinger.
Vi kristne er ikke et hår bedre. To kristne fjenders præster velsignede begge deres nations våben og soldater, inden de drager i krig mod hinanden.

  • 2
  • 3

100 procent korrekt.
Og her gælder samme regler for masseødelæggelses våben. At det er afskrækkelsesvåben kommet til kort den dag der er den forkerte kombination af verdens ledere.
Jeg er pessimist.

  • 0
  • 0

Jeg ville foretrække at gå forbi en soldat med våben fremfor et Aegis Combat System.
Altså .... Så længe soldaten ikke hedder Trumph.

  • 0
  • 0

Det tror jeg ikke en døjt på.

I et forsvars autonomiseret samfund, vil første bølge formentlig være robot vs robot, men de efterfølgende angrebs bølger vil (som altid) sikre at skade (ikke nødvendigvis dræbe) så mange fjender som muligt.
Hele ideen med krig, er at øge plejeomkostningerne (af både materiel og personer) hos fjenden til et niveau, hvor fjenden simpelthen ikke længere kan nå at følge med, og dermed må give fortabt.

Det ændrer robot krig ikke nødvendigvis på i positiv retning.

mvh
Kim Bo

  • 0
  • 0

De helt afgørende spørgsmål vedrørende krig drejer sig vel om de skal føres eller ej, og hvis så da under hvilke betingelser. De teknologiske spørgsmål drejer sig om hvordan. Så det er vel, stadig, ikke de tilgængelige teknologier, eller for den sags skyld strategier, der skaber krigene, og det er ikke ingeniørerne der som sådan afgør sagen?

  • 0
  • 1

Jamen så lad dog USA bombe Apple, Google og Microsoft, når de nu er så farlige. De behøver ikke engang at flyve til verdens ende. Det kan ikke engang være svært at skaffe oplysninger om det, for firmaerne praler med det.
Armbrøster prøvede man også at stoppe.
Som sædvanlig vil opfattelsen af teknologien afhænge af hvem der bruger den.
Nogle er altid mere hellige og moralske end (de) andre.

  • 0
  • 0