Kamprobotterne kommer
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser og accepterer, at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Kamprobotterne kommer

Kampdronen X-47B kan selv lette fra og lande på hangarskibe og kan modificeres til at foretage autonome angreb. Foto: Northrop Grumman

Den 145 ton tunge ubådsjæger glider gennem vandet og scanner havet under sig uden et eneste besætningsmedlem om bord. Finder den et mål, kan Sea Hunter, som det amerikanske forsvars hemmelighedsfulde udviklingsenhed Darpa slap løs sidste år, selv udpege fjendens mest sårbare punkter og indlede et angreb. Det må den bare ikke uden grønt lys fra et menneske. Ikke endnu, i hvert fald.

USA’s politik for autonome våben er formuleret i direktiv 3000.09, som kræver, at dødelig magtanvendelse er underlagt »passende niveauer af menneskelig vurdering«. Det betyder i praksis, at det amerikanske forsvar ikke lader autonome våben angribe uden et menneske in the loop. Det har været et centralt dogme lige så længe, som højteknologiske droner, missilforsvarssystemer og kanontårne har været udstyret med kunstig intelligens (AI).

Men direktiv 3000.09 udløber i år. USA’s regering under præsident Donald Trump skal i næste måned tage stilling til, hvordan det amerikanske forsvars regler for anvendelse af kamp­robotter skal se ud fremover. Og uanset hvordan det næste femårige direktiv falder ud, er det et spørgsmål om tid, før mennesker overlader kontrollen med aftrækkeren til maskinerne, vurderer Richard Aboulafia, vice­direktør i analysevirksomheden Teal Group og rådgiver inden for militær luftfart:

»Rent faktisk tror jeg, det er uundgåeligt, at AI-ånden slipper ud af flasken. Men forhåbentlig under begrænsede forhold og omstændigheder,« siger han til Ingeniøren.

»I løbet af de næste 30 år vil udviklingen inden for autonomi og kunstig intelligens gradvist gøre våbensystemer mere dødbringende. Det kan gøre verden til et mere usikkert sted. Heldigvis tager teknologiske gennembrud som AI altid længere tid at udvikle end forventet. Så måske vil menneskeheden nå at udvikle de nødvendige betingelser, retningslinjer og endda spredningskontrol for at forhindre de værste scenarier,« siger Richard Aboulafia.

Det britiske svar på den amerikanske X-47B er stealthdronen Taranis fra BAE Systems, som gennemførte sin jomfruflyvning i 2013. Den kan både fjernbetjenes og flyve autonomt, og den er udviklet til at angribe mål både på jorden og i luften. Taranis ventes at blive sendt i aktiv tjeneste efter 2030. Foto: BAE

Pentagons 2036-plan

En række offentligt tilgængelige dokumenter viser en konkret forventning hos det amerikanske forsvarsministerium om at anvende autonome våben uden menneskelig indblanding inden for en tidsramme på 20 år. Pentagon skriver i sin 25-årsplan ‘Unmanned Systems Integrated Roadmap 2011-2036’, at man »forventer, at ubemandede systemer problemfrit vil operere side om side med bemandede systemer, med en gradvis reduktion af menneskelig kontrol i den ubemandede del af forsvaret«.

Særligt det amerikanske luftvåben har ambitioner på området. US Air Force forventer ifølge sin egen ‘Unmanned Aircraft Systems Flight Plan 2009-2047’, at kunstig intelligens vil gøre det muligt for autonome systemer at »bestemme og udføre kamphandlinger« uden input fra mennesker. Og her forventer Michael Byers, professor ved University of British Columbia og forfatter til en række bøger om forsvarspolitik, at droner vil overflødiggøre bemandede kampfly inden for levetiden af femtegenerationskampfly som F-35. Blandt de nyeste eksempler er amerikanske Northrop Grummans X-47B, som selv kan lette fra og lande på hangarskibe og kan modificeres til at foretage autonome angreb.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

»Luftkamp vil næsten med sikkerhed blive autonom, kontrolleret af en form for kunstig intelligens, hvilket rejser nogle vanskelige spørgsmål om kontrol og juridisk ansvar,« siger Michael Byers til Ingeniøren.

Derfor bliver udviklingen også mødt med stor bekymring fra mange sider, herunder fra specialister i robotter og kunstig intelligens. Det skabte overskrifter verden over, da 3.100 forskere og fagfolk i et åbent brev til FN i 2015 advarede mod at bevæbne kunstig intelligens. Ikke mindst på grund af de prominente medunderskrivere som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.

Luftkamp vil næsten med sikkerhed blive autonom, kontrolleret af en form for kunstig intelligens, hvilket rejser nogle vanskelige spørgsmål om kontrol og juridisk ansvar.Michael Byers, professor, University of British Columbia

»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb. Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt, og slutmålet for den teknologiske kurs er indlysende: Autonome våben bliver morgendagens Kalashnikov. (…) Det vil kun være et spørgsmål om tid, før våbnene dukker op på det sorte marked og i hænderne på terrorister, diktatorer med ønsker om bedre kontrol med befolkningen eller krigsherrer med ønsker om etnisk udrensning. Autonome våben er ideelle til opgaver som mord, destabilisering af stater, undertrykkelse af borgere og drab på en bestemt etnisk gruppe,« skriver de bekymrede fagfolk, mens Røde Kors og Human Rights Watch opfordrer til helt at forbyde al udvikling og anvendelse af fuldt autonome våben.

Sydkoreanske Samsungs intelligente vagttårn SGR-A1 bevogter i dag den demilitariserede zone mellem Nord- og Sydkorea. SGR-A1 kan selv identificere mål inden for 3,2 kilometer og kan enten reagere med en høj alarm, ikkedræbende gummikugler, et 5.56 x 45 maskingevær eller en granatkaster. Foto: Wikipedia

Skrøbelig amerikansk føring

Hvis USA og andre vestlige lande i de kommende år holder fast i en restriktiv politik for autonome våben, kan lande som Rusland og Kina meget vel overtage førerpositionen på området, siger Peter Roberts, seniorforsker og institutleder ved det anerkendte Royal United Services Institute for Defence and Security Studies i London.

»Den amerikanskledede vestlige doktrin forudser foreløbig ikke, at mennesket tages ud af loopet. Her er fokus på et samarbejde mellem mennesker og maskiner på slagmarken. Den tilgang bygger på monitorering, kontrol og styring af alle handlinger udført af autonome systemer. Den største styrke bliver dermed at kombinere maskinernes kapacitet med den menneskelige evne til at tænke uden for binære, reaktionsbaserede beslutninger og dermed tilføre list og uforudsigelighed,« siger han og peger på dronesværme som eksempel.

Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?

»I kontrast dertil stiller den østlige doktrin – russiske, iranske og kinesiske militære skoler – ingen krav om menneskelig kontrol over autonome systemer, og fokus er på hastighed, antal og præprogrammerede handlinger. Det vil sandsynligvis afføde en hurtigere proces med at få dronesværme i kamp end hos lande, der arbejder under den vest­lige doktrin,« siger Peter Roberts.

Ifølge folkeretsforskere som Michael N. Schmitt og Jeffrey S. Thurnher, der sidste år offentliggjorde en artikel om kunstig intelligens i Harvard National Security Journal, kan udviklingen i andre lande ganske enkelt tvinge Pentagon til at slippe tøjlerne på kamp­robotter. Med den forventede udvikling i Kina og Rusland kan tempoet på slagmarken blive så højt, at hverken mennesker eller et tøjlet våbensystem kan følge med, skriver de to forskere i artiklen, som Ingeniøren også omtalte sidste år.

Amerikanske Sea Hunter er udviklet til autonom ubådsjagt og elektronisk krigsførelse. Skibet skal nu igennem to års testforløb, før det bliver indsat i tjeneste. Foto: Wikipedia

Hvad gør Danmark?

Hvis det amerikanske forsvar, enten af egen drift eller tvunget af de operationelle realiteter, går i retning af mere autonome våbensystemer, rejser det også en række principielle spørgsmål for allierede som Danmark. Og de danske politikere burde allerede nu være i gang med at formulere en politik på området. Det var konklusionen i den første danske rapport om anvendelsen af autonome våben, som Center for Militære Studier ved Københavns Universitet offentliggjorde i februar.

Ud over selve spørgsmålet om at anvende autonome våben i det danske forsvar bliver det nødvendigt at formulere en politik for, hvorvidt allierede styrkers autonome våben må udstationeres på eller passere igennem dansk territorium. Og hvorvidt danske styrker må deltage i militære operationer med autonome våben, konkluderer Center for Militære Studier.

Forslaget om en dansk politik på området blev imidlertid her i Ingeniøren skudt til hjørne af forsvarsminister Claus Hjort Frederiksen (V), som i første omgang vil følge med i det internationale arbejde på området. Det foregår blandt andet i regi af Nato, der lige nu undersøger rammerne for fremtidige interna­tionale operationer.

Læs også: Ny rapport: Danmark mangler politik for autonome våben

Læs også: Hjort: Dansk politik for kamprobotter må vente

Det danske forsvar råder i forvejen over delvist autonome våben i form af missiler og torpedoer af typen fire and forget, som efter affyring selv kan finde frem til deres mål. Det drejer sig om ESSM-luft­forsvarsmissiller, Harpoon Block II-antiskibsmissiler, MU90-antiubådstorpedoer, luft til luft-missilet AIM-120 AMRAAM og luft til jord-missilet AGM 65 Maverick.

Ud over USA er det i dag kun Storbritannien, der har en formuleret politik om anvendelsen af autonome våben. Storbritannien producerer vel at mærke selv autonome våben, og bestemmelsen i det britiske forsvarsministeriums såkaldte ‘Joint Doctrine Note’ fra 2011 er lige så løst formuleret som det amerikanske direktiv, idet Storbritannien »aktuelt ikke har nogen intentioner om at udvikle systemer, der kan operere uden menneskelig indblanding i våbnets kommando- og kontrolkæde«.

FN besluttede sidste år at oprette den indtil videre eneste mellemstatslige ekspertgruppe med regeringsrepræsentanter, der skal diskutere både de teknologiske, militære, juridiske og etiske implikationer ved at udvikle autonome våben.

Den såkaldte Group of Governmental Experts on Lethal Autonomous Weapons Systems har sit første møde i Genève i midten af næste måned.

Det er ikke til at komme udenom at vores AI og dermed også intelligente våbensystemer er i en rivende udvikling. Det er ikke et spørgsmål om de bliver autonome, mere et spørgsmål om, hvornår.

En drone styret af AI vil til en hver tid kunne udmanøvrere et menneske.

En drone skal ikke have systemer til at holde piloten i live, skal ikke have en form som tillader piloten at sidde komfortabelt og generelt er de ikke hæmmet af mennesker. Droner vil kende deres hardware 100% og ikke være begrænset af G påvirkninger, ilt eller andet som vil gøre et bløddyr ukampdygtigt.

Droner kan komme i alle former og tilpasse sig alle typer for kamp og selvom at man kan argumentere for at en person kan sidde på afstand og styre dronen, så vil en autonom drone altid være hurtigere og mere præcis, så længe at den er programmeret tilstrækkeligt godt.

Skynet kommer. Spørgsmålet er blot om at det kommer til at tjene deres mennesker (dem der giver dem kommandoer) eller blive vores alles undergang, enten i forhold til udryddelse eller i forhold til kontrol af folket.

  • 5
  • 0

Hvis man tror, at det værste vil blive dronekrig, så tror jeg man overser muligheden for fra magthavernes side at kontrollere befolkningen. Snart vil en lille gruppe kunne undertrykke hele befolkningen bare ved at have kontrol over dronehæren.

Lad os håbe, at en revolution ikke igen bliver nødvendig.

  • 10
  • 0