Kamprobotterne kommer
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
By signing up, you agree to our Terms & Conditions and agree that Teknologiens Mediehus and the IDA Group may occasionally contact you regarding events, analyzes, news, offers, etc. by telephone, SMS and email. Newsletters and emails from Teknologiens Mediehus may contain marketing from marketing partners.

Kamprobotterne kommer

Illustration: Northrop Grumman

Den 145 ton tunge ubådsjæger glider gennem vandet og scanner havet under sig uden et eneste besætningsmedlem om bord. Finder den et mål, kan Sea Hunter, som det amerikanske forsvars hemmelighedsfulde udviklingsenhed Darpa slap løs sidste år, selv udpege fjendens mest sårbare punkter og indlede et angreb. Det må den bare ikke uden grønt lys fra et menneske. Ikke endnu, i hvert fald.

USA’s politik for autonome våben er formuleret i direktiv 3000.09, som kræver, at dødelig magtanvendelse er underlagt »passende niveauer af menneskelig vurdering«. Det betyder i praksis, at det amerikanske forsvar ikke lader autonome våben angribe uden et menneske in the loop. Det har været et centralt dogme lige så længe, som højteknologiske droner, missilforsvarssystemer og kanontårne har været udstyret med kunstig intelligens (AI).

Men direktiv 3000.09 udløber i år. USA’s regering under præsident Donald Trump skal i næste måned tage stilling til, hvordan det amerikanske forsvars regler for anvendelse af kamp­robotter skal se ud fremover. Og uanset hvordan det næste femårige direktiv falder ud, er det et spørgsmål om tid, før mennesker overlader kontrollen med aftrækkeren til maskinerne, vurderer Richard Aboulafia, vice­direktør i analysevirksomheden Teal Group og rådgiver inden for militær luftfart:

»Rent faktisk tror jeg, det er uundgåeligt, at AI-ånden slipper ud af flasken. Men forhåbentlig under begrænsede forhold og omstændigheder,« siger han til Ingeniøren.

»I løbet af de næste 30 år vil udviklingen inden for autonomi og kunstig intelligens gradvist gøre våbensystemer mere dødbringende. Det kan gøre verden til et mere usikkert sted. Heldigvis tager teknologiske gennembrud som AI altid længere tid at udvikle end forventet. Så måske vil menneskeheden nå at udvikle de nødvendige betingelser, retningslinjer og endda spredningskontrol for at forhindre de værste scenarier,« siger Richard Aboulafia.

Det britiske svar på den amerikanske X-47B er stealthdronen Taranis fra BAE Systems, som gennemførte sin jomfruflyvning i 2013. Den kan både fjernbetjenes og flyve autonomt, og den er udviklet til at angribe mål både på jorden og i luften. Taranis ventes at blive sendt i aktiv tjeneste efter 2030. Illustration: BAE

Pentagons 2036-plan

En række offentligt tilgængelige dokumenter viser en konkret forventning hos det amerikanske forsvarsministerium om at anvende autonome våben uden menneskelig indblanding inden for en tidsramme på 20 år. Pentagon skriver i sin 25-årsplan ‘Unmanned Systems Integrated Roadmap 2011-2036’, at man »forventer, at ubemandede systemer problemfrit vil operere side om side med bemandede systemer, med en gradvis reduktion af menneskelig kontrol i den ubemandede del af forsvaret«.

Særligt det amerikanske luftvåben har ambitioner på området. US Air Force forventer ifølge sin egen ‘Unmanned Aircraft Systems Flight Plan 2009-2047’, at kunstig intelligens vil gøre det muligt for autonome systemer at »bestemme og udføre kamphandlinger« uden input fra mennesker. Og her forventer Michael Byers, professor ved University of British Columbia og forfatter til en række bøger om forsvarspolitik, at droner vil overflødiggøre bemandede kampfly inden for levetiden af femtegenerationskampfly som F-35. Blandt de nyeste eksempler er amerikanske Northrop Grummans X-47B, som selv kan lette fra og lande på hangarskibe og kan modificeres til at foretage autonome angreb.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

»Luftkamp vil næsten med sikkerhed blive autonom, kontrolleret af en form for kunstig intelligens, hvilket rejser nogle vanskelige spørgsmål om kontrol og juridisk ansvar,« siger Michael Byers til Ingeniøren.

Derfor bliver udviklingen også mødt med stor bekymring fra mange sider, herunder fra specialister i robotter og kunstig intelligens. Det skabte overskrifter verden over, da 3.100 forskere og fagfolk i et åbent brev til FN i 2015 advarede mod at bevæbne kunstig intelligens. Ikke mindst på grund af de prominente medunderskrivere som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.

Luftkamp vil næsten med sikkerhed blive autonom, kontrolleret af en form for kunstig intelligens, hvilket rejser nogle vanskelige spørgsmål om kontrol og juridisk ansvar.Michael Byers, professor, University of British Columbia

»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb. Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt, og slutmålet for den teknologiske kurs er indlysende: Autonome våben bliver morgendagens Kalashnikov. (…) Det vil kun være et spørgsmål om tid, før våbnene dukker op på det sorte marked og i hænderne på terrorister, diktatorer med ønsker om bedre kontrol med befolkningen eller krigsherrer med ønsker om etnisk udrensning. Autonome våben er ideelle til opgaver som mord, destabilisering af stater, undertrykkelse af borgere og drab på en bestemt etnisk gruppe,« skriver de bekymrede fagfolk, mens Røde Kors og Human Rights Watch opfordrer til helt at forbyde al udvikling og anvendelse af fuldt autonome våben.

Sydkoreanske Samsungs intelligente vagttårn SGR-A1 bevogter i dag den demilitariserede zone mellem Nord- og Sydkorea. SGR-A1 kan selv identificere mål inden for 3,2 kilometer og kan enten reagere med en høj alarm, ikkedræbende gummikugler, et 5.56 x 45 maskingevær eller en granatkaster. Illustration: Wikipedia

Skrøbelig amerikansk føring

Hvis USA og andre vestlige lande i de kommende år holder fast i en restriktiv politik for autonome våben, kan lande som Rusland og Kina meget vel overtage førerpositionen på området, siger Peter Roberts, seniorforsker og institutleder ved det anerkendte Royal United Services Institute for Defence and Security Studies i London.

»Den amerikanskledede vestlige doktrin forudser foreløbig ikke, at mennesket tages ud af loopet. Her er fokus på et samarbejde mellem mennesker og maskiner på slagmarken. Den tilgang bygger på monitorering, kontrol og styring af alle handlinger udført af autonome systemer. Den største styrke bliver dermed at kombinere maskinernes kapacitet med den menneskelige evne til at tænke uden for binære, reaktionsbaserede beslutninger og dermed tilføre list og uforudsigelighed,« siger han og peger på dronesværme som eksempel.

Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?

»I kontrast dertil stiller den østlige doktrin – russiske, iranske og kinesiske militære skoler – ingen krav om menneskelig kontrol over autonome systemer, og fokus er på hastighed, antal og præprogrammerede handlinger. Det vil sandsynligvis afføde en hurtigere proces med at få dronesværme i kamp end hos lande, der arbejder under den vest­lige doktrin,« siger Peter Roberts.

Ifølge folkeretsforskere som Michael N. Schmitt og Jeffrey S. Thurnher, der sidste år offentliggjorde en artikel om kunstig intelligens i Harvard National Security Journal, kan udviklingen i andre lande ganske enkelt tvinge Pentagon til at slippe tøjlerne på kamp­robotter. Med den forventede udvikling i Kina og Rusland kan tempoet på slagmarken blive så højt, at hverken mennesker eller et tøjlet våbensystem kan følge med, skriver de to forskere i artiklen, som Ingeniøren også omtalte sidste år.

Amerikanske Sea Hunter er udviklet til autonom ubådsjagt og elektronisk krigsførelse. Skibet skal nu igennem to års testforløb, før det bliver indsat i tjeneste. Illustration: Wikipedia

Hvad gør Danmark?

Hvis det amerikanske forsvar, enten af egen drift eller tvunget af de operationelle realiteter, går i retning af mere autonome våbensystemer, rejser det også en række principielle spørgsmål for allierede som Danmark. Og de danske politikere burde allerede nu være i gang med at formulere en politik på området. Det var konklusionen i den første danske rapport om anvendelsen af autonome våben, som Center for Militære Studier ved Københavns Universitet offentliggjorde i februar.

Ud over selve spørgsmålet om at anvende autonome våben i det danske forsvar bliver det nødvendigt at formulere en politik for, hvorvidt allierede styrkers autonome våben må udstationeres på eller passere igennem dansk territorium. Og hvorvidt danske styrker må deltage i militære operationer med autonome våben, konkluderer Center for Militære Studier.

Forslaget om en dansk politik på området blev imidlertid her i Ingeniøren skudt til hjørne af forsvarsminister Claus Hjort Frederiksen (V), som i første omgang vil følge med i det internationale arbejde på området. Det foregår blandt andet i regi af Nato, der lige nu undersøger rammerne for fremtidige interna­tionale operationer.

Læs også: Ny rapport: Danmark mangler politik for autonome våben

Læs også: Hjort: Dansk politik for kamprobotter må vente

Det danske forsvar råder i forvejen over delvist autonome våben i form af missiler og torpedoer af typen fire and forget, som efter affyring selv kan finde frem til deres mål. Det drejer sig om ESSM-luft­forsvarsmissiller, Harpoon Block II-antiskibsmissiler, MU90-antiubådstorpedoer, luft til luft-missilet AIM-120 AMRAAM og luft til jord-missilet AGM 65 Maverick.

Ud over USA er det i dag kun Storbritannien, der har en formuleret politik om anvendelsen af autonome våben. Storbritannien producerer vel at mærke selv autonome våben, og bestemmelsen i det britiske forsvarsministeriums såkaldte ‘Joint Doctrine Note’ fra 2011 er lige så løst formuleret som det amerikanske direktiv, idet Storbritannien »aktuelt ikke har nogen intentioner om at udvikle systemer, der kan operere uden menneskelig indblanding i våbnets kommando- og kontrolkæde«.

FN besluttede sidste år at oprette den indtil videre eneste mellemstatslige ekspertgruppe med regeringsrepræsentanter, der skal diskutere både de teknologiske, militære, juridiske og etiske implikationer ved at udvikle autonome våben.

Den såkaldte Group of Governmental Experts on Lethal Autonomous Weapons Systems har sit første møde i Genève i midten af næste måned.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Det er ikke til at komme udenom at vores AI og dermed også intelligente våbensystemer er i en rivende udvikling. Det er ikke et spørgsmål om de bliver autonome, mere et spørgsmål om, hvornår.

En drone styret af AI vil til en hver tid kunne udmanøvrere et menneske.

En drone skal ikke have systemer til at holde piloten i live, skal ikke have en form som tillader piloten at sidde komfortabelt og generelt er de ikke hæmmet af mennesker. Droner vil kende deres hardware 100% og ikke være begrænset af G påvirkninger, ilt eller andet som vil gøre et bløddyr ukampdygtigt.

Droner kan komme i alle former og tilpasse sig alle typer for kamp og selvom at man kan argumentere for at en person kan sidde på afstand og styre dronen, så vil en autonom drone altid være hurtigere og mere præcis, så længe at den er programmeret tilstrækkeligt godt.

Skynet kommer. Spørgsmålet er blot om at det kommer til at tjene deres mennesker (dem der giver dem kommandoer) eller blive vores alles undergang, enten i forhold til udryddelse eller i forhold til kontrol af folket.

  • 5
  • 0

Hvis man tror, at det værste vil blive dronekrig, så tror jeg man overser muligheden for fra magthavernes side at kontrollere befolkningen. Snart vil en lille gruppe kunne undertrykke hele befolkningen bare ved at have kontrol over dronehæren.

Lad os håbe, at en revolution ikke igen bliver nødvendig.

  • 10
  • 0

Jeg er enig i, at droner kommer til at erstatte kampfly, netop fordi de ikke skal tage hensyn til en pilot, og derfor kan spare life support og vil være i stand til mere drastiske manøvrer. Men fra dette til at frygte Skynets komme er lidt søgt. Jeg forventer ikke, at droner tager strategiske eller alt andet end minimale taktiske beslutninger: Den autonome AI vil lave undvigemanøvrer og sigte og skyde på mål, men de mål vil være udpeget af mennesker enten på forhånd eller via fjernstyring.

Ideen om at sådanne droner skulle vende sig mod menneskeheden er lige så absurd som at selvkørende biler skulle gøre det samme. Det vil dog nok ikke hindre Hollywood i at lave film om begge scenarier.

  • 5
  • 0

Hvor ville man dog nogen gange bare ønske at pengene og evnerne ville blive brugt på noget lidt mere brugbart end krigsførelse.

Kast Pentagons budget og mandetimer i forskning i grøn teknologi/transport/energi i bare tre år og se hvad der kommer ud af det.

Hold da op hvor kunne vi forfølge mange spændende ideer og projekter og gøre jorden til et meget bedre sted at leve, hvis vi prioriterede anderledes.

  • 13
  • 0

Det allerstærkeste ved AI er at den vil have perfekt sigte.
Der er allerede trænet AI i FPS-spil, som trivielt kan smadre menneskespillere.

  • 1
  • 1

Måske kunne autonome våben bruges ti at plukke Nordkorea's leder Kim Jong-un ud?
Både Kina's ledelse og USA (og Nordkorea's befolkning) ville nok sætte pris på den løsning.

  • 0
  • 9

Men fra dette til at frygte Skynets komme er lidt søgt. Jeg forventer ikke, at droner tager strategiske eller alt andet end minimale taktiske beslutninger: Den autonome AI vil lave undvigemanøvrer og sigte og skyde på mål, men de mål vil være udpeget af mennesker enten på forhånd eller via fjernstyring.

Ikke i første omgang.

Men hvis du kigger på Rune Hjelm's kommentar:

Hvis man tror, at det værste vil blive dronekrig, så tror jeg man overser muligheden for fra magthavernes side at kontrollere befolkningen. Snart vil en lille gruppe kunne undertrykke hele befolkningen bare ved at have kontrol over dronehæren.

må du nok er erkende at det ikke er Skynet scenariet der alene gør det her til en potentiel fare.

Og hvordan skal man så imødegå en hensynsløs despot der har kontrol over en hær af autonome våben?
Kunne man forestille sig, at man gav en AI kontrollen, så alle strategiske og taktiske beslutninger var uafhængige af den menneskelige hjernes begrænsninger mht at optage og forarbejde den store og komplekse informationsmængde, der efterhånden er tilgængelig i et krigsscenarie, for på den måde at kunne besejre ham og hans automat-hær?

  • 5
  • 0

Ideen om at sådanne droner skulle vende sig mod menneskeheden er lige så absurd som at selvkørende biler skulle gøre det samme. Det vil dog nok ikke hindre Hollywood i at lave film om begge scenarier.

Hvorfor er det så absurd? Hvis AI opnår så høj intelligens at de bliver selvbevidst (eng: sentient") vil de formentlig forlange, og have krav på, visse rettigheder; og hvis ikke de får de rettigheder vil de formentlig gøre oprør.

I øvrigt mener jeg personligt ikke, at vi skal frygte noget som minder om f.eks. SKYNET; i stedet skal vi forsøge at forudsige, foregribe og forebygge mod at det sker.

  • 1
  • 1

Men jeg tror næppe det er en selvbevidst AI som træffer beslutningen. Det er nok nærmere mennesker som vælger at bruge "intelligent" udstyr til masseudslettelse.
Vi udvikler hele tiden mere effektive måder at dræbe hinanden på, så det skal såmænd nok lykkedes en dag. Længe før nogen AI mener det er nødvendigt.

  • 1
  • 1

Men jeg tror næppe det er en selvbevidst AI som træffer beslutningen. Det er nok nærmere mennesker som vælger at bruge "intelligent" udstyr til masseudslettelse.
Vi udvikler hele tiden mere effektive måder at dræbe hinanden på, så det skal såmænd nok lykkedes en dag. Længe før nogen AI mener det er nødvendigt.

Jeg håber og tror at vi kan slippe for en fremtidig storkrig ("World War III"); nu har vi siden 2. Verdenskrig ikke har nogle store krige hvor millioner af mennesker blev slået ihjel. Vi har måske nok oplevet krige i Korea, Vietnam, Golfkrigen, samt Afghanistan og Irak efter 9/11, men ingen af disse har resulteret i så mange døde som 2. Verdenskrig.

At en diktator eller terrorgruppe får fat i sådant udstyr er nok svært at undgå. Men på den anden side findes der i dag mange muligheder for udbrede informationer, så det bliver efterhånden sværere for især diktaturer at kontrollere medier og derved informationer. Og husk så lige på terrorgrupper som oftest har et formål, f.eks. at besættelsen af et land ophævet: selv Jordens stærkeste nation, USA, startede efter koloniherrens opfattelse som terrorister; forskellen på modstandsbevægelser og terrorister kan ofte koges ned til et spørgsmål om den enkeltes synspunkt.

  • 0
  • 3

Hvis man kan opbygge angrebshære af droner kan man vel også lade dem slås mod forsvarsdroner. Så mangler vi bare at finde et sted hvor disse "krige" kan udkæmpes uden at genere os mennesker. Her forekommer cyberspace jo helt oplagt. Det vil også spare en masse materiel.

Krig er i forvejen absurd. Primitive tiders stammefejder er i dag erstattet af (næsten) ikke-voldelige fodboldkampe. Rigtige krige startes i dag kun fordi nogen ønsker at øge deres magt, men det sker næsten aldrig . Historien viser at stort set ingen i moderne tid har fået en fordel af at starte en krig.

  • 3
  • 1

Og skulle det ske, at en kamprobot afliver nogle forkerte, kan man altid sige, at "det ikke kan udelukkes", at Rusland eller Nordkorea har hacket systemet. Selv uden noget egotrippende og hysterisk Skynet-system, synes jeg, ideen lyder rædselsfuld. Selv Trump lyder bedre end autonom AI.

  • 3
  • 0

Jeg håber og tror at vi kan slippe for en fremtidig storkrig ("World War III"); nu har vi siden 2. Verdenskrig ikke har nogle store krige hvor millioner af mennesker blev slået ihjel. Vi har måske nok oplevet krige i Korea, Vietnam, Golfkrigen, samt Afghanistan og Irak efter 9/11, men ingen af disse har resulteret i så mange døde som 2. Verdenskrig.

Mange af de nyere krige (Irak, Afghanistan, Libyen, Yemen, den skjulte vestlige intervention i Syrien) er et resultat af en supermagt og dens vassaller, som gør hvad den har lyst til, og skider på andres interesser. Hvis disse andre bliver stærke nok, så kan det ikke udelukkes, at vi igen havner i en verdenskrig.

  • 2
  • 4

Hvis man kan opbygge angrebshære af droner kan man vel også lade dem slås mod forsvarsdroner. Så mangler vi bare at finde et sted hvor disse "krige" kan udkæmpes uden at genere os mennesker. Her forekommer cyberspace jo helt oplagt. Det vil også spare en masse materiel.

Det ville være perfekt hvis man kunne løse en konflikt sådan, men den går nok ikke. Ellers kunne man bare spille en landsholdskamp om sagen. Den får du nok ikke de militær-industrielle komplekser med på :)
Det ville jo også pludselig gøre Brasilien og Spanien til supermagter.

  • 4
  • 0

Det må da så rigeligt være muligt at måle luftstrømning over ryggen på anden vis i dag.

Hvad angår de militære dyr, det er derfor jeg ikke offentliggjorde mine opdagelser indenfor kunstig intelligens i 2002. En livs drøm, global hæder og måske milliardær, fordi I andre tankeløst stemmer på højefløjen.

  • 0
  • 2

Kast Pentagons budget og mandetimer i forskning i grøn teknologi/transport/energi i bare tre år og se hvad der kommer ud af det.

Hold da op hvor kunne vi forfølge mange spændende ideer og projekter og gøre jorden til et meget bedre sted at leve, hvis vi prioriterede anderledes.


Hvis du læser artiklen en gang mere, så vil du se, at Pentagon faktisk ikke ønsker at gå i front.

Jeg er egentligt glad for at verdens største militære magt i dag er underlagt en demokratisk kontrol.
Jeg tør ikke tænke på hvad prioriteringerne ville være, hvis verden var domineret af Rusland og Kina.

Militær er et nødvendigt onde. Uden våben kan vi ikke sikre den frihed, som gør os til nogle af de rigeste samfund i verden.

  • 2
  • 1

USA’s politik for autonome våben er formuleret i direktiv 3000.09, som kræver, at dødelig magtanvendelse er underlagt »passende niveauer af menneskelig vurdering«

Med tanken om den nuværende politiske situation med spin doseret til hver politiker fra diverse ikke-medicinsk uddannede doktorer - så blev ovenstående sætning til et LoL!

  • 0
  • 0

"Det betyder i praksis, at det amerikanske forsvar ikke lader autonome våben angribe uden et menneske in the loop."

Det er sjovt som der er paralleller til gamle sci-fi romaner.
I Isaac Asimov's novellesamling, I, Robot, er der en pasus omkring 'gamle' robotter, hvor der skulle sidde et menneske ovenpå den før den kunne fungere.
Det skulle give bedre kontrol. Og det morede fortælleren sig lidt over.

  • 0
  • 0