Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?
more_vert
close
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?

Phalanx på de amerikanske krigsskibe kan automatisk registrere og nedskyde fjendtlige missiler, men er systemet af den grund autonomt? Illustration: Raytheon

Kunstig intelligens har nået et punkt, hvor systemer, der uden menneskelig indblanding er i stand til at udsøge og eliminere personer på baggrund af en bestemte kriterier, er klar til kamp inden for få år. Ikke årtier. Sådan lød advarslen fra over 3.000 specialister i robotter og kunstig intelligens i et åbent brev til FN sidste år.

Indsatsen er ifølge de bekymrede fagfolk høj: Autonome våben er blevet beskrevet som den tredje revolution af krigsførelse efter krudt og atomvåben. Men hvad taler vi om, når det gælder autonomi inden for militære systemer, der kan slå ihjel?

Det amerikanske forsvarsministerium offentliggjorde for få år siden Direktiv 3000.09, der definerer et selvstændigt våbensystem således: Et våben, der, når det er aktiveret, kan vælge at angribe mål uden yderligere indgriben fra en menneskelig operatør. Den definition omfatter autonome våbensystemer under opsyn, som tillader mennesker at stoppe systemet, men som også kan angribe mål uden menneskelig input efter aktivering.

I den akronymglade forsvarssektor bruger man betegnelsen LAWS, lethal autonomous weapon systems. Det er systemer, som kan registrere, spore og angribe en person eller en genstand uden menneskelig indblanding. Et eksempel i tråd med de bekymrede fagfolks advarsel kunne være en bevæbnet drone med software til ansigtsgenkendelse, som er i stand til at finde og eliminere registrerede terrorister, forklarer Mikkel Willum Johansen, adjunkt og lektor i videnskabsteori ved Københavns Universitet.

»Vi er ret tæt på den fornødne teknologi til sådan et system, idet vi efterhånden har de forskellige komponenter: Vi har billedgenkendelsessoftware, vi har førerløse biler med effektiv navigation, og vi har bevæbnede droner. Det er på algoritmerne, vi halter efter: Robotterne skal kunne fungere forudsigeligt og sikkert, uden at vi kan komme i kontakt med dem,« siger han.

En væsentlig skelnen er, at våbensystemer underlagt faste regler, der ikke tillader nogen afvigelser, er automatiserede; ikke autonome. Det påpeger det amerikanske forsvarsministeriums ekspertkomité Defense Science Board i en ny rapport om perspektiverne for autonome våben. For at kunne betegnes som autonomt skal et system have evnen til selvstændigt at indkredse og vælge mellem forskellige handlemuligheder for at opnå sit mål, baseret på sin viden og forståelse af verden, sig selv og situationen, skriver Defense Science Board. Derfor giver det for mange våbensystemers vedkommende mening at tale om enkelte autonome funktioner eller semi-autonome systemer, snarere end egentlige autonome systemer.

Human-in-the-loop: Phalanx CIWS nærforsvarssystem. Kan automatisk registrere og nedskyde fjendtlige missiler, men kræver grønt lys fra et menneske for at angribe. Det kan dermed betegnes som et semi-autonomt våbensystem. Illustration: Raytheon
I 2014 gennemførte US Navy de første øvelser med kampfly i kombination med den nye drone X-47B, som selv kan lette fra og lande på hangarskibe. Den er ikke er designet til at foretage autonome angreb, men kan modificeres til et fuldt autonomt våben, siger forskere. Illustration: US Navy

Hvorfor er det vigtigt?

Efterhånden som udviklingen af intelligente og autonome våbensystemer tager til, møder udviklingen stadig mere intensiv modstand. Blandt de mangeårige kritikere er Stephen Hawking, der ligesom Elon Musk, Apples Steve Wozniak og professor Noam Chomsky er blandt medunderskriverne på sidste års advarsel fra de mange fagfolk. Ikke mindst har organisationen Human Rights Watch advaret mod autonome våben i rapporten Losing Humanity: The Case against Killer Robots.

Det kan der være god grund til. Som Ingeniøren skrev for få dage siden, forstår vi stadig ikke til fulde maskinernes ræsonnement, og manglen på forudsigelighed kan blive afgørende for, at mennesker aldrig kommer til at overlade beslutningen om at anvende militær magt til autonome robotter med kunstig intelligens. Det er vurderingen fra topfolk i det amerikanske forsvar, fra rådgiverne i Defense Science Board og fra flere danske specialister, som Ingeniøren har talt med.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

Debatten forplumres imidlertid af forskellige opfattelser af, hvad et autonomt våbensystem er.

’Nylige erklæringer fra fremtrædende forskere og teknologer forsøger at udbrede idéen om alvorlige konsekvenser på grund af den hastige implementering af kunstig intelligens og autonome robotter. Nogle af de offentliggjorte udsagn er omhyggelige med at benytte præciseringen fuldt autonome våben, men den skelnen kan let gå tabt i kommunikationen. Potentialet for en modreaktion mod anvendelse af ikke-dødelige og semi-autonome systemer til militær brug kan derfor vokse,’ skriver Defense Science Board i sin rapport om autonomi.

Tilsvarende argumenterer de to militærforskere Michael N. Schmitt og Jeffrey S. Thurnher i Harvard National Security Journal for, at debatten om fuldt autonome våbensystemer må holdes adskilt fra våben med ringere grader af autonomi. De påpeger, at Human Rights Watch i sin rapport alene foreslår at forbyde fuldt autonome våbensystemer. Ikke mindst i medierne bliver autonome våbensystemer omtalt som en ensartet gruppe af systemer med samme sæt af risici. Herunder også danske medier, hvor advarslen fra Stephen Hawking og de bekymrede fagfolk blev citeret bredt sidste år.

»Den offentlige debat er – også på dette område – temmelig upræcis. Man er nødt til at skelne mellem fuld og delvis autonomi,« siger professor Henrik Gordon Petersen, som forsker i anvendt robotteknologi ved Syddansk Universitet.

Hvad er så ikke et autonomt våben?

Et eksempel på et automatiseret eller delvis autonome systemer, som kun aktiveres under i forvejen fastsatte omstændigheder, er nærforsvarssystemer til krigsskibe, såkaldte CIWS (Close-In Weapon Systems). Nærforsvarssystemer beskytter mod indgående missiler ved hjælp af en radarstyret maskinkanon og betegnes som et krigsskibs sidste forsvarslinje, hvis fjendtlige missiler slipper forbi skibets luftforsvarsmissiler. CIWS-systemet Phalanx findes i dag på de fleste amerikanske krigsskibe, mens de danske skibe af Absalon-klassen og Iver Huitfeldt-klassen er udstyret med det såkaldte Millennium-system.

Nærforsvarssystemer kan både styres fra operationsrummet og sættes til at reagere selv, hvis de registrerer indgående missiler. Kendetegnende for systemerne er, at de udelukkende bruges til forsvar, og at de er stationære. Systemet angriber ikke uden menneskelig indblanding luftmål, der ikke udgør en direkte trussel mod skibet.

Sådanne semi-autonome våbensystemer betegnes også som systemer med human-in-the-loop og har længe været udbredte. Gruppen omfatter også en lang række fire and forget-våben, som de udbredte missiler Sidewinder, Amraam, Helffire og de nye Brimstone, der efter affyring selv finder og angriber det mål, som en operatør eller kampflypilot har udpeget.

Fuldt autonome våbensystemer, der selv udvælger deres mål, betegnes som human-out-of-the-loop. Det er den slags systemer, Human Rights Watch specifikt advarer imod, og de anvendes ikke i dag.

Human-in-the-loop: Brimstone luft-til-jord-missil. Kan affyres af piloten i en given retning og selv udsøge et mål og identificerer målets mest sårbare punkt. Kan dermed også betegnes som et semi-autonomt våbensystem. Illustration: MDBA
Human-on-the-loop: Aegis Combat System til ballistisk missilforsvar. Kan selv affyre interceptormissiler for at stoppe indgående ballistiske missiler, men kan bremses af menneskelige operatører. Med andre ord et system med kapacitet til fuld autonomi, som dog udelukkende anvendes under opsyn. Illustration: Missile Defense Agency

Allerede i spil

Det betyder ikke, at våbensystemer med kapaciteten til fuld autonomi ikke findes. De anvendes allerede i flere sammenhænge, men de benyttes udelukkende under opsyn, såkaldt human-on-the-loop, hvor mennesker har mulighed for at gribe ind i systemets operationer. Et eksempel er Natos ballistiske missilforsvar, hvori det søbaserede kampsystem Aegis, som binder missilforsvarets radarer og missilbatterier sammen, er i stand til at identificere indgående ballistiske missiler og affyre interceptormissiler for at stoppe dem. Men kampsystemets menneskelige operatører kan vetoe systemets beslutning om at angribe. Tilsvarende er de amerikanske Patriot-batterier og det israelske Iron Dome missilforsvar i stand til at nedskyde missiler uden menneskelig indblanding, men benyttes under menneskeligt opsyn.

Læs også: Sådan skal Natos missilskjold beskytte Europa

’Den eneste substantielle forskel mellem disse og fuldt autonome systemer er, at operationerne nøje overvåges af et menneske, der kan tilsidesætte systemets beslutninger,’ konstaterer Michael N. Schmitt og Jeffrey S. Thurnher i Harvard National Security Journal.

Tilsvarende er en række militære systemer med kunstig intelligens under udvikling med henblik på enten human-in-the-loop eller human-on-the-loop, men med de teknologiske forudsætninger for at agere selvstændigt. Det amerikanske forsvar har i flere år testfløjet den avancerede skibsbaserede drone X-47B, som ved egen hjælp kan lette fra og lande på hangarskibe. Det britiske forsvar udvikler stealth-dronen Taranis, som kan identificere og angribe mål, hvis operatøren giver grønt lys.

Læs også: Tilhører fremtidens luftrum kampfly eller droner?

’Selv om disse systemer endnu ikke er designet til at foretage autonome angreb, er det ikke svært at forestille sig, hvordan sådanne teknologier kan modificeres til at understøtte fuldt autonom målsøgning,’ skriver Schmitt og Thurnher, som begge er professorer ved United States Naval War College.

Nogenlunde samme vurdering lyder fra Henrik Gordon Petersen, om end fuldt autonome våbensystemer har lange udsigter.

»Man vil i praksis oftest indføre forhåndsgivne regler. For eksempel, at en robot kan agere fuldt autonomt indenfor et givent område. Eller at systemet under fuld autonomi kan lede efter målet, men at der ikke kan skydes uden en operatørs tilladelse,« siger han.

»Jeg mener godt, at man i hvert fald i teorien kan forestille sig et fuldstændigt autonomt våbensystem. Med den nuværende viden om kunstig intelligens og autonomi finder jeg det dog urealistisk, at civiliserede lande ville kunne finde på at indføre et sådant system,« siger Henrik Gordon Petersen.

Fuld autonomi betyder ikke fuld autonomi

Men selv indenfor rammerne af de tre grader af autonomi er definitionerne ikke entydige. Nogle fagfolk betegner for eksempel fire and forget-missiler som fuldt autonome våben med mennesker uden for loopet, selv om de affyres af piloter.

I sagens natur er heller ikke et våbensystem, der lever op til nærværende kriterier for fuld autonomi, helt fritaget for menneskelig indblanding. Det påpeger både Schmitt og Thurnher i deres artikel og Defense Science Board i sin rapport. Systemets udvikler eller operatør bliver som minimum nødt til at programmere det til at operere indenfor bestemte parametre, og operatøren træffer den overordnede beslutningen om at indsætte systemet i en given operation; et selvlærende våbensystem bliver trænet af mennesker til et bestemt spektrum af operationer, selvom det også kan fortsætte med at tilegne sig nye kompetencer under selve operationen.

Læs også: Kunstig intelligens overvinder kampflypilot

»På nuværende tidspunkt gælder for stort set al kunstig intelligens, at det kræver masser af menneskelig arbejdskraft. Ved maskinindlæring skal man stadigvæk i stort omfang bruge data, som mennesker har været involveret i at sortere og kategorisere. Derudover sætter menneskerne de overordnede rammer for, hvad systemet skal bruges til, uanset om det er billedgenkendelse, flykontrol, eller brætspil,« siger Thomas Vestskov Terney, konsulent inden for digital strategi og ph.d. i kunstig intelligens.

»Vi er stadig dér, hvor systemerne er virkelig gode under forudsætning af, at vi definerer en så snæver opgave, at det er muligt for systemet selv at afgøre, om det kommer i mål eller ej. Jo mere kompleks den opgave bliver, desto svære er det for systemet at fungere autonomt,« siger Thomas Vestskov Terney.

Allerede eksiterende fuldt autonome våbensystemer, der oftest ikke kan skelne mellem "ven, fjende og udenforstående".
At forsvarministeren og regeringen ikke vil tage stilling, viser bare deres manglende moral og uansvarlighed.
Den der har berordret landminerne / det autonome våben anvendt har ansvaret for resultatet.
Dommene fra Nurenberg i 1946/47 burde gøre dette helt klart selv for Hjort Frederiksen, selvom det ikke står i et regneark!

  • 0
  • 0