Robotterne vil få kontrol over aftrækkeren
more_vert
close
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Robotterne vil få kontrol over aftrækkeren

I 2016 lykkedes det for første gang en AI-computer at nedkæmpe en menneskelig kampflypilot i simulatorøvelser i det amerikanske luftvåbens centrale forskningslaboratorium i Ohio. Illustration: University of Cincinnati

Da det amerikanske forsvarsministerium for få år siden formulerede sin politik angående autonome våben i Direktiv 3000.09, gjorde man ét forhold særligt klart: Autonome våbens brug af dødelig magt skal være underlagt menneskers kontrol.

Pentagons standpunkt i det yderst kontroversielle spørgsmål om fuldt autonome våben er siden blev gentaget af adskillige forsvarsspidser, senest i år af det amerikanske flyvevåbens general Paul Selva, som under en tale i Washington proklamerede, at mennesker altid kommer til at være in the loop hos det amerikanske forsvar. Men spørgsmålet er, hvor fasttømret et standpunkt det er.

»Det tror jeg simpelthen ikke på. Der er jo et våbenkapløb i gang. Så hvis en general siger, at vi beholder mennesket in the loop, så må det opfattes som et politisk udsagn om, hvor man er lige nu, frem for en forudsigelse om fremtiden. Det er han ikke i stand til at forudse med den hastighed, udviklingen har,« siger Thomas Vestskov Terney, konsulent inden for digital strategi og ph.d. i kunstig intelligens.

»Gradvis reduktion af kontrol«

Og efter alt at dømme er det da også et spørgsmål om hvornår, snarere end hvorvidt, det amerikanske forsvarsministerium opgiver sit standpunkt. Pentagon og det amerikanske forsvar formulerer i en række offentligt tilgængelige dokumenter netop en konkret forventning om at anvende autonome våben uden menneskelig indblanding i fremtiden.

I den omfattende 25-årsplan Unmanned Systems Integrated Roadmap FY2011-2036 skriver det amerikanske forsvarsministerium, at man »forventer, at ubemandede systemer problemfrit vil operere side om side med bemandede systemer, med en gradvis reduktion af menneskelig kontrol i den ubemandede del af forsvaret«.

Hos det amerikanske luftvåben, der i årtier har anvendt fjernbetjente kampdroner, forventer man ifølge den såkaldte Unmanned Aircraft Systems Flight Plan 2009-2047, at »fremskridt inden for kunstig intelligens vil gøre det muligt for systemer at bestemme og udføre kamphandlinger inden for de juridiske og politiske rammer uden at behøve input fra mennesker«.

Specifikt om våbensystemer til landjorden beskriver Pentagon tilsvarende i sin Unmanned Ground Systems Roadmap en igangværende indsats for at øge selvstændigheden for UGV’er (Unmanned Ground Vehicles). Med et aktuelt mål om overvåget autonomi, kendt som human on the loop, men med et endeligt mål om fuld autonomi.

Taler med to tunger

Heller ikke Mikkel Willum Johansen, adjunkt og lektor i videnskabs­teori ved Københavns Universitet, køber udmeldingen fra den amerikanske forsvarstop.

»Når en amerikansk general melder ud, at man ikke vil lade robotter trykke på aftrækkeren, taler militæret med to tunger. På den ene side melder man en politisk grænse ud, mens man samtidig sætter gang i den teknologiske udvikling, der skal muliggøre netop den type robotter. Så man kan sætte spørgsmålstegn ved, hvor troværdig den udmelding er,« siger Mikkel Willum Johansen.

Som Ingeniøren tidligere har skrevet, anvender USA allerede i dag våbensystemer med kapaciteten til fuld autonomi, men under opsyn, så mennesker har mulighed for at gribe ind. Med andre ord human on the loop.

Eksempelvis kan kampsystemet Aegis, som udgør it-rygraden i Natos ballistiske missilforsvar, selv identificere og nedskyde fjendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx CIWS-nærforsvarssystem, kan det også nedskyde fjendtlige fly. Den menneskelige operatør kan som udgangspunkt underkende systemets beslutning om at angribe, men Aegis kan også fungere i casualty mode, hvor det antager, at operatøren er forhindret i at betjene systemet, og derfor selv træffer beslutning om at skyde.

For langsom med tøjlede robotter

»Min frygt er, at man bevæger sig ud på en glidebane. For hvis man en dag fravælger at bruge et våbensystem, som kunne have forsvaret et antal amerikanske soldater, som i stedet blev dræbt af Islamisk Stat, så bliver det i et indenrigspolitisk perspektiv svært for politikerne at insistere på, at vi stadig skal have et menneske ind over beslutningen. Vi ved fra historien, at der ikke skal mange bodybags til, for at den politiske vind vender,« siger Thomas Vestskov Terney.

Militærforskere som Michael N. Schmitt og Jeffrey S. Thurnher, som netop har publiceret en artikel om kunstig intelligens i Harvard National Security Journal, peger også på risikoen for, at amerikanske styrker sakker bagud på slagmarken, hvis Pentagon ikke slipper tøjlerne på sine kamprobotter. Efterhånden som lande som Kina og Rusland også udvikler autonome våben, kan tempoet på slagmarken blive så højt, at mennesker ikke længere kan følge med. Og med et tøjlet våbensystem vil man uvægerligt træffe sine beslutninger langsommere end en fjende med et fuldt autonomt våbensystem. Derfor kan de operationelle realiteter tvinge USA til at forkaste sin praksis med at beholde et menneske i beslutningskæden, skriver de.

Daværende forskningschef Werner Dahm fra det amerikanske luftvåben sagde tilbage i 2010 tilsvarende, at det teknologisk har været muligt at lade robotter foretage autonome angreb i lang tid. Og at mennesket inden 2030 vil være blevet kamppladsens svageste led.

Hvem har ansvaret, hvis robotter tager beslutningerne?

Skal robotterne være fremtidens syndebukke?

Er vi ikke der, hvor vi bruger robotter, hvor vi ikke ønsker at være ansvarlige for vore handlinger?

Hvis præsidenten ikke "tør" at trykke på aftrækkeren - så lader han robotten gøre det.

Førhen, har man kun brugt robotter mod veldefinerede mål, og mennesker bestemmer målet, og midlerne. Og mennesker tager ansvaret, for det robotten gør. Gør robotten fejl, så tager producenten ansvaret.

At lade robotter tage ansvaret, for det mennesker gør - vil det ske, og skal vi acceptere det?

Et samfund, der ikke vil tage ansvar for sine handlinger, ligner i mine øjn terrorister der skjuler sig.

  • 5
  • 0

Hvis man vil vide, hvad der sker, når man overlader lærlingen (robotten) styringen, kan man blot læse Goethes digt Troldmandens Lærling fra 1797, lytte til Dukas symfoni med samme titel fra 1897 eller se Disneys Fantasia fra 1937....

Har man ikke mod til at trykke på knappen, er man bare ikke leder!

  • 2
  • 0

Et samfund, der ikke vil tage ansvar for sine handlinger, ligner i mine øjn terrorister der skjuler sig.


Der er ingen der tager ansvaret for handlinger der foregår i krig... Det er sejrherren der skriver historien og dømmer de skyldige... Hvis en præsident giver ordre til at fanger skal betegnes som "ulovlige kombattanter" så har de tilfangetaget krigsfanger pludselig ingen rettigheder... Når det bliver politisk ubehageligt, er der et par uheldige soldater nederst i fødekæden der må tage skraldet...

Om det bliver bedre eller dårligere ved at der indsættes robotter der trykker på aftrækkerne??? For at kunne dømme de skyldige, skal man stadig have en overlegen magt for at kunne tvinge dem til at stå til ansvar... Igen, sejrherren afgøre hvem der er modige helte og hvem der er usle terrorister... Det er ikke deres handling der afgøre dette...

  • 7
  • 0

Hvem har ansvaret, hvis robotter tager beslutningerne?

Skal robotterne være fremtidens syndebukke?

Er vi ikke der, hvor vi bruger robotter, hvor vi ikke ønsker at være ansvarlige for vore handlinger?

I dag er den menige soldat vel heller ikke ansvarlig for de krigshandlinger de bliver beordret til at gøre. Så det er vel stadig magthaverne, der bestemmer at sætte nogle robotter til at gøre dit og dat. Hvis de så finder på deres egne regler er det selvfølgelig noget andet, men umiddelbart ser jeg ikke den store forskel.

Der er dog nok den store forskel, at det er nemmere at sende robotter i krig, da deres forældre ikke har stemmeret, og dermed ikke kan gå mod magthaverne, når ungerne dør.

Det ses allerede i dag med droner, at det er nemt bare at sende sådan en ind over et fremmed land, for skulle den blive skudt ned, så er der ingen ofre.

  • 2
  • 0

I dag er den menige soldat vel heller ikke ansvarlig for de krigshandlinger de bliver beordret til at gøre.


I henhold til krigens love er soldater kun forpligtet til at følge lovlige ordre. De har pligt til at nægte at adlyde ulovlige ordre og befalingsmænd/officerer har forbud mod at udstede ulovlige ordre... Det har aldrig beskyttet en menig soldat at han undskyldte sig med at han bare fulgte ordre... I praksis er det bare mere normalt at folk på jorden bliver dømt for at udfører en ordre, end at man forsøger at dømme dem der gav ordren...

  • 1
  • 0

I dag er den menige soldat vel heller ikke ansvarlig for de krigshandlinger de bliver beordret til at gøre.

Selvfølgelig har den menige soldat sin del af ansvaret for de krigshandlinger, han deltager i. Soldaten kan tænke selvstændig og han kan/skal også sige fra, når handlingerne udmunder i krigsforbrydelser.

Lige denne diskussion opstod efter 2VK og mange soldater er blevet dømt for krigsforbrydelser, som de ville dække sig ind med henvisning til pligten til at aflyd ordre.

Hvor megen forskel kan en robot se og hvem skal tage ansvaret, når maskinen kammer over?

Med den nuværende retsstilling, vil det altid være den øverstbefalende eller regeringen, der har ansvaret. (Alt efter, hvordan kommandovejen er skruet samme i de forskellige lande)

Jeg ser en udvikling, hvor vi forsøger, at fralægger os vort personlige ansvar: selvkørende busser, biler og lastvogne, selvstyrende fly.

Eller lidt mere jordnært og lokalt: ejendomsvurderingen. Computerprogrammer skal løse en opgave, der demokratisk set kun kan udføres af folkevalgte personer.

Det er umoralsk, men hvis man ikke har indsigt i, hvad den 'selvstændighedsudvikling' kan før til og man er udviklingens nyttige idiot/ignorant.

  • 1
  • 0

men problemet er som altid dumme mennesker der er villige til at tjene ondskaben. Tro ikke at problemet er AI. AI sendte ikke USA i krig i Irak på baggrund af løgne. AI fik ikke Fjog Rasmussen til at gøre os medskyldige. AI fik ikke tåber til at stemme på højrefløjen igen denne gang.
Problemet er som altid dumme mennesker.

Ellers var AI blot et potent redskab.
Dem af Jer der stemte højrefløjen ind som var købt af olie og tysk bilindustri så vi fik beskattet elbiler og sænket afgiften på benzinbiler kan kigge i spejlet efter ondskaben.

  • 0
  • 2

Helt ideelt, men næppe realistisk, vil det være, hvis alle krige kunne udkæmpes mellem robotter i et øde område. De stridende parter kunne så indsætte alt det hardware, de kan opbyde, men uden at forårsage invaliditet, død og den sorg, en krig uundgåeligt medfører blandt mennesker.

  • 0
  • 0