AI-udvikling kan gøre Google til et militært mål

Programmørerne får måske ekstra grund til at være årvågne, når det gælder anvendelsesmulighederne i forbindelse med deres koder. Illustration: Google

Klokken 10 om formiddagen sender en MQ-9 Reaper et missil ind ad Sankt Petri Passage 5 i hjertet af indre København. Hjemsted for Googles nordiske afdeling.

Et minut senere bliver forskerne og de studerende ved IT-byen Katrinebjerg i Aarhus vidner til en opvisning i militær machine learning, da en selvstyrende krigsmaskine åbner ild mod Googles danske udviklingskontor i lokalerne i Åbogade 15.

Angrebet ender om formiddagen, da adskillige droner præcisionsbomber Googles AI-laboratorium DeepMind i London og hovedkvarteret Googleplex i Californien.

Det er skrækscenariet for de Google-ansatte, hvis selskabet vil arbejde på kunstig intelligens (AI) til våben-brug. Ifølge professor Peter Lee har både forskere og Google-programmører en god grund udover de etiske overvejelser til at tage afstand fra at medvirke til udvikling af kamprobotter.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

»I henhold til gældende international humanitær ret kan dual use-faciliteter – altså de, der udvikler produkter til både civil og militær anvendelse - blive angrebet under de rette omstændigheder,« siger Peter Lee , til forskningsmediet phys.org.

Han er direktør for Security and Risk Research ved University of Portsmouth, med forskningsspeciale i krig med droner.

Et scenarie, som opridset ovenfor kan opstå i en fremtid, hvor krigsmaskiner på baggrund af kunstig intelligens (AI) egenhændigt udtænker og afgør, hvordan kampen på slagmarken skal vindes. I så er der vel at mærke tale om et scenarie, der ikke nødvendigvis udgør et brud på reglerne om krigsførelse. Det vurderer professor Peter Lee.

Til både civil og militær anvendelse

Han peger på, at brugen af fuldt autonome krigsmaskiner godt nok vil udviske de i forvejen ofte slørede linjer i krig om etisk og juridisk ansvar, men erodere dem helt vil AI ikke.

»I stedet vil ansvaret i stigende grad falde tilbage på andre folk, inklusiv forskere, der arbejder med kunstig intelligens,« siger professor Peter Lee, til forskningsmediet phys.org.

Et springende punkt er, at udviklingen af kunstig intelligens tilhører kategorien dual use og kan benyttes til både civile og militære formål. AI kan anvendes til alt indenfor fantasiens grænser. Til mønstergenkendelse, der lader læger på Rigshospitalet hurtigere spotte indikationer på kræft; eller til droner, som hurtigere kan skelne mellem terrorister og civile.

Læs også: Militære sværvægtere ruster sig til krig på kunstig intelligens

I begge tilfælde vil automatiserede funktioner til at identificere og ramme mål altså kunne spores til designmæssige algoritmevalg afgjort af et menneske. Herhjemme lyder samme pointe fra Iben Yde, ph.d. i folkeret og juridisk rådgiver for Forsvars-kommandoen. Hun skrev for to år siden sin afhandling om regulering af autonome våben.

»Den eneste forskel fra konventionelle våben er, at den menneskelige kontrol bliver forskudt fra realtid til at ligge i programmeringsfasen,« som hun fortalte i Ingeniøren for få dage siden.

Kontorene for de ansatte og systemerne husende Googles AI kan blive et gyldigt mål i krig, mener professor. Illustration: Google

Forskerboykot og protest fra ansatte

Spørgsmålet om dual use er særligt aktuelt, efter at 50 AI-forskere i denne måned indledte et boykot af det prominente sydkoreanske universitet KAIST. Heriblandt var Thomas Bolander, ph.d. og lektor i logik og kunstig intelligens ved DTU Compute.

Anledningen: KAIST havde indledt et samarbejde med den sydkoreanske våbenproducent Hanwha Systems og oprettet et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.

En dag senere kom det frem, at over 3.100 Google-ansatte var ude i et lignende ærinde. De trygler i et brev IT-mastodontens øverste chef, Sundar Pichai om at annullere en opgave om at udvikle en visuel overvågningsmaskine med AI beregnet til dronekrig under Pentagons Project Maven.

Læs også: Google-ansatte til chefen: Stop våben med kunstig intelligens

»Vi mener ikke, at Google bør være indblandet i krigsindustrien. Derfor beder vi om, at Project Maven bliver aflyst, og at Google udfærdiger, offentliggør og håndhæver en klar politik om, at hverken Google eller dets leverandører nogensinde vil bygge krigsteknologi,« lyder det i protestbrevet.

De Google-ansattes protestbrev bør også ses i en større sammenhæng. Rusland, Kina og USA satser alle på AI, men Pentagon lægger ikke skjul på, at de halser efter de konkurrerende militære stormagter.

Krigsgeneralerne i Washington er simpelthen ude at af i stand til at konkurrere med Silicon Valleys gebommerlige løntilbud til AI-eksperterne. Derfor er Pentagon i stedet nødsaget til at forsøge at udlicitere udviklingsarbejdet i stor grad til eksempelvis Google.

Svært af skelne

Der er fortilfælde, hvor civile har været legitime mål. For eksempel blev olieraffinaderiet Pancevo i 1999 under Kosovo-krigen angrebet, fordi det kunne levere brændstof til såvel jugoslaviske tanke som civile biler.

»Med et autonomt drone våben system vil visse linjer af computerkode næsten helt sikkert blive anset som dual use. Virksomheder som Google, deres medarbejdere eller dets systemer kan blive udsat for angreb fra en fjendtlig stat. Hvis f.eks. Googles Project Mavens billedgenkendelse AI-software er indarbejdet i en amerikansk militær autonom drone, kunne Google pludselig affinde sig med at være impliceret i sektoren med dødbringende droner, ligesom enhver anden civil bidragsyder til sådanne dræbende autonome systemer,« siger professor Peter Lee til phys.org.

Gary Schaub, seniorforsker ved Center for Militære Studier på Københavns Universitet offentliggjorde i 2016 en rapport om behovet for retningslinjer for anvendelsen af autonome våben. Han betoner tillige, at det er værd at være opmærksom på dual use-begrebet, når brugen af AI vinder større og større indpas i krig og konflikter.

Læs også: Det store ubesvarede spørgsmål: Hvornår er krigsrobotter autonome?

»Civile kræfter baner i høj grad vejen for denne udvikling. For få uger siden kørte jeg eksempelvis forbi afkørslen ved Highway 101 i Silicon Valley dagen efter, at en Tesla kørte galt ved udfletningen ved en af- og tilkørsel. Vel at mærke et sted, som Tesla oplyser, at selskabets selvkørende biler har passeret over 800.000 gange uden problemer. Den teknologi, som er bag de selvkørende systemer, er ikke nævneværdig forskellig i en Tesla eller en tank, borset fra at en tank er i stand til at skyde på en forhindring i stedet for at kollidere med den,« fortæller Gary Schaub.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

... og erstattede det med "Do the right thing". Og det "helt rigtige" har for Google været lukrative militære kontrakter.

Det nævnte protestbrev fra medarbejderne må derfor skyldes, at selv de ansatte er forblændede af virksomhedens effektive mediepleje. For trods protestbrevet har Google de sidste mange år satset hårdt på store kunder i militærindustrien og hos USAs forsvar.

Brevet om at Google skal holde sig fra krigsindustrien kommer derfor alt for sent. Tak alligevel, hvis brevet kan føre til en oprydning i firmaets etik - men jeg tvivler.

  • 2
  • 0

"For eksempel blev olieraffinaderiet Pancevo i 1999 under Kosovo-krigen angrebet, fordi det kunne levere brændstof til såvel jugoslaviske tanke som civile biler."

Jugoslavien eksisterede ikke i 1999 og mon ikke der er tale om Serbiske Kampvogne..

Oversætter AI virker ikke endnu ?

  • 2
  • 0

Systematic i Århus udvikler patient journal systemer. Og til militære projekter.

De må altså være gyldige mål!

Men hvad er ikke et gyldigt mål egentligt, hvis ALT indirekte kan bruges til at føre krig med?

  • 1
  • 0

Fundet i et kommentarfelt:

I don’t think you understand how the future of warfare will look like. Google working with defence makes perfect sense. Imagine a person on a rooftop mounting his rocket launcher. An overhead drone picks it up, and the AI is smart enough to understand that this is a man, on a rooftop, with a rocket launcher. Thus, he must be a terrorist.

At that point, they start triangulating his position, and using that information, check all the phones in the vicinity. Once they get a phone that matches up with the guy, the AI knows the person and starts scanning the guys history through his phone courtesy of the NSA. Turns out his girlfriend recently dumped him, and now he’s just mad at the world and wants to burn everything down including his own life.

At this point, they can now target said terrorist. With a custom ad, paid by the Pentagon. Just when he is about to pull the trigger, he gets a notification from Tinder. It’s a match! This must be his lucky day. Swiping right at every girl had finally paid off he thinks. So he puts down his rocket launcher for a second and has a look. Oh, it’s a beautiful girl that works for the CIA and is willing to pay informants the big bucks. Tempting, but he goes back for the rocket launcher.

The AI has now figured out he needs more convincing. They hit him with a new notification. He just won an all inclusive cruise to the Caribbean on an exclusive yacht. His Instagram history had revealed that most of the people he follows are models who pose on tropical beaches. It’s a shallow move, but it might just work. Previous A/B testing on males between 21 and 25 years with a yearly income of $35.000 a year had shown that this should have a 61.2% chance of success.

He starts to reconsider: "Ok Google, are cruises included as one of the perks of becoming a martyr?" Google answers: "No, cruises are not offered to those in the afterlife." Finally convinced, he puts down his weapon and walks away. No innocent people had to die today.

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten