50 af klodens førende forskere inden for kunstig intelligens (AI) og robotudvikling fik i denne uge held med en usædvanlig boykot.
Forskerne skrinlagde alt samarbejde med det sydkoreanske universitet KAIST, fordi universitetet i samarbejde med den sydkoreanske våbenproducent Hanwha Systems har oprettet et laboratorium til udvikling af autonome AI-våben.
Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter
Gruppen ville først ophæve boykotten, når KAIST forsikrede, at væsentlige beslutninger ikke overlades til den kunstige intelligens, men at våbnene altid vil være underlagt såkaldt meningsfuld menneskelig kontrol.
Efterhånden som droner bliver udstyret med kunstig intelligens, vil bemandede kampfly miste deres relevans og måske forsvinde helt.
KAIST har nu givet efter og givet forskerne et løfte, som de har accepteret.
Spørger man Jürgen Schmidhuber, der betragtes som en af de nulevende stamfædre til AI, er der imidlertid tale om en skrivebordssejr:
»I den vestlige verden er der masser af universiteter og institutioner, som slet ikke er lige så åbenmundede som KAIST, men som er skyldige i samme arbejde,« siger Jürgen Schmidhuber, som blandt andet er professor og direktør for Schweiz’ forskningsinstitut for kunstig intelligens.
AI med fingeren på aftrækkeren
Han regnes for at være en af hovedmændene bag udviklingen inden for neurale netværk, særligt på grund af skabelsen af long short-term memory network (LSTM) som i dag er AI-grundstenene bag eksempelvis Googles talegenkendelse, Apples Siri og Amazons Alexa.
Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?
Jürgen Schmidhuber bryder sig ikke om, at AI bliver anvendt til militære formål, men når anvendelsesmulighederne er så omfattende, mener han, det er omsonst at forsøge sig med indskrænkninger. Eksempelvis med luftige betegnelser såsom meningsfuld menneskelig kontrol.
Selv ikke denne betegnelse er de 50 kritiske forskere bag KAIST-boykotten, der tæller Jürgen Schmidhuber selv, nået til enighed om, men en anden af medunderskriverne, Lucy Suchman, synes alligevel, definitionen har sin berettigelse. Hun er professor ved Lancaster University og medlem af International Committee for Robot Arms Control.
Læs også: Robotterne vil få kontrol over aftrækkeren
Ifølge hende bør vi sondre mellem meningsfuld menneskelig kontrol ud fra følgende trindeling af våbensystemers autonomi:
1: Et menneske udvælger altid målet, før et angreb bliver indledt.
2: AI’en giver en liste over mål, og mennesket vælger, hvad der skal angribes.
3: AI’en udvælger mål, og mennesket skal godkende, før angrebet indledes.
4: AI’en udvælger mål, og mennesket har vetoretten, men i et afgrænset tidsrum inden angreb.
5: AI’en udvælger mål og indleder angreb uden menneskelig inddragelse.
Forståelsen af begrebet meningsfuld menneskelig kontrol er særligt vigtig, fordi definitionen udgør kernen i tvisten, når FN i denne uge drøfter et forbud mod våben, der fungerer fuldstændig autonomt.
AI versus AI
International Committee for Robot Arms Control mener, at niveau 3-5 er uden for meningsfuld menneskelig kontrol. Niveau 1 er mindstekravet, mens niveau 2 kun giver mening, så længe et menneske har mulighed for at godkende robottens angreb på baggrund af en vurdering af, om risikoen for civile tab er proportionel med det militære mål.
At vi så ikke kan komme op på niveau 3 hænger sammen med, at en liste over mål er problematisk, fordi empirien ifølge Lucy Suchman viser, at så er mennesker tilbøjelige til at stirre sig blinde på at eliminere de øverst rangerede mål på listen, dem med flest stjerner på skulderen frem for mål, hvor den samlede virkning ellers er mest gavnlig.
Oveni kommer så de situationer, hvor slagmarken nærmest kun består af AI’er imod hinanden.
Læs også: Vil verdens første dronekrig foregå i Syrien?
»Uforudsigeligheden i, hvordan AI’er egentlig agerer i krig, indebærer den største risiko. Risikoen bliver forstørret mangfoldigt, hvis AI’er står over for hinanden,« siger Lucy Suchman.
Et scenarie, der før eller siden vil blive en realitet, hvis man spørger Richard Aboulafia, vicedirektør i analysevirksomheden Teal Group og rådgiver inden for militær luftfart.
»Efterhånden som droner bliver udstyret med kunstig intelligens, vil bemandede kampfly miste deres relevans og måske forsvinde helt. Det kan ske, når kunstig intelligens har gjort forholdene for farlige til bemandede fly,« siger Richard Aboulafia.
