Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben

13. april 2018 kl. 10:249
Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben
Nærforsvarssystemet Phalanx CIWS på de amerikanske krigsskibe kan automatisk registrere og nedskyde fjendtlige fly eller missiler, hvis det får grønt lys fra et menneske til at angribe. Illustration: Raytheon.
Ifølge en af ophavsmændene til kunstig intelligens er det omsonst at forsøge at forhindre forskning i kamp­robotter med kunstig intelligens.
Artiklen er ældre end 30 dage

50 af klodens førende forskere inden for kunstig intelligens (AI) og robotudvikling fik i denne uge held med en usædvanlig boykot.

Forskerne skrinlagde alt samarbejde med det sydkoreanske universitet KAIST, fordi universitetet i samarbejde med den sydkoreanske våbenproducent Hanwha Systems har oprettet et laboratorium til udvikling af autonome AI-våben.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Gruppen ville først ophæve boykotten, når KAIST forsikrede, at væsentlige beslutninger ikke overlades til den kunstige intelligens, men at våbnene altid vil være underlagt såkaldt meningsfuld menneskelig kontrol.

Efterhånden som droner bliver udstyret med kunstig intelligens, vil bemandede kampfly miste deres relevans og måske forsvinde helt.
KAIST har nu givet efter og givet forskerne et løfte, som de har accepteret.

Spørger man Jürgen Schmidhuber, der betragtes som en af de nulevende stamfædre til AI, er der imidlertid tale om en skrivebordssejr:

Artiklen fortsætter efter annoncen

»I den vestlige verden er der masser af universiteter og institutioner, som slet ikke er lige så åbenmundede som KAIST, men som er skyldige i samme arbejde,« siger Jürgen Schmidhuber, som blandt andet er professor og direktør for Schweiz’ forskningsinstitut for kunstig intelligens.

Jürgen Schmid­huber betragtes som en af de nu­levende stamfædre til AI og mener ikke, det er muligt at begrænse forskning i brug af AI i våben. Illustration: Privatfoto.

AI med fingeren på aftrækkeren

Han regnes for at være en af hovedmændene bag udviklingen inden for neurale netværk, særligt på grund af skabelsen af long short-term memory network (LSTM) som i dag er AI-grundstenene bag eksempelvis Googles talegenkendelse, Apples Siri og Amazons Alexa.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

Jürgen Schmidhuber bryder sig ikke om, at AI bliver anvendt til militære formål, men når anvendelsesmulighederne er så omfattende, mener han, det er omsonst at forsøge sig med indskrænkninger. Eksempelvis med luftige betegnelser såsom meningsfuld menneskelig kontrol.

Artiklen fortsætter efter annoncen

Selv ikke denne betegnelse er de 50 kritiske forskere bag KAIST-boykotten, der tæller Jürgen Schmidhuber selv, nået til enighed om, men en anden af medunderskriverne, Lucy Suchman, synes alligevel, definitionen har sin berettigelse. Hun er professor ved Lancaster University og medlem af International Committee for Robot Arms Control.

Læs også: Robotterne vil få kontrol over aftrækkeren

Ifølge hende bør vi sondre mellem meningsfuld menneskelig kontrol ud fra følgende trindeling af våbensystemers autonomi:

1: Et menneske udvælger altid målet, før et angreb bliver indledt.

2: AI’en giver en liste over mål, og mennesket vælger, hvad der skal angribes.

3: AI’en udvælger mål, og mennesket skal godkende, før angrebet indledes.

4: AI’en udvælger mål, og mennesket har vetoretten, men i et afgrænset tidsrum inden angreb.

5: AI’en udvælger mål og indleder angreb uden menneskelig inddragelse.

Artiklen fortsætter efter annoncen

Forståelsen af begrebet meningsfuld menneskelig kontrol er særligt vigtig, fordi definitionen udgør kernen i tvisten, når FN i denne uge drøfter et forbud mod våben, der fungerer fuldstændig autonomt.

AI versus AI

International Committee for Robot Arms Control mener, at niveau 3-5 er uden for meningsfuld menneskelig kontrol. Niveau 1 er mindste­kravet, mens niveau 2 kun giver mening, så længe et menneske har mulighed for at godkende robottens angreb på baggrund af en vurdering af, om risikoen for civile tab er proportionel med det militære mål.

At vi så ikke kan komme op på niveau 3 hænger sammen med, at en liste over mål er problematisk, fordi empirien ifølge Lucy Suchman viser, at så er mennesker tilbøjelige til at stirre sig blinde på at eliminere de øverst rangerede mål på listen, dem med flest stjerner på skulderen frem for mål, hvor den samlede virkning ellers er mest gavnlig.

Oveni kommer så de situationer, hvor slagmarken nærmest kun består af AI’er imod hinanden.

Læs også: Vil verdens første dronekrig foregå i Syrien?

»Uforudsigeligheden i, hvordan AI’er egentlig agerer i krig, indebærer den største risiko. Risikoen bliver forstørret mangfoldigt, hvis AI’er står over for hinanden,« siger Lucy Suchman.

Et scenarie, der før eller siden vil blive en realitet, hvis man spørger Richard Aboulafia, vicedirektør i analysevirksomheden Teal Group og rådgiver inden for militær luftfart.

»Efterhånden som droner bliver udstyret med kunstig intelligens, vil bemandede kampfly miste deres relevans og måske forsvinde helt. Det kan ske, når kunstig intelligens har gjort forholdene for farlige til bemandede fly,« siger Richard Aboulafia.

9 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
9
14. april 2018 kl. 19:02

Det er altså lidt bagvendt, at postulere at forskning ikke kan gøres ulovlig! Alene fordi forskning tidligst er en risiko, når den udmønter sig i brugbare resultater og først derefter kan man lovregulerer imod uhensigtsmæssighederne. Det her svarer til at gøre det ulovligt at tænke - det kan man ikke.

8
14. april 2018 kl. 14:29

Ja tilbage til bue og pil. Kaste sten kan vel også blive godkendt, eller gummibolde .

De havde med sikkerhed samme diskution for 30000 år siden , da buen blev opfundet. Det gælder stadigt at man skal være den første og den bedste hvis man vil overleve , den lov ændrer sig ikke. Man kunne dog eventuelt afskaffe terrorister. Hvor svært kan det være.

7
13. april 2018 kl. 21:06

Når politiet rykker ud og SWAT, så er det med livet som indsats ved de fleste operationer, så er det bedre hvis man kan indsætte en robot, hvor man kan tillade sig at lige tage et par sekunder før man trykker på aftrækkeren. De fleste SWAT/betjente vil hellere skyde lidt for meget end lidt for lidt, for undgår vi dermed unødige civile tab pga presset situation, hvor de bare vifter rundt med en pibe, mobil tlf osv.

Kan huske årtier tilbage hvor nogle væmmelige turister blev mejet ned af SAS fordi de viftede rundt med en sollotion.

6
13. april 2018 kl. 17:54

Eisenhower afsluttede sin præsidentid i 1961 med de ligeså kendte ord om the military-industrial complex. I talen står også følgende, der kunne handle om truslen fra forskning i autonome våben: "Akin to, and largely responsible for the sweeping changes in our industrial-military posture, has been the technological revolution during recent decades. We must never let the weight of this combination endanger our liberties or democratic processes. We should take nothing for granted. Only an alert and knowledgeable citizenry can compel the proper meshing of the huge industrial and military machinery of defense with our peaceful methods and goals, so that security and liberty may prosper together."

5
13. april 2018 kl. 17:18

Eisenhover skulle engang have sagt

Resten af talen går rundt om lignende temaer, meget præget af at være skrevet kort efter Stalins død, hvor Ruslands fremtidige holdninger måske var foranderlige. Eisenhower sagde før talen, at "Look, I am tired - and I think everyone is tired - of just plain indictments of the Soviet regime, I think it would be wrong - in fact, asinine - for me to get up before the world now to make another one of those indictments. Instead, just one thing matters. What have we got to offer the world?" Efter talen fulgte intense forhandlinger med Rusland om diverse skridt mod en fredeligere sameksistens, trods meget heftig modstand fra mange - også i USAs magtapparat. Eisenhower forberedte så en rejse til Rusland, hvor en aftale skulle underskrives - men helt tilfældig eller ej, blev USAs spionfly U2 skudt ned over Rusland lige før rejsen, og hele fredsprojektet blev aflyst.

4
13. april 2018 kl. 16:05

Problemet er når terrorister får fingrene i teknologien

Jep. Og forresten også hvem der bestemmer, hvem der er terrorist. Ordet terrorist er jo temmelig diffust. For fremtiden bliver definitionen på en terrorist måske, at det er en, som vores kamprobotter har aflivet/forsøgt at aflive. Tiltroen til maskiners dømmekraft har alle dage været stor.

3
13. april 2018 kl. 13:56

Landminer og søminer, er autonome våben, og udgør et kæmpe problem, selv uden evnen til at tænke og bevæge sig, ved egen kraft.