Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
By signing up, you agree to our Terms & Conditions and agree that Teknologiens Mediehus and the IDA Group may occasionally contact you regarding events, analyzes, news, offers, etc. by telephone, SMS and email. Newsletters and emails from Teknologiens Mediehus may contain marketing from marketing partners.

Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben

Illustration: Raytheon

50 af klodens førende forskere inden for kunstig intelligens (AI) og robotudvikling fik i denne uge held med en usædvanlig boykot.

Forskerne skrinlagde alt samarbejde med det sydkoreanske universitet KAIST, fordi universitetet i samarbejde med den sydkoreanske våbenproducent Hanwha Systems har oprettet et laboratorium til udvikling af autonome AI-våben.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Gruppen ville først ophæve boykotten, når KAIST forsikrede, at væsentlige beslutninger ikke overlades til den kunstige intelligens, men at våbnene altid vil være underlagt såkaldt meningsfuld menneskelig kontrol.

Efterhånden som droner bliver udstyret med kunstig intelligens, vil bemandede kampfly miste deres relevans og måske forsvinde helt.

KAIST har nu givet efter og givet forskerne et løfte, som de har accepteret.

Spørger man Jürgen Schmidhuber, der betragtes som en af de nulevende stamfædre til AI, er der imidlertid tale om en skrivebordssejr:

»I den vestlige verden er der masser af universiteter og institutioner, som slet ikke er lige så åbenmundede som KAIST, men som er skyldige i samme arbejde,« siger Jürgen Schmidhuber, som blandt andet er professor og direktør for Schweiz’ forskningsinstitut for kunstig intelligens.

Jürgen Schmid­huber betragtes som en af de nu­levende stamfædre til AI og mener ikke, det er muligt at begrænse forskning i brug af AI i våben. Illustration: Privatfoto

AI med fingeren på aftrækkeren

Han regnes for at være en af hovedmændene bag udviklingen inden for neurale netværk, særligt på grund af skabelsen af long short-term memory network (LSTM) som i dag er AI-grundstenene bag eksempelvis Googles talegenkendelse, Apples Siri og Amazons Alexa.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

Jürgen Schmidhuber bryder sig ikke om, at AI bliver anvendt til militære formål, men når anvendelsesmulighederne er så omfattende, mener han, det er omsonst at forsøge sig med indskrænkninger. Eksempelvis med luftige betegnelser såsom meningsfuld menneskelig kontrol.

Selv ikke denne betegnelse er de 50 kritiske forskere bag KAIST-boykotten, der tæller Jürgen Schmidhuber selv, nået til enighed om, men en anden af medunderskriverne, Lucy Suchman, synes alligevel, definitionen har sin berettigelse. Hun er professor ved Lancaster University og medlem af International Committee for Robot Arms Control.

Læs også: Robotterne vil få kontrol over aftrækkeren

Ifølge hende bør vi sondre mellem meningsfuld menneskelig kontrol ud fra følgende trindeling af våbensystemers autonomi:

1: Et menneske udvælger altid målet, før et angreb bliver indledt.

2: AI’en giver en liste over mål, og mennesket vælger, hvad der skal angribes.

3: AI’en udvælger mål, og mennesket skal godkende, før angrebet indledes.

4: AI’en udvælger mål, og mennesket har vetoretten, men i et afgrænset tidsrum inden angreb.

5: AI’en udvælger mål og indleder angreb uden menneskelig inddragelse.

Forståelsen af begrebet meningsfuld menneskelig kontrol er særligt vigtig, fordi definitionen udgør kernen i tvisten, når FN i denne uge drøfter et forbud mod våben, der fungerer fuldstændig autonomt.

AI versus AI

International Committee for Robot Arms Control mener, at niveau 3-5 er uden for meningsfuld menneskelig kontrol. Niveau 1 er mindste­kravet, mens niveau 2 kun giver mening, så længe et menneske har mulighed for at godkende robottens angreb på baggrund af en vurdering af, om risikoen for civile tab er proportionel med det militære mål.

At vi så ikke kan komme op på niveau 3 hænger sammen med, at en liste over mål er problematisk, fordi empirien ifølge Lucy Suchman viser, at så er mennesker tilbøjelige til at stirre sig blinde på at eliminere de øverst rangerede mål på listen, dem med flest stjerner på skulderen frem for mål, hvor den samlede virkning ellers er mest gavnlig.

Oveni kommer så de situationer, hvor slagmarken nærmest kun består af AI’er imod hinanden.

Læs også: Vil verdens første dronekrig foregå i Syrien?

»Uforudsigeligheden i, hvordan AI’er egentlig agerer i krig, indebærer den største risiko. Risikoen bliver forstørret mangfoldigt, hvis AI’er står over for hinanden,« siger Lucy Suchman.

Et scenarie, der før eller siden vil blive en realitet, hvis man spørger Richard Aboulafia, vicedirektør i analysevirksomheden Teal Group og rådgiver inden for militær luftfart.

»Efterhånden som droner bliver udstyret med kunstig intelligens, vil bemandede kampfly miste deres relevans og måske forsvinde helt. Det kan ske, når kunstig intelligens har gjort forholdene for farlige til bemandede fly,« siger Richard Aboulafia.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Hvad er problemet i at en terrorist bliver elimineret af en autonom drone? Det afgørende er vel at AI er mere sikkert end en proces der involverer mennesker! Hvis man har testet dronen grundigt og den viser sig mest sikker, så skal man vel bruge dronen.

  • 4
  • 13

Sfl. skal det forbydes (på internationalt plan), og det burde i øvrigt alle våben beregnet på krigsførelse, terrorisme og andre forbrydelser.

At noget på forhånd er nærmest umuligt at håndhæve, kan ikke være en forhindring for en politisk beslutning.

Eisenhover skulle engang have sagt:
Every gun that is made, every warship launched, every rocket fired signifies, in the final sense, a theft from those who hunger and are not fed, those who are cold and are not clothed.
This world in arms is not spending money alone. It is spending the sweat of its laborers, the genius of its scientists, the hopes of its children. The cost of one modern heavy bomber is this: a modern brick school in more than 30 cities. It is two electric power plants, each serving a town of 60,000 population. It is two fine, fully equipped hospitals. It is some fifty miles of concrete pavement. We pay for a single fighter with a half-million bushels of wheat. We pay for a single destroyer with new homes that could have housed more than 8,000 people. . . . This is not a way of life at all, in any true sense. Under the cloud of threatening war, it is humanity hanging from a cross of iron

  • 9
  • 3

Eisenhover skulle engang have sagt

Resten af talen går rundt om lignende temaer, meget præget af at være skrevet kort efter Stalins død, hvor Ruslands fremtidige holdninger måske var foranderlige. Eisenhower sagde før talen, at "Look, I am tired - and I think everyone is tired - of just plain indictments of the Soviet regime, I think it would be wrong - in fact, asinine - for me to get up before the world now to make another one of those indictments. Instead, just one thing matters. What have we got to offer the world?"
Efter talen fulgte intense forhandlinger med Rusland om diverse skridt mod en fredeligere sameksistens, trods meget heftig modstand fra mange - også i USAs magtapparat. Eisenhower forberedte så en rejse til Rusland, hvor en aftale skulle underskrives - men helt tilfældig eller ej, blev USAs spionfly U2 skudt ned over Rusland lige før rejsen, og hele fredsprojektet blev aflyst.

  • 4
  • 0

Eisenhower afsluttede sin præsidentid i 1961 med de ligeså kendte ord om the military-industrial complex. I talen står også følgende, der kunne handle om truslen fra forskning i autonome våben:
"Akin to, and largely responsible for the sweeping changes in our industrial-military posture, has been the technological revolution during recent decades. We must never let the weight of this combination endanger our liberties or democratic processes. We should take nothing for granted. Only an alert and knowledgeable citizenry can compel the proper meshing of the huge industrial and military machinery of defense with our peaceful methods and goals, so that security and liberty may prosper together."

  • 3
  • 0

Når politiet rykker ud og SWAT, så er det med livet som indsats ved de fleste operationer, så er det bedre hvis man kan indsætte en robot, hvor man kan tillade sig at lige tage et par sekunder før man trykker på aftrækkeren. De fleste SWAT/betjente vil hellere skyde lidt for meget end lidt for lidt, for undgår vi dermed unødige civile tab pga presset situation, hvor de bare vifter rundt med en pibe, mobil tlf osv.

Kan huske årtier tilbage hvor nogle væmmelige turister blev mejet ned af SAS fordi de viftede rundt med en sollotion.

  • 0
  • 0

Ja tilbage til bue og pil. Kaste sten kan vel også blive godkendt, eller gummibolde .

De havde med sikkerhed samme diskution for 30000 år siden , da buen blev opfundet. Det gælder stadigt at man skal være den første og den bedste hvis man vil overleve , den lov ændrer sig ikke.
Man kunne dog eventuelt afskaffe terrorister. Hvor svært kan det være.

  • 1
  • 5

Det er altså lidt bagvendt, at postulere at forskning ikke kan gøres ulovlig! Alene fordi forskning tidligst er en risiko, når den udmønter sig i brugbare resultater og først derefter kan man lovregulerer imod uhensigtsmæssighederne. Det her svarer til at gøre det ulovligt at tænke - det kan man ikke.

  • 1
  • 0