AI-forsker: Kamprobotter forstår ikke krigens regler
more_vert
close
close

Vores nyhedsbreve

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

AI-forsker: Kamprobotter forstår ikke krigens regler

Maskiner er dumme – men mennesker har det med at overvurdere maskinernes evner.

De to forhold udgør en skidt cocktail, når det handler om at bruge kunstig intelligens i våben, og derfor er forbud mod den slags eneste vej frem.

Det mener Toby Walsh, der er professor ved New South Wales University, Sydney, og en af verdens mest fremtrædende forskere i kunstig intelligens eller artificial intelligence (AI). Han frygter, at AI-teknologier, som han i øvrigt er stor fortaler for, vil blive misbrugt.

»Der er regler i krig, man skal følge. Regler om proportionalitet, det at adskille kombattanter fra civile, følge regler om overgivelse etc. Det kan maskiner ikke, og derfor skal vi ikke give dem muligheden for at træffe beslutninger om liv og død,« siger Toby Walsh.

Den britiske computerekspert var blandt initiativtagerne til et åbent brev til FN, der i 2015 opfordrede til at lave et forbud mod at anvende AI til våben. Brevet er til dato underskrevet af 3.500 AI-/robot-forskere og knap 19.000 fremtrædende personer som Elon Musk og Stephen Hawking.

Robotter slagter

Ingeniøren møder Toby Walsh på Christiania i København, hvor han er blandt hovedtalerne til en konference om AI afholdt af DTU Compute. Under foredraget viser Walsh videoen ‘Slaughterbots’ – en fiktiv video i dokumentarstil, produceret af en koalition af AI-eksperter og interesseorganisationer, som viser, hvor galt det kan gå i en fremtid, hvor sværme af mikrodroner udstyret med sprængstoffer spreder skræk og rædsel.

»AI i våben er ikke ‘Terminator’, som det ofte fremstilles i medierne. Det ligger årtier væk, hvis de nogensinde kommer. De teknologier, vi viser i videoen, er her allerede, og det er kun et spørgsmål om få år, før de kan anvendes som våben,« siger Toby Walsh.

Mandag 13. november var Toby Walsh i FN for at overbevise politikere og embedsmænd om nødvendigheden af et forbud mod AI i våbensystemer. Det var fjerde gang, men denne gang var det formelt – efter tre år med uformelle samtaler.

»FN-systemet tager tid, hvilket der ikke er meget af. Vi skal se på AI, som vi ser på kemiske våben. De er der, men er sjældent brugt og svære for terrorister og andre at få fingrene i. Og selv når de bruges, giver det moralske slagsmål og store overskrifter i verdens aviser. Det lader til at være nok til i hvert fald at begrænse brugen af kemiske våben,« lyder det fra Toby Walsh.

Milliarder på spil

Men kan et forbud stoppe en udvikling, hvor især de store lande står over for et våbenkapløb inden for AI? Ja, til en vis grad, mener Toby Walsh:

»Våbenproducenter i store lande vil investere i AI og tjene store penge. Man mener allerede, at russerne har en milliardeksport af semi-automatiserede våben. Så jo, det er en magtfuld kraft at kæmpe imod. Men vi har gjort det før med kemiske og biologiske våben, atomvåben og klyngevåben. Vi har været intelligente nok før. Det kan vi være igen,« siger han og fortsætter:

»FN virker ved konsensus, og selv de stærkeste nationer kan ikke bare tvinge deres vilje ned over resten. Derfor har vi forbud mod atom­våben. USA tror fejlagtigt, at de har et teknologisk forspring i forhold til resten af verden, men det fastholder de aldrig. USA vil få disse våben rettet mod sig selv, og det vil være en katastrofe for dem,« lyder det fra Toby Walsh, der mener, at AI skal defineres som masseødelæggelsesvåben i FN-systemet.

»Tidligere havde man brug for en hel hær for at føre krig. Du skulle overtale folk til at kæmpe, uddanne dem, give dem mad, udstyr og løn. Det behøver man ikke med AI, der gør det muligt at skalere krigsførelse på en måde, som vi aldrig har set før. En enkelt programmør vil kunne gøre, hvad der tidligere krævede titusinder af mennesker. Der vil ske en revolution inden for krig. Et kæmpe skridt i tempo og effektivitet, som ikke er en god ting. Vi vil ikke være i stand til at forsvare os mod disse våben, hvis de først kommer,« advarer AI-eksperten.

To veje frem

Toby Walsh står uden for Christianias biograf Byens Lys en fredag eftermiddag. Solen skinner, og på gaden er storsmilende mennesker på vej mod weekend. Omgivelserne giver anledning til optimisme, og den er da også værd at holde fast i, mener han.

»Vi forbød ikke kemi og vil heller ikke forbyde AI. Vi forbød brugen af kemiske våben, og jeg håber, vi kan forbyde brugen af AI-våben. Kunstig intelligens vil skabe et bedre samfund og gøre livet lettere på en masse områder. Men som alle andre teknologier kan den enten bruges eller misbruges,« understreger Toby Walsh, der dog frygter, at et forbud først kommer for sent:

»Jeg har ikke tillid til, at vi når det. Historien viser desværre, at forbud først bliver vedtaget, når vi har brugt våbnene og set de rædsler, de medfører.«

Han kalder sig derfor pessimistisk optimist. Ingen kan forudsige den teknologiske fremtid, der er produktet af vores fantasi og beslutninger i dag, vi vælger selv, om disse våben eksisterer eller ej, anfører Toby Walsh:

»Der er en god og en dårlig fremtid. AI giver muligheden for begge dele, men udfaldet er op til os.«

Det findes allerede, i forskellig udformninger og størrelser.

Det rigtigt uhyggelige er at 1mand i en kælder, kan bygge sådan en sværm, og slippe den løs.

AI er ikke engang en forudsætning, men hobby elektronik og SW kan klare opgaven.

Byg 200 små 300 grams quadcoptere, og stabel dem på ladet af en trailer.
Kør traileren ud til den udendørskoncert, fodboldkamp, eller landsby, der skal angibes.
Stil traileren og kør selv væk.

Når sværmen vækkes, 7 dage senere, letter den og flyver til koordinaterne, som hver enkelt drone har.
Angrib alt inden for 5 m radius af punktet, vha kamera, pir, ultralyds detektering.

Når batteriet løber ud falder dronen til jorden, men eksplodere hvis den derefter flyttes.
En del af dem er programere til at ekplodere efter 5-10-15 min osv. efter styrtet, for at holde kaoset igang.

Ingen AI, bare flyvende landminer.

Er det skræmmende nok?

  • 0
  • 0

Hvorfor har vi ikke forbudt atomvåben?
Eller hvad med bare at forbyde våben? Eller forbyd dog krig!

"»Vi vil ikke være i stand til at forsvare os mod disse våben, hvis de først kommer,« advarer AI-eksperten."

Det har han nok ret i. Desværre gælder jo den regel, at hvis der opfindes et nyt, stærkt våben, så må vi nødvendigvis have det, for at kunne forsvare os mod de andre som har det.

Hvordan forbud skulle kunne ændre noget som helst her, er mig en gåde.

  • 6
  • 1