Google-ansatte til chefen: Stop våben med kunstig intelligens
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.

Google-ansatte til chefen: Stop våben med kunstig intelligens

IT-gigantens øverste chef Sundar Pichai bryder med selskabets motto, hævder over tretusinde Google-medarbejdere. Illustration: Maurizio Pesce

»Kære Sundar,
Vi mener ikke, at Google bør være indblandet i krigsindustrien. Derfor beder vi om, at Project Maven bliver aflyst, og at Google udfærdiger, offentliggør og håndhæver en klar politik om, at hverken Google eller dets leverandører nogensinde vil bygge krigsteknologi.«

Sådan lyder indledningen i et brev, der cirkulerer rundt hos Googles ansatte. Modtageren er it-mastodontens øverste chef, Sundar Pichai.

Kontroversen om projektet ved navn Maven gælder en kontrakt for Pentagon vedrørende en såkaldt ‘AI surveillance engine’ beregnet til droner anvendt af USA’s forsvar.

Kontrakten er fortrolig, så det konkrete indhold kender altså kun Google og Pentagon. Men ud fra brevet fremgår det, at der er tale om brugen af kunstig intelligens i et overvågningsprogram installeret i droner, så disse hurtigere kan overvåge køretøjer og andre objekter, følge deres bevægelser og rapportere tilbage til USA’s forsvarsministerium.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Både Diane Greene, som står i spidsen for Googles afdeling for cloud-infrastruktur, samt Sundar Pichai har nu internt og i offentligheden forsvaret arbejdet for Pentagon med afsæt i, at Project Maven grundlæggende ikke er offensivt. Ydermere vil Google og Pentagon afstå fra at udvikle autonome våbensystemer, der kan skyde uden en menneskelig operatør.

Det argument er prellet af på de kritiske Google-medarbejdere, som har svært ved at se kontrakten harmonere med selskabet motto om 'don’t be evil'.

»I en tid med voksende bekymringer over AI, som er fordomsfuld og bevæbnet, kæmper Google allerede med at opretholde offentlighedens tillid. Ved at indgå denne kontrakt kommer vi i selskab med foretagender som Palantir, Raytheon og General Dynamics,« lyder det i protestbrevet.

Du kan læse hele protestbrevet fra de 3.100 Google-ansatte her i New York Times.

Forskere protesterer også

Google-protestbrevet så i øvrigt dagens lys samme tidspunkt som et andet protestbrev om kampvåben med kunstig intelligens. Det brev stammer fra over 50 af klodens førende forskere inden for kunstig intelligens (AI) og robotudvikling fra 30 forskellige lande.

I en fælles udtalelse tager de skarp afstand fra Sydkoreas topuniversitet, KAIST. Forskerne stopper alt samarbejde med universitet på ubestemt tid, fordi KAIST i samarbejde med den sydkoreanske våbenproducent Hanwha Systems har oprettet et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.

Læs også: Kamprobotterne kommer

Gruppen vil først ophæve boykotten, når KAIST forsikrer, at laboratoriet vil afholde sig fra at udvikle våben, som kan fungere 100 procent autonomt. Der skal altså fortsat være et menneske, som i et eller andet omfang kontrollerer de våben, som KAIST og Hanwha Systems udtænker, kræver forskerne.

»Udviklingen inden for AI og autonome våben går i en potentiel farlig retning med dette her. Det er vores pligt at tage stilling og forsøge at gøre beslutningstagerne opmærksomme på konsekvenserne,« siger en af de 50 medunderskrivere på boykotten, Thomas Bolander, til Ingeniøren.

Han er ph.d. og lektor i logik og kunstig intelligens ved DTU Compute og pointerer, at der er mange ubekendte faktorer ved Hanwha Systems’ universitets-laboratorium.

I sydkoreansk presse har KAIST udlagt samarbejdet, som om der blot er tale om et AI-assisteret navigationssystem til Hanwha Systems’ tanks eller missiler.

Blåstempler våben-kapløb

Uanset om det er tilfældet eller ej, betoner Thomas Bolander, at forskernes afstandtagen bør ses i en større kontekst.

I udmeldingen, som er forfattet af en af verdens mest fremtrædende AI-forskere, professor Toby Walsh fra New South Wales University, fremhæves risikoen for, at KAIST blåstempler og sætter turbo på kapløbet om udviklingen af autonome våben. Vel at mærke på et tidspunkt, hvor vi stadig kæmper med at begribe potentialet ved AI.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

»Hvis det bliver udvikler udviklet, vil autonome våben være den tredje revolution inden for krigsførelse. Krig vil blive sat i gang hurtigere og i større skala end nogensinde før. Despoter og tyranner kan bruge disse våben mod uskyldige og fjerne alle former for etiske begrænsninger. Denne Pandoras æske vil være svær at lukke, hvis den åbnes,« skriver de 50 forskere i fællesudmeldingen, hvor de opfordrer KAIST til at koncentrere deres AI-forskning om at fremme fredelige formål.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Det kan blive farligt hvis industrispioner og hackere får kildekoden til disse krigsdroner, så kan det give gevaldigt bagslag!

  • 1
  • 0

AI er jo i kraftig vækst på et utal af forskellige kommercielle og militære områder, og det må formodes at skridtet fra et semi-autonomt system til et autonomt system ikke er særligt stort, for organisationer som ser stort på utilsigtede hændelser.

Derfor er det vel ikke tilstrækkeligt at lægge snitfladen på om noget kan tillades, baseret på om et menneske er inde over beslutningsprocessen, da dette jo kan deaktiveres, i en given situation.

Situationen kan hurtigt optræde på fremtidens slagmark, hvis denne består af et hav af fjendtlige (semi-)autonome systemer, der i antal, overgår menneskets beslutningskapacitet.

Et forbud er derfor nødt til at inkludere brugen af semi-autonome militære systemer, men dette er nok ikke realistisk, da fordelene langt overstiger ulemperne.

Når nu det ikke er lykkedes menneskeheden at afskaffe atombomben, hvorfor skulle det så lykkes med autonome våbensystemer?

Kapløbet om den fremtidige magtbalance er givetvis allerede i fuld sving, hvorfor der er nogle forskere der bør overveje hvilket hold de ønsker at være en del af, da en passiv tilgang uvægerligt vil give modparten en betydelig konkurrencefordel.

  • 1
  • 2

Kapløbet om den fremtidige magtbalance er givetvis allerede i fuld sving, hvorfor der er nogle forskere der bør overveje hvilket hold de ønsker at være en del af, da en passiv tilgang uvægerligt vil give modparten en betydelig konkurrencefordel.


Atombomben er et dårligt eksempel. Havde USA ikke udviklet atombomben, så er det ikke sandsynligt at den overhoved var blevet udviklet... Nu er den så udviklet, afprøvet og har vist sit potentiale og derved blev først Rusland "tvunget" til at udvikle den og da de havde den, var mange andre ligeledes "tvunget" til at udvikle den... Sidste eksempel i den række er Nordkorea. De udvikler kun atombomben fordi de ved at det er muligt (der er god adgang til forskere og masser af viden på internettet) og fordi det er den bedste sikring mod et angreb (er der nogen der fucker med os, bliver Seoul udryddet)...

Autonome våbensystemer har ikke helt de samme udviklingsomkostninger og ingen er i tvivl om at de kan udvikles... Med atomvåben var det store spørgsmål om det var muligt, med autonome våben er spørgsmålet udelukkende: "hvor avanceret skal de værer"

  • 2
  • 0

Synes fortsat atombomben er et godt eksempel, da den jo viser at det blot kræver vilje fra mindst én nation til at udvikle og benytte teknologien. Det er hverken de økonomiske aspekter eller sværhedsgrad jeg prøver på at påpege, men derimod den manglende vilje til at indgå forpligtende internationale aftaler om atomnedrustning.

  • 3
  • 0

Jo atombomben ville være blevet udviklet under alle, krig med Japan/Tyskland eller ej.
Heldigvis så vi dens forfærdelige konsekvenser inden der blev for mange af dem.

Det er noget andet med autonome våbensystemer. Konsekvenserne af dem er ikke så abrupte som en atombombesprængning.

Men de er et våben, og våben er magt. Derfor vil de blive udviklet.
Så er spørgsmålet blot, hvem vil vi gerne udvikler dem?

  • 1
  • 0

Synes fortsat atombomben er et godt eksempel

Der er flere ting som kan læres fra atom-branchen, blandt andet sikkerheden omkring de materialer der gør det muligt. Beriget uran, plutonium etc.

Man kunne gøre det samme for AI. Det er trods alt kun en håndfuld virksomheder som er i stand til at fremstille det hardware der gør det muligt at køre AI.
Måske man skulle holde lidt igen med at sælge det til masserne. For mig at se svarer det til at kunne købe plutonium i den blå avis.

  • 0
  • 0

Man kunne gøre det samme for AI. Det er trods alt kun en håndfuld virksomheder som er i stand til at fremstille det hardware der gør det muligt at køre AI.
Måske man skulle holde lidt igen med at sælge det til masserne. For mig at se svarer det til at kunne købe plutonium i den blå avis.


Klart, og fem computere er nok til at dække verdens behov!

Om 50 år render mine børn rundt med AI i lommen, som får Watson til ligne en regnorm. Det kan f.eks. være til at overvåge deres helbredsstilstand, kontinerligt og ringe efter ambulancen INDEN de får hjertestop. (Bemærk at det er ikke centraliseret overvågning, men på din private device!)

AI har flere anvendelser end Plutonium og Uran!
Du kan ikke regulere det uden at fratage befolkningen vigtige vækstfremskridt.
Og gør du det, vil lysten og muligheden til at omgå det være så stort at du skal indføre et skarpt diktatur som ved hjælp af AI skal opspore ulovlig AI (Blade runnner om igen.)

Og ved at regulere det så masserne ikke får adgang, så koncentrerer du en stor (endnu større) magt hos staterne.
Du har lige givet stof til en masse dystopiske science fiction romaner!

  • 1
  • 0

Det nytter ikke at 'forbyde AI-våben' hvis lande som er os fjendtligt stemt så udvikler dem alligevel.

Sammenligningen med A-våben er udmærket. Det er muligt A-våben slet ikke var blevet opfundet hvis ikke USA havde lavet de første, men det er ret ligegyldigt hvem der lavede de første. Resten af verden måtte følge trop.

På samme måde er det jo ligegyldigt hvem der udvikler AI-våben først. Om det er Google eller Putin eller nogen i NordKorea, vi andre må følge med og gøre det samme.

Vi kan kun forhindre krige ved at være stærkere end dem som ønsker at angribe os. Vi forhindrer ikke krige ved at nedlægge vores eget militær.

  • 2
  • 0

Basal forståelse for, hvad krig er for en størrelse, indgår ikke i vort skolepensum. For hvorfor vi har et militær, er desværre og bestemt ikke skolelærdom, selv om "Bamse og Kylling" i hver eneste udsendelse ,viser at Bamse vil have alting, også det de andre har.

Rusland annekterede Krim for det mente de, at det var deres og en god betaling for den gas som Ukraine ikke betalte for. Kina vil have Formosa/Taiwan tilbage, da de mener, at det er en del af Kina. De annekterede også det forsvarsløse Tibet der ikke havde et forsvar/militær til at forsvare sig med, men det har Taiwan og ydermere også har en beskytter der hedder USA.
Tyskerne ville have "lebensraum" for den tyske befolkning og mente sig berettiget til at underlægge sig hele verden og udslette alle de ikke brød sig om, på den mest bestialske måde.

Det husker man dem for, men i samme ånde drag glemmer man at Hitler&Co kun er nummer 4 i rækken af forbrydere i 1900 tallet. Nummer et et er Mao Tse tung (Mao Sedong). Nr 2 er Josef Stalin(Iosif Vissarionovich Dzhugashvili). Nr 3 er Pol Pot.

Det eneste land der har klaret, at give alle angribere problemer, uden et større moderne forsvar, er Afghanistan. I over 200 år har forskellige angribere sat sig for, at "opdrage" dette land til ikke at dyrke opium, men har istedet høstet nederlag på nederlag. Danske soldater har også deltaget....uden held!

Krig er modbydeligt, men at miste ejendom, familiemedlemmer og ens eget liv, er værre end at anskaffe sig et troværdigt forsvar, så eventuelle magtpsykopater ikke anser det forsvarligt, at angribe ens område/ land. Et troværdigt forsvar er en billig forsikring i forhold til hvad en rigtig krig koster, ikke bare i menneskeliv men også i materielle skader.

Se billederne fra Syrien. Alle huse er ødelagte.

Se Berlin efter krigen i 1945

https://www.google.dk/search?q=berlig+nach...

  • 4
  • 1

For 20 år siden idriftsatte vi den største applikation - World Wide -dengang - med neurale netværk = AI i de danske svineslagterier, med 386 processorer vist nok 0,3 MHz. Så der er absolut ingen hardware begrænsninger for at benytte AI. Det er udelukkende brug af standard SW blokke der multiplicerer hardware kravene.

Vi tilbød fra Slagteriernes Forskningsinstitut, dengang Københavns Lufthavn at udvikle on-line ansigtsgenkendelse, men det var uden interesse, da det var før de første terrorangreb.

  • 0
  • 0

Krig er et evigt kapløb, og enten udvikler man sit forsvar ellers koster det menneske liv NÅR krigen kommer.
Semi autonome våben er en virkelighed i dag, hvor man kan lægge en prioriteret target liste ind i våbnet inden at det sendes afsted, det første eksempel er krydser missiler der har staring array sensore, som kan vælge mellem flere mål når det kommer til målområdet.
Næste generation af A/A missiler har indbygget en database over de mål det kan møde og en sårbarheds analyse om hvor den specifikke type fly er mest sårbart og missilet vælger netop det punkt til at ramme.

  • 0
  • 0