Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.
den levende maskine bloghoved

Sådan vandt AlphaGo verdens mest komplicerede spil

For ganske nylig slog softwaren AlphaGo først den europæiske mester Fan Hui og derefter verdensmesteren Lee Sedol i det, der betragtes som verdens mest komplicerede spil: Go.

Nu, hvor de værste overraskelsesdønninger har lagt sig, skal vi lige have slået fast, hvorfor det egentlig er interessant.

Det er det, fordi AlphaGo startede helt uden nogen viden om Go, og har lært sig selv at spille det.

Lad mig forklare hvordan:

Man har ofte tænkt, at tegn på høj, menneskelig intelligens var at kunne gøre ting, som var vanskeligt for de fleste mennesker. Altså måtte kunstig intelligens også have noget at gøre med at kunne løse den slags problemer, såsom at løse komplicerede ligninger eller kombinere mange fakta. Det har dog vist sig, at det, som er vanskeligt for mennesker, ofte er nemt for maskiner, mens det, som er nemt for mennesker, ofte er vanskeligt for maskiner.

Evnen til at kunne spille spil er et godt eksempel på forskellen mellem menneske- og maskinintelligens. At spille spil er på en måde nemt for mennesker, men det at gøre det godt er ofte forbavsende kompliceret.

Den første, store udfordring for maskiner som spillere var skak. Men som vi måske husker, slog skakcomputeren Deep Blue den daværende verdensmester Kasparov helt tilbage i 1997. Det var en stor begivenhed.

Skak er ikke specielt vanskeligt at spille, men det er meget vanskeligt at mestre. Selve spillet har omtrentlig 10^120 kombinationer, hvilket ofte sammenlignes med antal atomer i det kendte univers. Altså kan computeren ikke løse opgaven praktisk ved bare at prøve sig frem. Der er simpelthen ikke tid nok (der har været ca. 10^27 nanosekunder siden Big Bang).

Deep Blue vandt på grund af en kombination af rå kraft og domæneviden, som blev leveret af (menneskelige) skak-stormestre. Den har simpelthen fået fortalt, hvad der er smart at spille i en bestemt situation, og så har den fået maskinkraft nok til at kunne tygge sig igennem alle de potentielle udfald.

Det orientalske brætspil Go er et endnu vanskeligere spil at mestre end skak. Det er anslået, at der er omtrent 10^700 spilkombinationer. Et ufatteligt stor tal! Så hvad gør man, hvis man vil have en maskine til at kunne spille mod mestrene? Har man gjort det samme som med Deep Blue: Bygget en tilstrækkeligt stor maskine, fodret den med nogle fancy algoritmer samt tilstrækkeligt med domæneviden; og vupti, så kunne den nye maskine vinde et nyt spil?

Nej. Det, som gør at det interessant, at AlphaGo kan spille Go, er, at den er startet som en tabula rasa - helt uden nogen viden om Go. Maskinen har altså lært sig selv at spille go ved at lære to ting: det første er et policy-netværk, som reducerer det enorme antal muligheder til nogle ”få” lovende muligheder: det andet er et value-netværk, som så kan kigge på de mulige træk inden for de lovende muligheder.

AlphaGo er baseret på dybe kunstige neurale netværk (deep learning neural networks). Policy-netværket har den lært ved at observere menneskelige spillere og se, hvad der fungerer godt og skidt. Value-netværket har den derefter lært ved at spille mod versioner af sig selv.

Så modsat Deep Blue har AlphaGo faktisk lært sig selv at spille. Derfor er det interessant, at en AI kan spille Go.

I kan læse meget mere om de dybe netværk i denne artikel fra skaberne af AlphaGo.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Hej Anders

Tak for denne blog man kan sige det også var på tide.

Mht. AlphaGO, hvis man har to intelligente neurale netværk, et kunstig som i tilfældet med AlphaGO og et biologisk i den menneskelige hjerne, som begge er opbygget i en neural arkitektur, det kunstige i en simpel arkitektur og det biologiske i en langt mere kompliceret arkitektur og hvor det er klart at det avancerede biologiske neurale netværk er det simple kunstige neurale netværk, langt overlegent i funktionalitet ikke mindst pga. kompleksiteten. Og vi ser så alligevel at en enkelt opgave som at spille spilet GO er det kunstige neurale netværk vinder. Det er min påstand at styrken stadigvæk er at det kunstige neurale netværk vinder af primær en grund og det er at computeren er den menneskelige hjerne overlegen når det kommer kalkulations hastighed. Og her er det avancerede biologiske neurale netværk kompleksitet og funktionalitet et minus.

Med venlig hilsen Peter Vind Hansen

  • 1
  • 0

Det tror jeg du har ret i, men forestil dig så når computerne får det bedste af begge verdener. Høj kompleksitet, og enorm regnekraft. For ikke at snakke om at en kunstig intelligens principielt er udødelig, nu hvor den kan eksistere i skyen. I moderne filsystemer kan man ikke smadre et datacenter, og forårsage tab af data. Se eventuelt google filesystem.

En del af begrænsningen for computeren ligger i, at man træner et virtuelt neuralt netværk, som jo er en distribueret processor, på hvad der basalt set stadig er en von neumann arkitektur, som har en CPU, bus, RAM osv. Jeg tror, at når man får lavet specialiseret hardware, som ikke er von neumann, så vil der komme andre boller på suppen.

Som jeg ser det, er der dog fortsat nogle kæmpestore problemer med at opnå en menneskelig intelligens i computere. Man kan sikkert opnå det ved at smide masser af strøm, regnekraft og latterlige mængder data efter computeren, men det er en kompensation for det man stadig ikke kan. Hvordan opnår man f.eks. den menneskelige hjernes plasticitet? Hvordan opnår man lige så effektiv træning som mennesker?

Vi mennesker kan jo få reglerne til fodbold, og begynde at spille uden at have set en fodbold nogensinde. Vi kan også lære at forstå et objekts virkemåde på ganske kort tid. Jeg tror der ligger en proces bag, som kan importere viden fra en applikation til en anden, og dermed preloade det nye netværk, så det ikke kræver så meget træning. Jeg tror også, at selve træningen ligger i at kombinere allerede kendte applikationer i den rette vægtning. For eksempel kan jeg beskrive hvordan man spiller bordtennis, ved at sige noget ala.:"Det er lidt som en blanding mellem airhockey, badminton og tennis". Når spillet så skal læres, så vil man trække på de paraleller, som man kan. Det vil sige at for at en computer skal være god til at lære noget, så skal den kunne en hel masse andet i forvejen, og det er ingen smal sag, for det kræver sikkert at den skal have været barn først.

Jeg tænker bare højt her...

  • 3
  • 0

Og vi ser så alligevel at en enkelt opgave som at spille spilet GO er det kunstige neurale netværk vinder.

Det passer faktisk ikke. Jeg overvejede at skrive en kommentar i går, for jeg synes ikke bloggerens vinkling på sagen er helt akkurat i forhold til hvad der står i forskningsartiklen.

Det kunstige neurale netværk i sig selv ville have tabt. Det er dokumenteret i artiklen. Det der vandt, var at man kombinerede flere metoder, hvoraf en stokastisk udforskning af udfaldsrummet (dvs. en slags guidet stikprøvning) var udslagsgivende. Men kun hvis man kørte en distribueret udgave af den med noget i retning af > 1000 CPU'er og > 200 GPU, altså et kæmpe cluster - jeg synes jeg læste én kamp brugte noget i retning af 110 MWh.

De har også en ikke-distribueret udgave, men den ville ikke have kunnet vinde.

Så det er en sejr for dybe neurale netværk + den menneskeligt indlagte snedighed i indretning der kendetegner succesrige maskinlæringsløsninger + tonsvis af forudbearbejdet data + rå maskinkraft.

.. det er at computeren er den menneskelige hjerne overlegen når det kommer kalkulations hastighed

Det kommer lidt an på hvordan du definerer det.

Det er noget med at de havde eksperimenteret med at spille lyn-go mod ham den europæiske mester de havde hyret ind, og så tabte AlphaGo. Min konklusion er at den menneskelige umiddelbare intuition er overlegen. Maskinen får en fordel når den givet længere tid kan brute-force sig gennem mange, mange flere hypotetiske scenarier - så den skal enten have mere tid, eller et større cluster, eller en mere effektiv algoritme.

  • 6
  • 0

Hej Ole

Tak for din fine redegørelse af artiklens indhold.

Hej Casper

Eksemplet med den perfekte petroleumslampe er velkendt i den naturvidenskabelige litteratur. Når forskere og ingeniør mv. filer længe nok på et problem eller produkt opnår man jo en større grad af perfektionisme.

Dem der frygter for udviklingen af kunstig intelligens ser vel en alt vidende og alt beregnende og udødelig virtuel virkelighed? Og er vi så ikke meget tæt på begrebet fuldkommenhed? Og såfremt en sådan alt vidende og alt beregnende og udødelig virtuel virkelighed kunne skabes hvad skulle da hindre denne virkelighed i egen almagts forestilling at udsige ”Jeg er menneskehedens nye store fortælling”?.

Denne tanke forudsætter nok at man anerkender det filosofiske gudsbegreb? Og dette begreb forudsætte at man anekende gudsbeviserne fra Aristoteles til Thomas Akinas og til vores tid Kurt Gödel. Og gudsbeviserne har intet at gøre med Jesus fra Nazaret men tjener derimod til at adskille det filosofiske gudsbegreb fra ren overtro eller folketro.

Dem der måtte have interesse i Gödels gudsbevis:

https://en.wikipedia.org/wiki/G%C3%B6del%2...

Hej Anders

Jeg glæder mig til at denne blog for reduceret overstående forestillinger om kunstig intelligens fra og det står klart for alle hvorfor sådant et senarie ikke kan lade sig gøre?

Med venlig hilsen Peter Vind Hansen

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten