værd at vide

Er hjerneforskningen på vildspor – og kan en kontroversiel kvantecomputer bruges til noget?

Hjernens virkemåde er en af de helt store videnskabelige gåder, som der i disse år kastes store forskningsbudgetter ind i at løse.

I USA var Barack Obama med til at lancere BRAIN-initiativet, og EU udpegede for nogle år siden hjerneforskning som et af sine flagskibsprojekter – begge er projekter i 7 milliarder kroners-klassen.

Organisatorisk har begge de store projekter været i problemer, men hjerneforskningen har gennem de seneste år gjort store fremskridt, så det har været håbet, at en storstilet indsats kunne bringe os helt i mål, hvad angår viden om, hvordan vores egen hjerne fungerer.

Men nu kaster et par amerikanske forskere, der har en baggrund både inden for neurovidenskab og elektronik, grus i maskineriet.

De har forsøgt at bruge de kendte neuroværktøjer på en 'hjerne', hvori man kender hver eneste detalje og alle interne forbindelser: processoren MOS Technology 6502, der kom på markedet i 1975, og som blev benyttet både i Apple I og Commodore 64.

I en artikel i PLOS Computational Biology redegør Eric Jonas fra University of California, Berkeley, og Konrad Kording fra Northwestern University i Chicago for, at neuroanalysen af denne elektroniske hjerne på nogle områder var i overensstemmelse med det, man vidste om dens opbygning – f.eks. fandt analysen helt korrekt processorens master clock signal.

På andre områder gik det helt galt, bl.a. når det gjaldt at finde de dele, der styrer lysstyrken af pixels på skærmen. Helt generelt var der mange vitale dele i designet, som analysemetoderne slet ikke kunne finde.

Nu kan man sige, at en så simpel processor som 6502 er meget langt fra at ligne en menneskelig hjerne, og det er rigtigt nok. Så er det forkert på baggrund af denne analyse at afvise alle neuroværktøjer som værende værdiløse.

Men Jonas og Kording mener alligevel, det er problematisk, at de velkendte metoder overser væsentlige detaljer og leder til direkte fejlagtige konklusioner om processorens virkemåde. Sker det samme så ikke, når vi bruger metoderne på den menneskelige hjerne?

Måske skulle hjerneforskerne i højere grad teste deres metoder på mikroprocessorer, før de tager dem i brug på mere komplicerede hjerner, mener de to forskere.

Det er i øvrigt ikke kun biologiske hjerner, som det vil være vigtigt at have bedre metoder til at undersøge. Også selvlærende neurale netværk mangler forskerne gode metoder til at undersøge.

Så lad os få hjerneforskningen tilbage på sporet.

Kan D-Wave-kvantecomputeren gøre nytte?

Hvis hjerneforskerne med deres værktøjer har svært ved at forklare, hvordan en almindelig CPU virker, har de sikkert endnu sværere ved at forklare, hvordan en kvantecomputer fungerer.

Mens IBM, Google og Microsoft m.fl. har sat store kræfter ind på at bygge en generel kvantecomputer – og hvor Microsoft bl.a. henter hjælp fra forskerne på Niels Bohr Institutet – så er det canadiske firma D-Wave nu klar med fjerde generation af deres kvantecomputer kaldet 2000Q – efter antallet af kvantebit, den indeholder.

D-Wave-computeren er ikke en 'rigtig' kvantecomputer, og som jeg har skrevet flere artikler om inden for de senere år har en lang række undersøgelser på bl.a. ETH i Schweiz rejst berettiget tvivl om, hvorvidt D-Wave-computeren i det hele taget har en beregningsmæssig fordel i forhold til klassiske computere inden for den form for optimeringsproblemer, som den er specielt velegnet til at løse.

Der har også været stor tvivl om, hvorvidt D-Wave computeren i det hele taget udfører en form for kvanteberegning. Den tvivl er dog forsvundet. Et eller andet kvanteagtigt foregår der inde i maskinen, selv om det er svært at vide præcist hvad.

Det man ved er, at D-Wave-computeren indeholder superledende spoler, som starter med at være i en superposition af 'tændt' og 'slukket' – eller '0' og '1' – i den laveste mulige energitilstand. Med magnetfelter ændrer man forsigtigt denne tilstand til en anden i en proces, der kaldes 'quantum annealing' eller kvante-udglødning, da den er slags pendant til den måde, hvorpå udglødning kan fjerne indre spændinger i et metal.

På den måde finder man et nyt optimum under givne betingelser.

I en ny artikel lagt frem på preprintserveren arxiv.org præsenterer D-Wave nu et problem, som D-Wave 2000Q kan løse 2.600 gange hurtigere, end det kan gøres med en klassisk optimeringsalgoritme på en grafikprocessor (GPU) – helt konkret en Nvidia GeForce GTX 1080 med 2.560 kerner, hvis nogle skulle være interesseret.

Som flere har bemærket, udelukker det ikke, at en eller smart person en dag kan finde en ny klassisk algoritme, der kan udføre beregningen lige så hurtigt. D-Wave er endnu et stykke vej fra at opnå det store mål 'quantum supremacy', som er det begreb, der er knyttet til en beregning, der kan udføres på en kvantecomputer, men som ikke lader sig udføre på selv den største supercomputer i verden.

D-Wave har allerede en femte generation på tegnebrættet, der skulle få 4.000 kvantebit.

Jeg har tidligere været skeptisk over for, om D-Wave-kvantecomputeren kunne bruges til noget som helst meningsfyldt, men måske er der alligevel håb for, at en computer baseret på quantum annealing kan finde nytte de kommende år.

Under alle omstændigheder går der nok 5-10 år – eller endnu længere – før en rigtig general purpose-kvantecomputer med et passende antal kvantebit vil stå færdig til for alvor at tage konkurrencen op.

Reservoir computing – hvad er nu det for noget?

Vi bliver i computerverdenen, hvor neurale netværk, maskinlæring og kunstig intelligens er et andet forskningsområde med stor aktivitet.

En fransk forskergruppe har lavet et optoelektronisk kredsløb, der kan genkende ord i tale med en imponerende hastighed af en million ord i sekundet.

Det er der sikkert nogle, der kan finde sjove anvendelser for.

Det, jeg fandt mere interessant, da jeg så omtalen af denne artikel i Physical Review X, var, at princippet blev beskrevet som 'High-speed photonic reservoir computing' – for hvad er dog reservoir computing for noget, tænkte jeg.

Kort fortalt er reservoir computing en form for et neuralt netværk bestående af tre dele: et inputlag, et reservoir og et outputlag. Uden at komme ind på alle detaljer i, hvordan dette netværk fungerer – det kræver en større artikel – så er det interessante, at reservoiret kan lagre information om fortiden og processere signaler på forskellige måde, alt efter hvilke signaler der ankom tidligere.

I sædvanlig maskinlæring har man flere skjulte lag, hvor et inputsignal forplanter sig fra lag til lag, for til sidst at give anledning til et output.

Når man bruger sådanne systemer f.eks. til analyse af billeder, så vil alle forbindelser mellem de enkelte lag blive justeret under træningen.

I reservoir computing er forbindelserne i selve reservoiret og mellem inputlag og reservoir opsat helt tilfældigt fra begyndelsen, og de forbliver uforandret under træningen. Det er kun forbindelserne mellem reservoir og outputlag, der forandres under træningen.

På den måde er træningen af et system baseret på reservoir computing meget simpel, og det viser sig tilmed, at sådanne netværk er meget velegnede til at behandle tidsafhængige signaler. Det kan være tale, men også finansielle data, vejrdata osv.

Reservoir computing er dog ikke så velegnet som traditionelle neurale netværk til at behandle ikke-tidsafhængige data – som at analysere billeder, spille skak eller Go. I hvert fald ikke i dag.

Reservoir computing som begreb har kun ca. 10 år på bagen, men det har udspring i lidt ældre computerarkitekturer fra begyndelsen af nullerne. Det er dog stadig en beregningsmetode, der er i sin barndom og ikke har nået sit fulde potentiale.

Jeg ved ikke, om der er nogen, der har speciel interesse i at kunne genkende tale med en hastighed af en million ord i sekundet. Men jeg tror, vi kommer til at høre meget mere til reservoir computing i fremtiden.

For den teknik, som den franske forskergruppe har udviklet for at kunne nå dertil, vil være interessant til analyse af andre tidsafhængige data, som rummer information, det virkelig vil være Værd at vide mere om.

Emner : Værd at vide
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Den formodentlig allervigtigste indsigt omkring ikke alene hjernen, men hele vores biologi, er at evolutionært press som 'udviklingsmetode' producerer "spaghettikode".

Se f.eks: citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.29.7790&rep=rep1&type=pdf

(Mere populær artikel om samme: http://discovermagazine.com/1998/jun/evolv...)

Det er, per definition, meget langt fra den slags "Intelligent design" som f.eks 6502 processoren er et resultat af og derfor giver det i store træk ikke nogen mening overhovedet at afprøve værktøjer fra det ene domæne på det andet domæne.

Personligt tror jeg ikke vi kommer væsentligt videre i vores forståelse af hjernen før forskerne sætter sig ind i hvad spaghettikode faktisk er og hvilke egenskaber og fænomener det præsenterer.

Desværre har datalogien i de sidste 50 år systematisk forsket i at komme så langt bort fra spaghettikode som muligt, så hurtigt som overhovedet muligt, så der praktisk taget ingen systematik, ingen teoridannelse og ingen værktøjer man kan stå på skuldrene af endnu.

I de senere år er vi dog begyndt at udvikle værktøjer til analyse af spaghettikode, fordi malware af alle mulige slags optimeres, intelligent og via evolutionære algoritmer, til at modstå den traditionelle systematiske analyse via triviel disassemblering.

Se f.eks https://www1.ethz.ch/pminf/education/semin...

De fleste af disse nye værktøjer baserer sig på at enumere alle potientielle flow-graphs og derfra eliminere de umulige fortolkninger, hvilket overhovedet ikke skalerer i det komplexitetsniveau som den menneskelige hjerne og andre store neurale netværk disker op med.

Yderligere har de fleste af disse værktøjer en stiltiende antagelse af at der under et lag af "obsfuscation" ligger kode med "intelligent design".

Evolutionære skæverter som f.eks "sickle cell" som resistensgiver mod malaria eller en optisk nerver i et øje der vender den forkerte vej, ville disse værktøjer kaste bort som "dybt usandsynlige hypoteser".

Så nej, hjerneforskningen er nok ikke på vildspor, men de har nok heller ikke gjort sig klart hvor langt der er til Californien i en oksekærre...

  • 4
  • 2

Mennesker kan heller ikke forstå 6502 uden dokumentation. Det er en hjerne - men den skjuler sig. For at kunne analysere en sådan hjerne, er nødvendigt at den lukker op for, at man kan se ind i den. Læses f.eks. alle registre og hele ram'en ud, så den bliver synlig for analysen, så begynder det at kunne automatisk analyseres.

Mennesker kan - et stykke af vejen - selv udregne og gætte på interne tilstande. Og computeralgorithmer kan naturligvis også. Men, der er grænser. Og de computere som udvikles - f.eks. 6502 - er lavet så tilpas ulogiske, at de næppe nogensinde kan forstås, ved at se på dem. Formentligt, er det en del af det, at holde deres design copyright bar.

Kort, kan vi sige, at enhver processor, der kan analyseres af en algoritme, næppe vil kunne patenteres og copyright beskyttes.

  • 1
  • 1

Kvantecomputere kan været under debat i næsten 20 år. Jeg erindrer en stor flok af engagerede folk, der mente at det var løsningen på en masse problemer. En flok samlede sig og drog til en formastelig skeptiker, hvor de argumenterede for deres synspunkt - kvantekomputeren var fremtiden. Nu popper den kun sjældent op i debatten, det kunne se ud som der er store problemer med at få sat den udviklet til en brugbar størrelse. Fint af den bliver støvet af og bliver sat frem igen. Så må man jo håbe på, at nogle får den til at virke.

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten