Næste generation AI-chipsæt kan gøre skyen overflødig

19. oktober 2017 kl. 11:1111
Næste generation AI-chipsæt kan gøre skyen overflødig
Economy of things kalder Mads Thimmer, direktør i Innovation Lab, ­ den kommende integration af IoT- teknologier, der gør det muligt at indføre nye betalingsmodeller for f.eks. hotelværelser eller lejebiler. Hør mere om det på EOT. Illustration: Morten Fauerby.
Chipproducenten Intel har udviklet en ny AI-chip baseret på neuromorfisk chipteknologi, der mangedobler regnekraften med en faktor én million til et meget lavere strømforbrug.
Artiklen er ældre end 30 dage

På mange måder er det aldrig lykkedes os at opfinde noget, der bare tilnærmelsesvis kan måle sig med den menneskelige hjerne.

Som Mads Thimmer, medstifter af og direktør i innovationshuset Innovation Lab, udtrykker det, kan vores hjerne udføre beregninger med en gennemsnitlig regnekraft på 13 teraflops – 13.000 milliarder operationer i sekundet – og vel at mærke med en gennemsnitlig oppetid på godt og vel 80 år.

»Samtidig bruger vi kun energi svarende til måske 20 watt. Det er jo en afsindig god ratio regnekraft. Og det er ikke lykkedes os at producere computerteknologi, der bare kommer i nærheden af den ratio,« siger Mads Thimmer.

Kunstig intelligens sluger strøm

I hvert fald ikke før nu. Neurale netværk og dyb læring – deep learning på engelsk – er godt på vej til at udstyre computere med en grad af kunstig intelligens, der i flere tilfælde overgår den menneskelige hjerne, når det gælder antal beregninger pr. sekund. Og længere ude i horisonten lurer kvantecomputeren.

Artiklen fortsætter efter annoncen

Det er imidlertid beregninger, der kræver et betydeligt strømforbrug. Dertil kommer udfordringerne med at få transmitteret disse beregninger hurtigt nok, hvis de samme data skal forbi en cloud-server oppe i skyen – det kræver en internet­forbindelse af en vis hastighed.

Derfor finder Mads Thimmer det uhyre interessant, at Intel er på vej med en selvlærende chip, en såkaldt neuromorfisk chip, der ifølge de første rygter – primært leveret af Intel selv – er én million gange hurtigere end tilsvarende chipteknologier på markedet. Men som samtidig bruger tusind gange mindre strøm.

Det opnår chippen, som Ingeniøren tidligere har skrevet ved at imitere netværket i en dyrehjerne.

Læs også: Intel skaber selv-indlærende eksperimental-chip

Artiklen fortsætter efter annoncen

»Også Google og Amazon er på vej med chipteknologier udviklet in-house, hvor det drejer sig om at opnå markant højere processor­kraft med et markant lavere strøm­forbrug,« fortæller han.

Intels chip er blevet døbt ‘Loihi’ efter en vulkan på Hawaii. Den bygger på Intels 14 nm FinFET-­procesteknologi og rummer ifølge producenten selv 130.000 neuroner og 130 millioner synapser. Det gør chippen i stand til at lære af sine omgivelser på en helt anden skala, end man indtil nu har kendt det det fra andre teknologier baseret på neurale netværk.

Loihi er en af de teknologier, som InnovationLab vil vise frem på EOT-messens innovationstorv midt i Hal M. Om Mads Thimmer og hans kolleger vil kunne have et fysisk eksemplar af chippen med under armen er tvivlsomt – Intel vil først tilbyde chippen til universiteter og forskningsinstitutioner fra begyndelsen af 2018 – men under alle omstændigheder er det ifølge Mads Thimmer absolut en teknologi, der er værd at tage med, når man snakker fremtidige landvindinger på elektronikområdet. Simpelthen fordi den markerer et nybrud i vores opfattelse af kunstig intelligens som noget, der foregår via skyen.

Edge-computing fortrænger skyen

»Ved at lægge den kunstige intelligens ned i et chipsæt kan man ændre på funktionaliteten i realtid direkte på enheden, så man ikke behøver sende data op til skyen og ned igen. Tidligere har den form for kunstig intelligens været ren software, men nu kan man begynde at hardkode den kunstige intelligens ned på et chipplan,« forklarer han og tilføjer, at Intels opfindelse allerede har fået eksperter og forskere til at mene, at de cloud-løsninger, der ellers er en af tidens hotteste teknologier, med tiden bliver overflødige.

»Der er faktisk nogle, der mener, at clouden bliver erstattet af edge-computing i distribuerede netværk, der kan lave store dele af den nødvendige processering. Det giver en meget mere strømbesparende og logisk måde at håndtere de her store datamængder på,« siger Mads Thimmer fra Innovation Lab.

Foruden Intels neuromorfiske chip vil Innovation Lab på EOT-messen præsentere ni andre bud på teknologier, der alle har potentialet til at redefinere det elektronikteknologiske landskab.

Economy of Things

Eksempelvis vil man kunne høre om blockchain, printet elektronik og det, som Mads Thimmer betegner som Economy of Things – IoT-bølgens mere modne og markedsorienterede fætter:

»IoT er driveren i rigtig meget produktudvikling i dag, men næste skridt bliver, at alle disse komponenter ikke bare kan opsamle data, men også træffe beslutninger og agere ud fra dataene. Det åbner op for nye betalingsmodeller, eksempelvis at man kun betaler for sit hotelværelse eller sin lejebil i den periode, man rent faktisk benytter dem – for låsen kommunikerer automatisk til et betalingssystem, når brugeren låser sig ind.«

Artiklen fortsætter efter annoncen

Udviklingen af neurale netværkschips, printet elektronik og blockchain rimer måske umiddelbart mere på Silicon Valley end på Sønderborg, men spørger man Mads Thimmer, er det slet ikke umuligt for danske elektronik- og softwarevirksomheder at hoppe med på vognen.

»Jeg mener faktisk, der ligger nogle muligheder. Nogle gange glemmer vi, hvilken arv dansk industri egentlig gemmer på. Haldor Topsøe var nogle af de første med semikonduktorer, men ifølge en meget sejlivet anekdote solgte de deres waverphase-patent for at få råd til nyt rengøringsudstyr. Tilsvarende er en af de største spillere inden for printet elektronik et norsk firma – og hvis de kan deroppe, kan vi da også i Danmark,« understreger han.

11 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
11
28. oktober 2017 kl. 22:58

Programmørerne stjæler CPU kapaciteten</p>
<p>Min nuværende PC kører regneark i skyen langsommere end min 8086 PC for 35 år siden. Så hvor er fremskridtet?</p>
<p>WordPerfect kunne vise alle koder - de er idag skjult - med bøvl til følge, når formateringerne ikke vises ved copy - paste.</p>
<p>Come-On IT?</p>
<p>Hardwaren lever af, at softwaren spiser den ekstra processorhastighed - ret sindsygt set fra et brugersynspunkt - med fast business for såvel hard- som software leverandører.

Det er muligt at lave algoritmer som du kører på computeren, og herefter reduceres en stor del af det overflødige væk. Der bruges i dag allerede en del af den type algoritmer i compilere - men disse er statiske, og foretager ikke dynamisk optimering. Problemet er, at der endnu mangler en del forskning, før vi har rigtig gode algoritmer.

Algoritmerne minder meget om den måde mennesker tænker - f.eks. kan vi se en opgave igennem og udskyde dele som vi ikke har data til på nuværende tidspunkt. Tager vi f.eks. en fortolker løkke, så er muligt at lave algoritmer der gør den kode som fortolkes ligeså hurtig, som hvis den var skrevet i maskinkode til maskinen.

Et neuralt netværk er dog langt fra i stand til at lave optimeringer på software.

Når det drejer sig om at få software til at køre hurtigere, så kommer man meget længere med moderne dynamisk kodeanalyse, end ved at investere i neurale netværk. Der køres bare et program på computeren - og så kører den mange gange hurtigere.

Jeg kan godt komme med flere eksempler på algoritmer der viser hvordan. Antag vi f.eks. har en meget simpel løkke der tæller, og lægger alle tal sammen. Den simple måde er at indse det, og bruge en formel, til at udregne resultatet. Dette virker dog ikke særligt generelt, og kan kun bruges i det pågældende tilfælde, som sandsynligt aldrig mødes i den virkelige verden. Køres løkken derimod igennem, ved at den foldes ud, så der bliver halvt så mange gennemløb, disse kører igennem en analysering der optimerer løkken, så har vi halveret antallet af gennemløb og optimeret meget bort. Dette kan gøres o(log n) gange, og vi har løst problemet i logn tid. Det virker generelt for en stor række af simple problemer. Vores lille opgave med at udregne summen af alle tal fra 1 til n, er en af de opgaver som kan udregnes i logn tid. Et andet problem, er fortolker problemet som jeg tidligere omtalte. Det er et noget mere kompleks system at løse. Men, det viser sig, at kunne fjerne meget overflødigt kode, fordi det skræddersyr koden til maskinen. Når man skal lave en ny computer, så kan man tage en gammel og simulere koden med en fortolker. Og den kører ligeså hurtig, som hvis det program der køres på den nye computer er oversat direkte til til den gamle, selvom den går igennem en fortolker af den nye computer. Selv fortolkere i fortolkere, sløver ikke computeren ned. Der kan være et uendeligt antal fortolkere i hinanden, og det oversættes stadigt direkte til computeren. Denne algoritme er noget svære.

Alt i alt, så kan man lave algoritmer der gør det meget svært at lave kode som tager tid. Eneste mulighed, hvis man ønsker en pause i koden, er at anvende en regulær pause instruktion. Det, som vi har svært ved i dag, er at tage springet fra at vi skriver algoritmerne der optimerer, og til computerne selv skriver dem. Det gør de desuden bedst i fællesskab, så de kan udveksle algoritmer. Når vi kommer dertil, så begynder det at ligne liv - hvor der sker kommunikation mellem maskiner, med henblik på, at de optimerer sig, ved at udveksle algoritmer - altså metoder, til at forbedre sig. Det minder meget om den måde at liv fungerer, når det udveksler f.eks. DNA. og ideer. Dårlige algoritmer forbedres, og erstattes af bedre, og gør at computerne regner hurtigere.

10
24. oktober 2017 kl. 10:45

Formentlig er chippen specialiseret til deep learning (convolutive neural networks), som ganske rigtigt sluger meget strøm og regnekraft på gængse CPUer og GPUer.

Du skal ikke forvente, at du kan afvikle dit regneark hurtigere, og jeg tvivler også på, at den er specielt egnet til raytracing, som Martin nævnte som en mulighed -- her vil moderne GPGPUer (General-Purpose GPU'er) nok være bedre egnet.

Hvad skyen angår, så er det ikke kun regnekraft, man bruger skyen til. Man bruger den i lige så høj grad for at håndtere et stort antal Internettransaktioner, der er ujævnt fordelt over tid. Det kan en ren beregningschip ikke erstatte.

9
20. oktober 2017 kl. 13:57

beviser til fulde Torbens synspunkt

8
19. oktober 2017 kl. 18:29

Min nuværende PC kører regneark i skyen langsommere end min 8086 PC for 35 år siden. Så hvor er fremskridtet?

WordPerfect kunne vise alle koder - de er idag skjult - med bøvl til følge, når formateringerne ikke vises ved copy - paste.

Come-On IT?

Hardwaren lever af, at softwaren spiser den ekstra processorhastighed - ret sindsygt set fra et brugersynspunkt - med fast business for såvel hard- som software leverandører.

7
19. oktober 2017 kl. 16:59

Tavshed...fjenden lytter!:

...giver mulighed for at lægge kunstig intelligens-funktionalitet direkte ned på et stykke hardware i stedet for at være afhængig af software-processering i skyen eller andre steder

- 'Æblet og Fjæsbogen' må ikke høre om dette..så skrinlægger de måske deres storinvesteringer i 'jyske datalagre'!! :)

6
19. oktober 2017 kl. 16:15

Intel har jo tidligere brugt meget energi på at promovere raytracing, og jeg tænker at denne nye struktur måske også kunne være velegnet til den slags?

Men ellers er det da meget positivt hvis man kan lægge mønstergenkendelsen ned lokalt på vores enheder så vi er fri for at sende vores potentielt meget private data ud i en eller anden serverfarm et ukendt sted på jorden hvor vi ikke har nogen som helst kontrol over hvordan det bliver brugt.

5
19. oktober 2017 kl. 15:42

Det vil jo vise sig. Umiddelbart lyder det som om at denne chip er væsentligt anderledes end andre chips på markedet da den er bygget op som neuroner med 1000 synapser pr neuron. Vi har jo som sådan ikke noget grundlag for at vurdere hvor stor en gevinst der er ved denne chip i forhold til sammenligningsgrundlaget, har vi?

4
19. oktober 2017 kl. 13:32

Jeg tvivler på, at chippen er så hurtig, hvis den får en stak tilfældige beregninger.

Normalt opnås den type gevinster kun indenfor et meget snævert felt af opgavetyper.

3
19. oktober 2017 kl. 13:23
  • 8 timers service window, en væsentlig tendens til at blive forstyrret fra igangværende opgaver samt at spilde sine ressourcer på dårlige tv-serier ;-)

Men 1 mio. gange forbedring i ydelse og 1000 gange forbedring i energi. Spændende!

1
19. oktober 2017 kl. 12:25

vel at mærke med en gennemsnitlig oppetid på godt og vel 80 år.

... men dog med et service window på 8 timer hvert døgn :-)