Verdens i særklasse største chip skal bruges til kunstig intelligens
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.

Verdens i særklasse største chip skal bruges til kunstig intelligens

Her ses den nye kæmpechip med 1.200 milliarder transistorer og et areal på 46.225 mm^2 sammenlignet med den største grafiske processor (GPU) med 21 mia. transistorer på en areal på 815 mm^2. Illustration: Cerebras

Kunstig intelligens og deep-learning kræver utroligt mange beregninger. Af samme grund bruger Google-firmaet DeepMind specialudviklede tensorprocessorer, som ikke er i fri handel, i deres AlphaZero, der har lært sig selv at spille brætspil som skak og Go til nærmest overnaturlig perfektion.

Den californiske startup-virksomhed Cerebras er gået en anden vej til at lave kraftige processorer til kunstig intelligens. Firmaet har netop præsenteret en såkaldt Wafer Scale Engine (WSE).

Den er enorm på alle måder.

Fysisk har den et areal på 46.225 kvadratmillimeter. Det svarer til en mellemting mellem et A5- og et A4-ark. Det er 56 gange større end den største grafikprocessor (GPU).

Antallet af transistorer er ikke mindre end 1.200 milliarder. Nvidia’s GV100 Volta nøjes med 21 milliarder.

Chips produceres i dag på en siliciumskive eller wafer, hvor mange identiske processorer fremstilles ved siden af hinanden.

Den simple tilgang er at sammenkoble alle dele på waferen, så man ikke får mange identiske små chips, men en enkelt kæmpechip.

Cerebras har selv beskrevet, hvorfor det er nødvendigt med sådanne enorme processorer til kunstig intelligens i et white paper.

IEEE Spectrum har en udmærket oversigt med referencer til den viden, vi har om den nye chip.

Det fremgår heraf, at de første prototyper allerede er leveret til kunder, og yderligere oplysninger om kæmpechippen vil blive fremlagt på en supercomputing-konference til november.

Om det lige bliver denne teknologi, der kommer til at løbe med sejren om at blive fremtidens AI-chip er dog alt for tidligt at udtale sig om.

Som IEEE Spectrum også nævner, findes der alternative teknologier lidt i samme stil som et såkaldt silicon interconnect fabric.

Emner : Chips
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

At lave en chip i wafer-størrelse er selvfølgelig muligt, men jeg kan forestille mig at yield er utrolig lavt. Der er i hvert fald sikkert at visse arealer af waferen skal blændes ud p.gr.a fejl. Jeg tør slet ikke tænke på hvad sådan en fætter kommer til at koste.

Alene test vil være ekstremt dyrt.

  • 2
  • 0

At lave en chip i wafer-størrelse er selvfølgelig muligt, men jeg kan forestille mig at yield er utrolig lavt. Der er i hvert fald sikkert at visse arealer af waferen skal blændes ud p.gr.a fejl. Jeg tør slet ikke tænke på hvad sådan en fætter kommer til at koste.

Alene test vil være ekstremt dyrt.


Neurale netværk er i nogle tilfælde meget robuste overfor fejl, så måske betyder det ikke noget. Det kan også ske, at oplæringsnetværket er lavet på en måde, så celler der ikke fungerer udelukkes. Yield og fejl er ikke et stort problem. Der er nemt at anvende programmerbare strukturer, så moduler med fejl ikke bruges. Det er kun et spørgsmål om chip designet, og ikke et fysisk problem. Det, som er problemet ved store waffers er strømforbrug og pris. Anvendes chippen intensiv, så er der mange skift, og stort strømforbrug, og en moderne CPU bruger mange ampere, og er der 1000 styk så bliver det til kilo-ampere. Det er svært at håndtere. Og, så er der naturligvis også en udfordring at lede mange watt bort. Både at forsyne med stor strøm, og lede mange watt bort, er sandsynligvis muligt, men det kan ikke gøres med standard chips. Endeligt, er også en ulempe, at en stor chip er mere skrøbelig. Hvis strømforbruget er stort, og effektafsættelsen er stor, så er det meget dyrt at håndtere. De neurale netværkschips har sandsynligvis et meget lavt strømforbrug, siden at det kan gøres uden problemer med effektafsættelsen.

Normalt, er det ikke dyrt at teste - heller ikke store chips, hvis de ellers laves til det. Det som er problemet ved tests, er at funktionelle tests ikke kan fange alle fejl. Der er f.eks. fejl hvor chippen får et for stort strømforbrug, og fungerer som NMOS, selvom det var tanken, at det skulle være en CMOS chip. Og der er tilfælde, hvor der er åbne ledninger, der tilfældigvis får en transistor til at virke, måske som CMOS, måske som NMOS - og måske ikke. Den slags fejl kan være svære at detektere. Ofte gøres det ved at måle strømforbrug samtidigt, men det er altid svært at fange alle fejl. Chippens størrelse betyder ikke meget i den sammenhæng. Tværtimod, vil man sandsynligvis ved store chips lave dem så de tåler at der pludseligt opstår fejl, og har run-time fejlhåndtering. Det brugte man allerede i radiorørenes tid, da der var radiorør som gik i stykker hele tiden. Nogle computer kørte kun få minutter, så der var en teknikker som konstant stod og satte nyr rør i.

  • 1
  • 0
Bidrag med din viden – log ind og deltag i debatten