Kunstig intelligens og deep-learning kræver utroligt mange beregninger. Af samme grund bruger Google-firmaet DeepMind specialudviklede tensorprocessorer, som ikke er i fri handel, i deres AlphaZero, der har lært sig selv at spille brætspil som skak og Go til nærmest overnaturlig perfektion.
Den californiske startup-virksomhed Cerebras er gået en anden vej til at lave kraftige processorer til kunstig intelligens. Firmaet har netop præsenteret en såkaldt Wafer Scale Engine (WSE).
Den er enorm på alle måder.
Fysisk har den et areal på 46.225 kvadratmillimeter. Det svarer til en mellemting mellem et A5- og et A4-ark. Det er 56 gange større end den største grafikprocessor (GPU).
Antallet af transistorer er ikke mindre end 1.200 milliarder. Nvidia’s GV100 Volta nøjes med 21 milliarder.
Chips produceres i dag på en siliciumskive eller wafer, hvor mange identiske processorer fremstilles ved siden af hinanden.
Den simple tilgang er at sammenkoble alle dele på waferen, så man ikke får mange identiske små chips, men en enkelt kæmpechip.
Cerebras har selv beskrevet, hvorfor det er nødvendigt med sådanne enorme processorer til kunstig intelligens i et white paper.
IEEE Spectrum har en udmærket oversigt med referencer til den viden, vi har om den nye chip.
Det fremgår heraf, at de første prototyper allerede er leveret til kunder, og yderligere oplysninger om kæmpechippen vil blive fremlagt på en supercomputing-konference til november.
Om det lige bliver denne teknologi, der kommer til at løbe med sejren om at blive fremtidens AI-chip er dog alt for tidligt at udtale sig om.
Som IEEE Spectrum også nævner, findes der alternative teknologier lidt i samme stil som et såkaldt silicon interconnect fabric.
