Frustrerede universiteter advarer: Finansieringen vakler under dansk supercomputer-strategi


Fremtiden er usikker for indkøb af en række nye supercomputere på universiteterne, der ellers er helt centrale for forskerne, der i stigende grad gør brug af heftig regnekraft. Finansieringen efter næste år er fortsat ikke på plads, og det svækker muligheden for forskning i hurtige kræftdiagnoser, fremskrivning af store klimamodeller og senest som et vigtigt våben til udvikling af vacciner mod corona-virus.
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Er mere hardware det eneste svar?
Nej, kun til de indledende øvelser. På længere sigt er nye software paradigmer et mere holdbart svar. Jeg kender nogle af paradigmerne, men de kan udfoldes i flere "dimensioner". Parallellisering er kun en.
Man må først lære at bruge hardware mere effektivt ved at udnytte flere clock-cycles; det har jeg lært - for mange år siden. Moore's regel (undertiden kaldet: Moore's lov) har længe svækket interessen for bedre udnyttelse af hardwaren i software.
Den manuelle øvelse kunne jeg godt klare, men de andre dimension er f.eks. biblioteker af effektive funktioner, compilere som faktisk kan optimere (nye sprog eller pragma) og nye måder at konstruere hardware på.
Det vi idag kalder HPC (high performance computing) handler mest om CPU'er med flere memory busser, hurtigere og større caches eller en kombination. Idag kan en typisk bus klare 8 bytes og med 8 bussser, kan man læse en hel cache linje på én gang.
I dag udføres flere samtidige tråde vandret; det fører til at processer slås om cachen, Hvad nu hvis lærte at programmere lodrette tråde (og havde brede busser mellen kernerne?