Nye små halvledere bliver hurtigere slidt op af varme og stress

Illustration: Taiwan Semiconductor Manufacturing Co., Ltd

Hvor længe kan jeg regne med, at processorer kan sørge for regnekraft? Det spørgsmål får ekspedienterne sjældent i butikken, når forbrugere shopper smartphones, bærbare computere eller måske en ny elbil.

Men det kan hurtigt blive til virkelighed, hvis ikke halvlederproducenterne begynder at tage levetidsproblemer alvorligt for de nye små halvledere, som udgør de centrale komponenter i de mikroprocessorer, der driver de fleste elektronikprodukter i dag.

Problemet er opstået, i takt med at antallet af transistorer i et integreret kredsløb vokser, samtidig med at størrelsen på kredsløbet bliver mindre. Det er især halvledere på fem nanometer og under, som begynder at vise tegn på hurtig nedbrydning.

Men nu ser det ud til, at halvlederproducenterne er ved at ramme muren for størrelsen af de transistorer, der er kernen i moderne processorer. Der lyder meldinger om svækkede levetider og hurtig nedbrydning dukker op på chips, der er fremstillet efter fem nanometer-processer, som er de mindst tilgængelig på markedet i dag.

Det fortæller en række eksperter og analytikere til mediet Semiengineering. For når størrelsen på halvlederne bliver så små, så bliver de hurtigere slidt op af høj varme og elektromigration.

Læs også: Effektelektronik bliver stresset i Aalborg

»Når du prøver at følge Moores Lov, så vil du løbe ind i problemer, fordi små enheder ikke opfører sig på samme måde som større,« siger Francesco Iannuzzo, der er professor på Institut for Energiteknik på Aalborg Universitet.

I dag er Samsung og TSMC på vej med produktion af halvledere på fem nanometer med finFET i år, mens de samtidig har lagt planer om at sætte gang i produktion af tre nanometer-processer i løbet af 2021 eller 2022.

Håret vokser en nanometer i sekundet

En nanometer er 0,000000001 eller 10^-9 meter. Til sammenligning vokser et menneskehår på hovedet omkring en nanometer i sekundet.

Når vi taler om halvlederproduktion, bruges begrebet en nanometer (nm)-proces til at beskrive bredden på transistor-gaten. Jo mindre gaten er, jo mere processorkraft kan pakkes på et givet område. Nanometerprocessen har i mange år fungeret som den internationale rettesnor for, om producenterne kan følge med Moores Lov, der siger, at antallet af transistorer i et integreret kredsløb fordobles hver 18-24 måneder.

Læs også: Apple vil bruge ARM-processor i MacBooks: Kan starte chip-revolution

Det er især varme, der nedbryder halvledernes evne til at forbinde et integreret kredsløb.

»Højere hastigheder har en tendens til at generere højere temperaturer, og temperatur er den største dræber. Den forventede levetid kan eksponentielt forandres med en lille delta-ændring i temperatur,« siger Rita Horner, senior product marketing manager for 3D-IC hos Synopsys til Semiengineering.

Fra fabriks- til forbrugerproblem

‘How low can you go’. Det har været mantraet hos verdens halvlederproducenter, siden Intels grundlægger, Gordon Moore, fremlagde sin forudsigelse om halvledere, der blev til Moores Lov.

Op til i dag har kapløbet om at følge med Moores lov primært givet panderynker hos halvlederproducenter, mens vi forbrugere har kunnet nyde godt at hurtigere, kraftigere og mindre processorer i elektronikprodukter uden grundlæggende at skulle bekymre os om ustabile processorer eller kort levetid.

De nye små nanometer-processer har primært givet udfordringer i selve fremstillingsprocessen, og derfor er feltet af virksomheder, der faktisk kan fremstille så små halvledere, i dag indsnævret til en lille håndfuld globale virksomheder, f.eks. TSMC, Samsung og Intel. Når først en halvlederproducent har fået styr på en given nanometer-proces, er chippens levetid meget længere, end forbrugerne har behov for.

Men nu ser det altså ud til, at slutproduktet også bliver påvirket negativt at ønsket om øget regnekraft på mindre plads.

Den udvikling er blevet forstærket af måden, man i dag pakker transistorer i et integreret kredsløb. Her er man gået fra flade CMOS-processer til finFET, hvor en konventionel transistor vendes på siden, så den ikke længere er flad, men har en tre dimensioner med et større overfladeareal. Og når varmen er pakket mere ind, har den sværere ved naturligt at forlade transistoren.

Tidligere har man løst udfordringen med levetid med konservative designs, hvor der er indlagt plads til lade varmen slippe væk. Man har altså overdimensioneret chipdesignet for at undgå overophedning. Men det er ikke nødvendigvis muligt, når dimensionerne er nede i 5-10 nanometer.

Ud over temperatur er elektromigration en anden årsagen vigtig årsag til, at halvlederne bliver hurtigt slidt. Samtidig bliver de nye små mikroprocessorer også udsat for langt hårdere behandling, end vi har været vant til, f.eks. i biler, hvor temperaturen hurtigt kommer over 150 grader, hvilket også presser pålideligheden og giver en hurtigere slid på de små chips.

Læs også: Diamanter – elektronikkens nye bedste ven

Emner : Chips
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

De fleste af nutidens chips, er ikke designet med hensyn til få skift, men for at opnå så stor hastighed som muligt. Og, de er heller ikke designet med henblik på at sprede varmen på et stort område. Som eksempel, så kan man nemt reducere antallet af skifts, og dermed klokfrekvens, uden det går ud over computerens hastighed - tværtimod. Vi er vandt til at klokfrekvens og hastighed er det samme, fordi at det har salgsmænd prakket os på - sådan er det ikke. Man kan som eksempel bruge en lav klokfrekvens, og udføre det samme antal indstruktioner som før, men vælge at lade forskellige ALU'er udføre arbejdet. Derved sker præcist det samme, og der opnås samme hastighed, men varmefordelingen spredes ud over et større område. Det viser sig, at teknologien endda giver en større hastighed, selvom klokfrekvensen er mange gange lavere. Antallet af indstruktioner der kan udføres i rækkefølge af hinanden med dataafhængighed stiger også. Det, som reelt har betydning for hastigheden er den forsinkelse som der er i transistoren - ikke klokfrekvensen. I stedet for, at have en eller flere ALU'er der udfører indstruktion for indstruktion, så folder man ALU'erne ud, så at deres signaler går videre til næste hold ALU'er, og det er så forsinkelsen der giver den reelle klokfrekvens, ikke den fysiske klokfrekvens. Normalt, bruges teknikker, så at udregningerne går igennem ALU'erne i bølger, og forsøger at undgå der er en stoppende klok, uanset det er klokket.

  • 2
  • 9

Normalt, bruges teknikker, så at udregningerne går igennem ALU'erne i bølger, og forsøger at undgå der er en stoppende klok, uanset det er klokket.

En af fordelene ved denne teknik, er at kloksignalet ikke mere er et digitalt skiftende signal, men en analog sinusbølge imellem to ledninger. Det betyder at tab der skyldes klokking undgås. Kredsløbende er uafhængige af forsinkelser, for med en analog klok, ved man ikke med præcision hvornår at klokken kommer, og skiftetidspunkterne på klokkede flipflops er derfor tilfældige, men der er bølger hvor kloks kan forekomme på et tilfældigt tidspunkt, og bølger hvor de ikke er der.

  • 1
  • 10

Jeg ved godt, at ordet stress har mange betydninger, men overskriften gav mig næsten medfølelse med de stakkels processorer. Og så er vi ved at nærme os Hollywoords kliche med den overbelastede computer, der ryger, og kabler der falder ned i en sky af gnister. Bare i en mikroskopisk skala.

  • 3
  • 1

En af fordelene ved denne teknik, er at kloksignalet ikke mere er et digitalt skiftende signal, men en analog sinusbølge imellem to ledninger. Det betyder at tab der skyldes klokking undgås. Kredsløbende er uafhængige af forsinkelser, for med en analog klok, ved man ikke med præcision hvornår at klokken kommer, og skiftetidspunkterne på klokkede flipflops er derfor tilfældige, men der er bølger hvor kloks kan forekomme på et tilfældigt tidspunkt, og bølger hvor de ikke er der.

Jeg er ikke helt sikker på om ovenstående tågesnak skal dække over adiabatiske kredsløb, LC-clockgeneratorer og/eller self-timed kredsløb.

Under alle omstændigheder er der tale om teknologier der har været lovende de sidste 30+ år og ud over deres nicheanvendelser nok bliver ved med at få baghjul af milliardinvesteringerne i normale klokstyrede digitale kredløb i en overskuelig fremtid.

  • 11
  • 0

Jeg er ikke helt sikker på om ovenstående tågesnak skal dække over adiabatiske kredsløb, LC-clockgeneratorer og/eller self-timed kredsløb.

Under alle omstændigheder er der tale om teknologier der har været lovende de sidste 30+ år og ud over deres nicheanvendelser nok bliver ved med at få baghjul af milliardinvesteringerne i normale klokstyrede digitale kredløb i en overskuelig fremtid.

Adiabatiske kredsløb kender jeg ikke.

Du kan bruge LC-klok generatorer til klokning, og du lave kredsløbet således der ikke er store tab - har du således 0 på indgangen til en flipflop, og 0 på udgangen, så vil der ikke kræves større energi, selvom den får en klok, da flipfloppen ikke skifter. Klokkens energiforbrug ophæves ved anvendelse af LC teknologi, ligesom i switch-mode kredse. Der er kun flipflops der skifter, hvor der er forskel mellem indgang og udgang på en flipflop. Jeg ved dog ikke, om det reelt er lykkedes at lave fungerende chips endnu. Jeg mener man anvender to differentielle kloksignaler med en sinus imellem. Så vidt jeg ved så minder strukturen lidt om 2-fase klok. Det eksakte tidspunkt hvor at en latch får klok er ikke særligt veldefineret, på grund af den analoge struktur af kloksignalet. Det kan ske over et område på sinusklokken. Men, med den måde som kredsløbet laves, er det også ligegyldigt, hvornår og hvor længe at klokken er der, så længe at der er huller i bølgen, der adskiller dataene.

Self-time kredsløb kan i nogle tilfælde også reducere energiforbruget, men jeg tror ikke der er stor gevindst. De har dog nogle gode egenskaber, fordi at de fortæller hvornår at data foreligger - det vil sige, at hvis du udfører n indstruktioner i en pakke, så vil du på udgangen fra både asynkrone og CVSL kredsløb kunne se hvornår at data foreligger. Det har den fordel, at der ikke er de samme dataafhængigheder som ud fra et blokmæssig datalogisk synspunkt. Udfører du f.eks. 8 indstruktioner med dataafhængighed imellem, så hver indstruktion går videre til næste, så vil man normalt forvente at der er en forsinkelse på den tid som det tager at udføre 8 indstruktioner. Det gælder ikke ved asynkrone kredsløb, eller kredsløb hvor samme teknik bruges til at generere wait signaler. Fordelen er således i højere grad i større hastighed, på grund af afhængighedernes dybe er mindre, end det er mindre effekt, selvom det er mindre effekt, at asynkrone kredsløb normalt sælges på. Man kan ikke regne dataafhængighedernes dybde ud på forhånd da de afhænger af data, så worst case svarer til det der regnes ud, hvis vi ser det som blokke. Asynkrone kredsløb skal nulstilles mellem hver operation, og har i princippet to udgange, til både 0 og 1, og derfor er muligt at også få at vide hvornår data foreligger.

Jeg tror det mest væsentlige er at reducere klokfrekvensen, og at få processorerne til at anvende flere ALU'er til udregningen. Dette medfører at den afgivne effekt afsættes over et stort område.

  • 0
  • 6

"Metal fatigue is a weakening of metal due to stress".

Ja, metaltræthed opstår ved mekanisk eller anden svækkelse af metaller. Det er ikke helt det der sker i chippen, men derimod - som det også fremgår af artiklen - elektromigrering og det er lidt anden effekt end metaltræthed, selv om det minder om det.

Ved elektromigrering er der tale om, at atomer i metallet (typisk aluminiumsledere), flytter sig fysisk som følge af det konstante bombardement af elektroner. Effekten kan blive så kraftig, at strømmen så at sige slider ledningen over. "Migrering" betyder netop at atomerne flytter sig, og man kan se effekten som direkte rævner i metallet.

Elektromigrering optgræder ved en kombintion af strøm(-styrke) og lederens geometri. Da lederne bliver tyndere og tyndere når integrationsgraden øges, stiger også elektromigreringsproblemt. En 10 nm leder indeholder knapt 300 aluminiumsatomer i tværsnit (Van der Waals radiusen på at Al atom er 0,184 nm, og lederen er ca. 10x5 nm (dvs. 50 nm²) eller mindre.

Lederne er selvfølgelig dimensioneret til at kunne bære den nødvendig strøm, og i den ideelle verden kan man så beregne hvor meget der skal til før atomerne migrerer. Problemet er, at urenheder i metallet betyder, at elektronstrømmen kan ændre karakter inde i lederen, og dermed skabe lokale "strømme" som overstiger grænsen for migrering. Omkring dette forureningspunkt opstår der så - efterhånden som atomerne forlader området, en øget modstand, som betyder øget varme, som betyder kraftigere migrering, som så i sidste ende fører til en afbrydelse, som så ødelægger chippen.

Er man interesseret i beregningerne indeholder denne Wiki ganske omfattende dokumentation: https://en.wikipedia.org/wiki/Electromigra...

  • 10
  • 0

Stressede halvledere?, lad os give dem noget orlov så de kan komme tilbage med fornyet ledningsevne.

Kom nu ing,dk - ikke flere automatiserede oversættelser af artikeloverskrifter.

God artikel (oversættelse) ud over det.

  • 2
  • 5

Stressede halvledere?, lad os give dem noget orlov så de kan komme tilbage med fornyet ledningsevne. Kom nu ing,dk - ikke flere automatiserede oversættelser af artikeloverskrifter. God artikel (oversættelse) ud over det.

I den her sammenhæng skal det nok forstås som overbelastning. Måske, bliver det motivation til at satse mere på teknikker til lavt effektforbrug. Vi skal under alle omstændigheder reducere effektforbruget, hvis vi ønsker flere beregninger.

  • 1
  • 0

Her er det store problem. A lave et design hvor tingene kan foregå i parallell. Det er vi slet ikke blevet ret gode til endnu.

Jo, det er vi faktisk gode til. Vi kan lave VHDL oversættere, der automatisk oversætter et ikke perallelt kredsløb, til et fuldt parallelt kredsløb. Vi fortæller bare vores compiler kravene til hastighed. Det eneste krav er dog, at hvis det skal foregå optimalt, så bliver VHDL compileren nød til, at få lov til at kunne indsætte wait cycles i kredsløbet, der hvor problemet ikke kan løses uden. I dag behøver du ikke at specificere at en processor er parallel, eller pipelined, for at lave en pipelined og parallel processor. Pipelining, forwarding, og paralleliseringer sker automatisk. Du skal bare angive tidskravene, så kommer næste generation ud, og det fungerer uanset om det er en CPU, eller et andet digitalt kredsløb du specificerer.

  • 2
  • 1

Wauw, den vhdl compiler vil jeg gerne have. Så kan det oven i købet være jeg skifter til VHDL igen.

[Ironi kan forekomme]

Desværre ved jeg ikke hvor man får den. Men, man kan bruge nogle af teknikkerne manuelt. Og du kan trikke f.eks. Xilinx til at bruge nogle af principperne for automatisk at forwarde og pipeline, ved at benytte dens indbyggede optimering og udskifte ram/rom moduler med nogen der har indbygget kredsløb, som den kan retime ind i chippen.

Da jeg var studerende, var der gang i et projekt, hvor man oversatte VHDL til en dataflow graf som de studerende kunne arbejde med, og derefter kunne den rekonverteres tilbage til VHDL, så man kunne bruge det til chip fremstilling. De studerende arbejde så med deres algoritmer på dataflow grafen, f.eks. parallelisering, pipelining, retiming, og forwarding. Og man samlede så til sidst de studerendes projekter, i en stor algoritme. Jeg kan huske, at man havde algoritmer til at øge pipeline dybden, til at konvertere mellem pipelinedybde og parallelisme, til at udlæse flere bytes samtidigt (dual port ram'er), og evt. konvertere til flere efterfølgende bits/bytes/words efter hinanden fra ram'er og rom'er, således man kunne f.eks. optimere pipelines automatisk.

  • 1
  • 2
Bidrag med din viden – log ind og deltag i debatten