Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
By signing up, you agree to our Terms & Conditions and agree that Teknologiens Mediehus and the IDA Group may occasionally contact you regarding events, analyzes, news, offers, etc. by telephone, SMS and email. Newsletters and emails from Teknologiens Mediehus may contain marketing from marketing partners.
Fundamental fysik bloghoved

Slut for denne gang på LHC

Farvel og tak for al dataen!

I morges blev stikket trukket på the Large Hadron Collider på CERN i Schweiz og Frankrig. Siden 2015 har LHC været i gang med det såkaldte ”andet run” (ud af fem), og det er nu færdigt. Der er samlet i omegnen af 1.6 * 10 ^16 (16 000 000 000 000 000) proton-proton kollisioner, og et endnu ukendt antal kollisioner af bly mod bly.

Denne nedlukning er planlagt, da den giver plads til tiltrængte opgraderinger af udstyret. Der er flere grunde. For det første er der helt almindeligt slid. Og så lidt ualmindeligt. Detektordele der bliver beskudt med højenergiske partikler har det med ikke at holde lige så længe som detektorer der bare ligger i kælderen. Derfor er der naturligvis en del udstyr der skal dekommisioneres. En anden grund er, at flere af detektordelene er bygget til de første faser af LHC, hvor man kørte med lav luminositet (antal kollisioner per sekund), og er ikke bygget til de næste høj-luminositetsfaser. Dette gælder blandt andet en meget stor detektordel hos eksperimentet ALICE, bygget på NBI i København, faktisk i den gruppe hvor jeg for tiden arbejder. Det er en detektor bygget til præcisionsmålinger af partikelmultiplicitet (hvor mange partikler kommer der ud…), over en stor bredde parallelt med beamen. Dette er særligt vigtigt for kollisioner af tunge atomkerner, hvor man kan have 10 000’vis af partikler per kollision, og hvor antallet af partikler kan fortælle os en masse om hvad der skete i kollisionen.

Dette er faktisk en af de ting jeg selv har arbejdet hårdest med, med data fra run 1 og run 2. Herunder er en figur fra min seneste ”lange” publikation (arXiv:1806.10820). Det der er målt er netop partikelmultipliciteten (med ovennævnte detektor, kaldet FMD i ALICE (arXiv:1612.08966)) i kollisioner mellem to bly-kerner med en energi på 5 TeV per nukleon-nukleon par. Den samlede kollisionsenergi er altså langt, langt højere en den højeste kollisionsenergi af protoner.

Illustration: Christian Bierlich

Figuren er et histogram, og variablen på x-aksen kan forstås som partiklens vinkel relativt med beam. De forskellige kurver er hvor ”centrale” kollisionerne er, altså i hvor høj grad de to blykerner overlapper med hinanden. Det kan man ikke måle direkte, så det må man bruge modeller som dem jeg selv laver til at afgøre. Jo mere blykernerne overlapper, jo mere aktivitet er der, og jo flere partikler bliver der altså produceret.

Hvis man ikke lige kender state-of-the-art inden for denne slags simuleringer, er det måske ikke lige til at se at jeg er ganske stolt over resultatet. Men det er jeg. Ikke bare beskriver simuleringen multipliciteten ret godt, men måden den gør det på er ret interessant. Basalt set har vi i simuleringen antaget at der i kollisioner mellem tunge atomkerner ikke findes nogen anden dynamik en i en kollision mellem protoner. Det eneste der skal tilføjes er atomkernernes geometri. Atomkerners geometri kender vi ret godt, og man kan derfor lave en geometrisk simulation, hvor man stort set antager at atomkerner består af en række sorte diske. I en Monte Carlo simulerer vi derefter en kollision ad gangen, et snapshop af en sådan kollision har jeg vist herunder, ikke bly-bly, men proton-bly, da det er lidt lettere at overskue.

Illustration: Christian Bierlich

Figurens to akser er kollisionens geometri, altså x -og y-akse, med længeenheder fm, der er 10^-15 m. Da blykernerne kollideres ved relativistiske energier, er de flade som pandekager, og vi behøver derfor bare to koordinater. Den sorte cirkel er protonen, de røde er de bly-nukleoner der blev ramt, og de blå er dem der ikke blev ramt. Når dette er gjort, parres protonen med alle de ramte nukloner, hvert par giver en bestemt type proton-proton sammenstød, der stables ovenpå hinanden. Og til sidst har man altså det resultat der ses ovenfor.

En anden grund til jeg er glad for dette resultat, er at vi har implementeret vores simulation i en fri, open source kode, der kan bruges af alle. På denne måde kan resultaterne reproduceres, og eksperimenterne kan anvende dem til at forstå data. Dette er vigtigt hvis vi skal kunne anvende lektierne vi har lært i run 1 og run 2 når LHC åbner igen i 2021.

Og hvad skal der så ske til den tid? For tiden er der en proces i gang, der skal definere de næste 10 års europæiske strategi for partikelfysik. Strategien er ikke helt færdig endnu, men jeg lover at skrive mere her, når der er konklusioner klar.

Emner : Fysik
ChristianBierlich
er teoretisk partikelfysiker og er i gang med en ph.d. ved Lund Universitet. Han skriver om stort og småt fra fysikkens verden.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

"Der er flere grunde. For det første er der helt almindeligt slid. Og så lidt ualmindeligt. Detektordele der bliver beskudt med højenergiske partikler har det med ikke at holde lige så længe som detektorer der bare ligger i kælderen."

Det kunne være spændende hvis du vil uddybe, hvilke dele der sliddes (og hvordan).

  • 5
  • 0

Jeg vil tro den totale dosis af ioniserende stråling bærer en del af skylden (sammen med Displacement Damage). Halvledere som bipolære transistorer og MOSFETs mister henholdsvis strømforstærkning og ændrer tærskelspænding (Vt) som funktion af dosis. Det skyldes en langsom opbygning af ladning i oxidlagene til passivering, gateoxid, etc.

Det morsomme er, at denne proces skulle være reversibel (hvis du har mod på at vente en 20-30 år).

  • 1
  • 0

Tak for din gennemgang. Dit arbejdsområde med bly-bly kollisioner er nok for specialiserede til, at jeg kan følge med i dem (sorry).

Den forestående opdatering af LHC forekommer mig uforståelig. Stødenergien bliver stort set ikke ændret, kun hyppigheden (luminositeten).

Ved en fordobling kan man kun opnå dobbelt så meget af det samme. Det tjener jo ikke det store formål. Der er i forvejen masser af data, som kan analyseres.

CERN praler selv med enorme mængder af data. En reanalyse af LIGOs mere end et år gamle data har for nylig afsløret endnu en gravitionel sammensmeltning.

Jeg hører gerne dit syn på den nuværende opdatering og på den fremtidige, som er ret så kostbar, og som hvis man skal tro Hossenfelders seneste og stærkt kritiske blog blot er et skud i tågen.

Spørgsmålet er, ved hvilken investering opnår betalerne (skatteborgerne) mest ”bang for the buck”?

  • 1
  • 0