Ny MIT-sensor ser gennem tågen i trafikken
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Teknologiens Mediehus kan findes markedsføring fra samarbejdspartnere.

Ny MIT-sensor ser gennem tågen i trafikken

Illustration: MIT

Når mosekonen brygger må de fleste bilproducenter indstille testen af selvkørende biler, fordi de bruger lidar-sensorer til at finde vej i trafikken. En af de helt store udfordringer ved at bruge lidar-sensorer, altså lysbaserede billedsensorer, er nemlig at de har svært ved fungere igennem tåge.

Et hold forskere fra amerikanske MIT har undersøgt metoder til at supplere lidar, og er endt med at udvikle en sensor der anvender sub-terahertz bølgelængder, der befinder sig mellem mikrobølger og infrarød stråling på det elektromagnetiske spektrum.

Det skulle betyde, at sensoren er i stand til at se igennem tåge og støv på en måde som den infrarøde lidar har problemer med.

Den nye sensor-chip fungerer efter samme metode som en lidar, hvor der udsendes laserlys, og en sensor registrerer tiden på refleksionerne. Den afstandsmåling bruges til at skabe en 3D-billede af omgivelserne, som en bil kan bruge til at navigere i.

I en artikel, som udkommer senere i år i IEEE Journal of Solid-State Circuits, beskriver forskerne en to-dimensionelt sub-terahertz-modtager på en lille chip, der er mere følsom, hvilket betyder, at den bedre kan fange og fortolke signalerne, selvom der er signalstøj, eksempelvis tåge og støv.

Konkret har de udviklet en 32-pixel matrix som er integreret på en 1,2 millimeter stor, firkantet chip.

Læs også: Svenskere presser lidar-teknologi ned i mikrochip

Supplement til lidar

De billed-pixels skulle være omkring 4,300 gange så følsomme som de eksisterende chip-baserede sub-terahertz sensorer. Der mangler dog fortsat noget udvikling, før de kan masseproduceres til eksempelvis selvkørende biler og robotter.

»En stor motivation for vores arbejde er at have bedre ‘elektriske øjne’ til autonome køretøjer og droner. Vores billige chip-baserede sub-terahertz sensorer vil spille en komplementær rolle til lidar, når miljøet er barsk,« siger Ruonan Han, lektor og direktør for Terahertz Integrated Electronics Group på MIT Microsystems Technology Laboratories (MTL) i en pressemeddelelse.

I dag bruger mange bilproducenter radar-teknologi, der bruger radiobølger til at måle afstand, til at kompensere for lidar-teknologiens manglende evner til at se igennem tåge og støv i navigationssystemer i biler.

Men det er ikke ligetil at erstatte en radar, med et mindre sensor-system der fungerer ligesom lidar-sensorer, men på kortere bølgelængder.

For at kunne genkende billedobjekter nøjagtigt er der i dag typisk behov for at kunne et stærkt signal fra sensor til processor-enheden. De enheder er i dag store, dyre og energikrævende.

Når man som MIT-forskerne udvikler nye mindre chip-basere sensorer bliver signalet oftest også svagere

Læs også: Nye kraftige lidarsensorer risikerer at ødelægge kameraer

Decentralt chip-design

Løsningen på den udfordring skulle, ifølge MIT-artiklen, være et decentralt system, hvor hvert enkelt billed-pixel sendes over sit eget signal. Det kan bedst kan sammenlignes med et sprinkleranlæg til kunstvanding.

I et traditionelt vandingssystem pumpes der vand fra en pumpe gennem et netværk af rør der leder vandet ud igennem en række små sprinklere. Det betyder at trykket i den enkelte sprinkler er lavere end det der kommer fra pumpen. Hvis trykket skal være lige højt i alle spinklere kræver det et kontrolsystem,

Her giver MIT-designet chippen således, at hver ‘sprinkler’ har sin egen pumpe, ligesom der kommunikeres mellem 'sprinklerne', for at ensrette signalet. På samme for hver enkelt billed-pixel,

»Med vores design er der grundlæggende ingen grænser for skalerbarheden. Du kan anvende lige så mange enheder, og hver enhed pumper stadig den samme mængde vand ud, og alle pumper fungerer ens,« siger Ruonan Han ifølge pressemddelelsen og fortsætter:

»Vi har designet en multifunktionel komponent til et decentraliseret design på en chip og kombinerer et par diskrete strukturer for at skrumpe størrelsen på hver enkelt pixel. Selvom hver pixel udfører komplicerede opgaver, bevares kompaktheden, så vi stadig har en høj tæthed i stor skala,« siger Ruonan Han.

Læs også: Spørg Fagfolket: Hvordan orienterer selvkørende biler sig i snevejr?

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Eller måske længere bølgelængde?

Current state-of-the-art LiDAR systems are largely based on sensors using one of two wavelengths: 905 nanometers (nm) and 1550 nm

Wavelengths of radiation in the terahertz band correspondingly range from 1 mm to 0.1 mm (or 100 μm).

  • 4
  • 0

Tesla bruger ikke Lidar teknologi.
Hvad er deres metode og hvor godt fungere det i bla tåge?
I følge Musk har de Tesla biler der solgt fra 2016 og frem den fornødne hardware til at kunne køre selv.

  • 0
  • 0