Spørg Scientariet: Hvordan tager man billeder af asteroider?

31. juli 2015 kl. 10:064
Spørg Scientariet: Hvordan tager man billeder af asteroider?
Illustration: ESA 2010 MPS for OSIRIS Team MPS/UPD/LAM/IAA/RSSD/INTA/UPM/DASP/IDA.
En læser vil gerne vide, hvordan man tager billeder af asteorider og andet langt væk fra Jorden. Hvem trykker på knappen? Professor på DTU Space svarer.
Artiklen er ældre end 30 dage

Daniel Bergsagel har spurgt:

Det lyder som om, at det er en bagatel af en manøvre at snuppe et par billeder af en asteroide på vej mod et fjernere mål. Følg blot dette afsnit fra en gammel artikel i Ingeniøren:

‘ESA's rumsonde Rosetta fløj forbi Lutetia i juli måned i år på sin vej ud mod 67P/Churyumov-Gerasimenko, hvor den ankommer i 2014. Under nogle forbiflyvninger foretog den detaljerede observationer af asteroiden Lutetia og fik taget billeder. Mødet fandt sted 454 millioner kilometer fra Jorden, uden for Mars’ bane. Rosetta fløj forbi asteroiden med 15 kilometer i sekundet og i blot 3.162 kilometers afstand.’

Nu spørger jeg i mit stille sind. Hvordan dælen gør man det? Hvordan tager man billedet? Hvem trykker på knappen, og hvornår gør vedkommende det? Hvor lang tid går der, fra man trykker på knappen, til den tager billedet? Hvordan ved man, hvad der er i linsen? Eller er det hele beregnet på forhånd?

Artiklen fortsætter efter annoncen

John Leif Jørgensen, professor på Institut for Rumforskning og Rumteknologi på DTU Space, svarer:

Rosetta blev designet og bygget for så mange år siden, at alle systemer er baseret på simple, ikke automatiserede, instrumenter. Således også Rosettas kameraer. Rosettas navigationskamera er lavet til at finde et lyst objekt på en mørk baggrund, der ofte er lille og på et sted, man ikke er helt sikker på, hvor er. Denne situation er netop den, Lutetia-forbiflyvningen er i.

Billederne af asteroiden Lutetia er taget fra ESA’s rumsonde Rosetta, da den fløj forbi med 15 kilometer i sekundet og i blot 3.162 kilometers afstand. (Foto: ESA) Illustration: ESA 2010 MPS for OSIRIS Team MPS/UPD/LAM/IAA/RSSD/INTA/UPM/DASP/IDA.

Da et objekt skal ses på lang afstand, er kameraets brændvidde stor, altså et teleskop, og det dækker derfor et meget lille billedfelt. Dertil kommer, at Rosetta ikke har nogen form for onboard-autonomi, og da tovejs-lystiden til Jorden er stor, er man tvunget til at lade teleskopet optage en række billeder, der tilsammen dækker et større billedfelt.

Denne teknik er også brugt i bane omkring kometen 67P/C-G. Man skal så fikse de billeder ud, der indeholder et objekt og bruge dette.

Naturligvis ser man først Lutetia på meget stor afstand, hvor positionsfejlene ikke gør så meget, så man ved, hvor man skal pege hen for at få det næste billede. Man holder derefter fast i billedet, mens man langsomt nærmer sig, mens man hele tiden scanner et område, der er stort nok til at sikre, at objektet er med på et af billederne.

Artiklen fortsætter efter annoncen

Navigationskameraet er monteret på en platform, der tillader, at man peger teleskopet i den ønskede retning, så man slipper for at ændre hele Rosettas orientering og dermed miste kommunikation med Jorden og sol på panelerne.

I dag laver vi den slags kameraer meget mere avancerede med autonom målsøgning og tracking. Men det kræver en computerkraft, man ikke havde på Rosettas designtid.

4 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
4
4. august 2015 kl. 17:43

Betyder dit svar, og mange tak for det, at Kristian Hougaards hypotese, baseret på semantik, er forkert ?

Jeg forstår det således, at rumfartøjets orientering (kameraet) blev justeret "autonomt" (altså ombord), medens fotograferingen blev udløst af en (kompliceret) timer-algoritme - hovedsagelig forudbestemt af lagerkapacitet til billeder (før/efter komprimering).

Supplerende, så forstår jeg også at download til jorden er så langsom, at den reelt ikke offloader lageret før senere.

3
4. august 2015 kl. 00:27

Jeg var operations manager for OSIRIS kamera systemet paa Rosetta og havde hovedansvaret for design og implementation af de kommando sekvenser som blev brugt til at tage Rosetta's billeder af 21/Lutetia.

Designet af en fly-by sekvens som Rosetta's Lutetia fly-by er kompliceret. Alle billeder er pre-kommanderede til at blive taget til et bestaemt tidspunkt med en bestaemt konfiguration. Det vil sige at man designer sekvensen med saa meget fejl tolerance som overhoved muligt inden for de resurce begraensninger som Rosetta har (primaert tid (det tager ca 4s at tage et OSIRIS billede) og datalager volumen (OSIRIS og Rosetta havde ca 1 Gb lagerplads som blev fyldt paa ca 20 min)).

Det stoerste problem med fly-by sekvensen var ikke pointing ved taetteste afstand. Rosetta er faktisk udstyret med et onboard autonomy system som kan korrigere orienteringen af rumsonden aktivt ved hjaelp af navigations kamerarene. Denne mode blev brugt under Lutetia fly-by sekvensen. Denne "asteroid fly-by mode" er ioevrigt aarsagen til at Rosetta ikke kom taettere paa astroiden end 3000km, da afstanden var styret af kravet om at asteroiden aldrig maatte fylde mere end 20% af billedfaeltet i navigations kameraet (Hvilket gav os ca 60m/pixel med OSIRIS NAC kameraet).

Det stoerste problem var styringen af kameraets og Rosetta hukommelse. Der var store begraensning paa hvor mange billeder vi kunne tage og hvor hurtigt. Billederne skulle haelst tages naar Rosetta var taettest paa asteroiden. Der var ca 1min usikkerhed paa dette tidspunkt hvilket betyder at vi maatte tage en del billeder inden for en periode paa ca 5 minuter (for at sikre farve og stereo data nok til at kunne karakterisere asteroiden bag efter i hoej oploesning). Da det tager ca 40 s at kompremere et OSIRIS billede med en SPIHT algoritme var det lidt af et mareridt at sikre sekvensen mod overflow et eller ander sted i processerings pipelinen.

Det lykkedes godt men det er nok et af de tidspunkter i min kariere hvor jeg har svedt mest :-). Der var mange ting som skulle klappe perfekt inden for faa minuter for at det skulle lykkedes.

2
31. juli 2015 kl. 20:24

Der står ikke "ikke automatiserede instrumenter", der står "ikke autonome". Det er en ret væsentlig forskel.

Jeg synes det er et glimrende svar. Det giver mig en super fin forståelse for hvad der foregår:

Instrumenterne kan fjernstyres, men kan ikke selv finde motivet (dvs. ingen autonomi)

Så sådan helt principielt, så gør man, så vidt jeg har forstået sådan:

Man vælger - fra jorden - at "zoome" helt ud, pege i den retning man tror motivet ligger, og så tager man f.eks. 100x100 billeder af et stort område. På jorden kigger man billederne igennem, og finder ud af hvilke billeder, der rent faktisk har ramt motivet. Så zoomer man ind i den retning og tager igen 100x100 billeder und so weiter, indtil man har nået maksimal opløsning og får de bedst mulige billeder.

Og der kan man jo godt forstå, at det ville være snedigt, hvis rumsonden autonomt selv kunne zoome ind på motivet, frem for at sende vældige mængder af billeder af tomt verdensrum tilbage til jorden :-)

1
31. juli 2015 kl. 10:49

Jeg synes svaret er selvmodsigende og mangelfuldt.

"Ikke automatiserede instrumenter" >< "holder fast i billedet" og "scanner" .........

Det er naturligvis korrekt at mulighederne for 15 år siden, på ðesigntidspunktet var anderledes, men det er næppe sådan at rumfartøjer bare tumler af sted og fotograferer hvad der til fældigvis kommer i fokus .....

Det er en om'er - altså svaret .....