Instrumenter på Nasas Mars 2020 Rover trækker på AI
more_vert
close
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Instrumenter på Nasas Mars 2020 Rover trækker på AI

Illustration: Nasa

Jens Frydenvang fra Statens Naturhistoriske Museum er en del af teamet bag det ene af instrumenterne om bord på Nasas kommende Mars 2020 Rover.

Instrumentet hedder SuperCam og er en videreudvikling af det ChemCam, som sidder på Curio­sity-roveren. Formålet for begge er at undersøge den kemiske sammensætning af forskellige typer klipper og stenlag.

ChemCam består grundlæggende af et LIBS-­instrument (Laser-Induced Breakdown Spectro­scopy) og et kamera. En pulset laser med pulser på ca. 30 mJ og en pulslængde på ca. 6 ns fokuserer på et mål og skaber en irradians på over 1 GW/cm2 op til 7 m fra instrumentet.

»Alle værdier afhænger af temperatur og afstand, så typisk er vi bedre end det,« fortæller Jens Frydenvang.

Efterfølgende analyseres spektret af lyset fra plasmaet, og det bestemmes, hvilke grundstoffer klippen består af.

Undersøger molekylære sammenhænge

SuperCam indeholder også LIBS og et kamera, men derudover kan SuperCam også foretage Raman­-spektroskopi og infrarød spektroskopi. Det betyder, at SuperCam kan undersøge molekylære sammenhænge i klipperne, herunder hvilke mineraler de består af. Både ChemCam og SuperCam drager fordel af de AI-systemer, der er om bord på roverne.

Mars 2020-roveren, som planlægges at lande på Mars i begyndelsen af 2021, gør i vid udstrækning brug af kunstig intelligens under såvel landingen på som udforskningen af den røde planet. Illustration: Nasa/MI Grafik

»Det handler om, hvordan vi kan få roveren til at foretage videnskabelige undersøgelser. Her bruger vi et AI-system kaldet Aegis (Autonomous Explora­tion for Gathering Increased Science), der giver mulighed for, at roveren autonomt leder efter klipper med specifikke karakteristika, finder det optimale sted at skyde med ChemCam og foretager en måling uden at skulle vente på ordrer fra kontrolteamet på Jorden,« fortæller Jens Frydenvang.

John Leif Jørgensen fra DTU Space er meddesigner på et værktøj kaldet Pixl, der skal lede efter tegn på, at der engang har været liv på Mars.

»En Mars-rover kan man kun styre fra Jorden, når man kan se den – i løbet af dagtimerne på Mars. Traditionelt har man stoppet roveren, når det blev mørkt. Næste morgen, når alle kuglelejer er varmet op, kan man så fortsætte med at køre frem med tre kilometer i timen eller fortsætte de undersøgelser, man var i gang med dagen før,« fortæller John Leif Jørgensen.

Også Pixl involverer brug af AI. Når en klippe skal undersøges, tager et stereokamera monteret på roverens mast billeder. De sendes til Jorden, hvor geologer vurderer, hvad der er de mest interessante/lovende områder på klippen. Derefter sendes ordrer op til roveren, der laver en handover til et andet instrument.

AI identificerer målet

Roveren er udstyret med en arm, og på enden af armen sidder et analysekamera og Pixl påmonteret. Geologernes ønsker skal nu linkes mellem det oprindelig billede og det, som kameraet på enden af armen viser.

»Det at linke de to billeder og korrelere forskellige positioner, kontekst og belysning står AI for. Det lyder måske ikke af meget, men det svarer lidt til at identificere en bygning fra gaden ud fra et billede, der et taget fra taget,« fortæller John Leif Jørgensen.

Derefter placeres Pixls mikroskop i 14 millimeters afstand af klippen, og undersøgelserne kan gå i gang. Temperaturforskellen mellem dag og nat kan på Mars være mere end 100 grader celsius, og det giver udfordringer.

»Det får alting til at trække sig sammen, og det kan være nemt for mikroskopet af miste orienteringen. Armen flytter sig, og jorden, som roveren står på, synker sammen, så afstanden til klippen er ikke den samme. Her skal vores AI hjælpe med at lade kameraet operere autonomt igennem natten og konstant rette til, efterhånden som omgivelserne forandrer sig. Der er desuden systemer, der dynamisk kan bestemme, hvornår Pixls røntgenmikroskop er færdig med ét område og kan bevæge videre til det næste,« forklarer John Leif Jørgensen.

200MHz CPU'er..
Hvad er årsagen til at man har valgt denne lave Processor hasighed?
Hvorfor ikke de mere hurtigere Processorer? (1GHz+)

  • 0
  • 0

De langsommere CPUer har måske tykkere baner og er mindre følsomme for at blive forstyrret eller ødelagt.

  • 0
  • 0