Ukendt

  • Ing.dk er under ombygning - vi er tilbage mandag med nyt udseende. Henover weekenden er alt vores indhold åbent, men man kan ikke logge ind og debattere.

Studerende udvikler banebrydende sanserobot

Den ligner måske mest en lille elektronisk hund, som man kan købe i Fætter BR, og som kækt kan rejse sig på bagbenene og se sød ud. Men i virkeligheden er det en avanceret fjernstyret robot, der kan sende sine sanseindtryk trådløst tilbage til operatøren.

Som andre fjernstyrede robotter er den udstyret med kameraer og mikrofoner samt en række andre sensorer, men den gemmer alligevel på nogle overraskelser for operatøren.

»De fleste robotter er programmeret til at udføre blot en enkelt, bestemt opgave. Vi har taget vores robot skridtet videre og givet den sanser. Det, den ser og hører, kan den sende videre i realtid til det menneske, som styrer den,« fortæller Jakob Flarup Øllgaard, ingeniørstuderende ved Aarhus Universitet. Han er en af de seks studerende på elektrolinjen, der har udviklet robotten.

En gruppe studerende ved Ingeniørhøjskolen Aarhus Universitet har udviklet en sanserobot, der giver operatøren helt nye muligheder for at opleve sig som værende i robottens omgivelser. På billedet ses fra venstre: Allan Hansen, Jakob Flarup Øllgaard og Mikkel Stampe Pedersen. Illustration: Henrik Olsen

Ved hjælp af de mekaniske øjne og ører får operatøren helt nye muligheder for intuitiv styring.

»Vores koncept - Robot Reality - er, at man placerer robotten i et rum eller et sted, og så oplever operatøren, at han er i det samme miljø. I den nuværende prototype har vi kun lyd og billede, men man kunne også forestille sig, at robotten blev udstyret med en temperaturføler, så man også kunne simulere det,« supplerer medstuderende Jonas West Alrø.

Hovedbevægelser styrer robottens øjne

Robotten er foreløbig udstyret med et bevægeligt modul, som indeholder et lille kamera og to mikrofoner. Man styrer den ved hjælp af en hjelm og sine egne hovedbevægelser. Med et par hørebøffer og briller med indbygget skærm modtager man lyd- og videooptagelser fra det sted, hvor robotten befinder sig.

Hjelmen har indbygget kompas, gyroskop og accelerometer, så den ved hjælp af en lille computer kan beregne operatørens nøjagtige position og synsretning og sende disse informationer trådløst til robotten, som indstiller sig efter dem uden forsinkelse i tid. Så når operatøren drejer hovedet, vil kameramodulet på robotten også dreje. Kigger man op, kigger robottens kamera med op.

»Det giver en meget autentisk fornemmelse af tilstedeværelse. Man får slet ikke fornemmelsen af, at man ser videooptagelser og hører lydoptagelser, men at det er ens egne øjne og ører, der registrerer omgivelserne et helt andet sted,« uddyber studiekammeraten Martin Boye Petersen.

De mekaniske køreegenskaber frem, tilbage og til siden styres trådløst med et joystick.

Kan give bedre overvågning

Robottens største fordel er, at den gør styringen mere intuitiv og derfor langt nemmere. Konceptet kan tilpasses robotter i alle industrier, forklarer de studerende, og blandt andet sætte operatører i stand til at udføre deres opgaver nemmere og med større præcision.

»En af de største udfordringer har været at måle et ansigts retning. Vi skal kunne måle hovedets hældning i forhold til jorden, og hvilken retning hovedet peger i relativt i forhold til robotten. Desuden skulle det modul, der sidder på robotten kunne bevæge sig tilsvarende, og dér har vi været nødt til selv at 3D-printe det modul, der får kameraet til at pege i den retning, som operatøren kigger,« forklarer Jonas West Alrø.

De studerende har i første omgang udviklet robotten med sigte på, at den kan anvendes i vagt- og overvågningsbranchen.

»I stedet for at sætte videokameraer op overalt i bygninger kan man nøjes med en robot. Det er mere effektivt, fordi den kan kigge overalt og nemt forfølge et objekt,« forklarer Martin Boye Petersen.

Robotkonceptet kan også komme til gavn i for eksempel militær- og katastrofeområder, hvor det er risikabelt for mennesker at færdes.

Ud over de nævnte har også Allan Hansen, Mikkel Stampe og Rune Arbjerg Heick deltaget i projektet.