Swipe med øjnene: Handicappede styrer mobilen med blikket
more_vert
close
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og at Mediehuset Ingeniøren og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, tilbud mm via telefon, SMS og email. I nyhedsbreve og mails fra Mediehuset Ingeniøren kan findes markedsføring fra samarbejdspartnere.

Swipe med øjnene: Handicappede styrer mobilen med blikket

Illustration: Social Digital

Et bachelorprojekt fra sidste sommer kan inden længe blive til en praktisk og billig løsning for handicappede, der ikke kan bruge hænderne til at styre hjemmets låse, lyskontakter og kaffemaskiner.

En ny type eye tracking, opfundet af de to studerende bag projektet, kan nemlig bruges på en almindelig smartphone uden ekstraudstyr. Dermed er springet til at styre de mange smart home-aggregater, der kommer på markedet i disse år, ikke langt.

»Eye tracking har jo eksisteret længe, men man har manglet at kunne bruge det i en almindelig kontekst, fordi man har haft brug for at vide præcis, hvor folk kigger hen,« konstaterer den ene af de to studerende bag projektet, Elias Lundgaard Pedersen.

Sammen med sin medstuderende Frederik Østergaard Neble på DTU's bacheloruddannelse i design og innovation fik han for et år siden ideen til at gå væk fra den såkaldte blikpunktsstyring, der er den type eye tracking, vi kender. Ulemperne ved den er, at den kræver stereoskopiske kameraer, der kan bestemme præcis, hvor pupillerne kigger hen. Det kræver også, at skærmen kalibreres i forhold til øjnene inden brug.

Den nye løsning, som de har døbt 'Enable', baserer sig i stedet på gestusbaseret interaktion. Her holder kameraet i stedet øje med bevægelserne i øjet og er ikke afhængigt af, hvilken del af skærmen øjet kigger på. På den måde kan pupillernes bevægelse mod højre, mod venstre og op eksempelvis betyde 'sluk lyset'.

I dag bruges øjenstyring blandt andet af folk med neurologiske lidelser, som kan have svært ved at betjene en computer eller en smartphone. I dag benytter de sig af traditionel øjenstyring på en større skærm, som eksempelvis kan være monteret på en kørestol.

Efterhånden som flere og flere dele af hjemmet kan betjenes via en smartphone, bliver de DTU-studerendes tilgang til øjenstyring mere relevant, vurderer de selv.

»Så vil man ikke længere behøve særlig hardware, men kan nøjes med en forholdsvis billig smartphone. Det gør vores tilgang mere skalérbar og billigere end de eksisterende løsninger,« vurderer Elias Lundgaard Pedersen.

I dag beror de to studerendes software på forholdsvis 'grove' gestusser såsom at kigge til højre og venstre. Den teknologi er de nu ved at forfine, så den for brugeren i højere grad vil minde om at kigge på et bestemt sted på skærmen – dog stadig uden at de har behov for særlig hardware, forsikrer han.

I brug om få måneder

Elias Lundgaard Pedersen og Frederik Østergaard Neble blev færdige med deres bachelorprojekt om teknologien i juni. Siden da har de været ansat i virksomheden Social Digital, hvor de skal føre den ud i livet. I dag forsøger de at få finansieret tests og udvikling af systemet.

»Hvis alt går, som vi håber, med funding og så videre, håber vi at kunne lancere det inden for et år. Vi starter et pilotprojekt allerede inden for nogle måneder,« siger Elias Lundgaard Pedersen.

Se DTU's video af projektet herunder.