Nu skal robotten i neural træningslejr
more_vert
close

Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.

Nu skal robotten i neural træningslejr

Teknologisk Institut arbejder på, hvordan man ved hjælp af deep learning kan lære robotter at skelne forskellige objekter eller opdage f.eks. sygdomme på planter. Illustration: Morten Vittrup Lund

Det kunne være vindruer, der skal inspiceres for sygdomme inden presningen. Eller planter, der skal inspiceres for mug, inden de forlader gartneriet.

Men det kunne også være automatisk sortering af elektronikaffald, så man nemmere kan opsamle printkort fra mobiltelefoner eller batterier fra gamle fjernbetjeninger. Eller termografiske inspektioner af limprocesser.

Uanset hvad er der tale om opgaver, der kan være svære at løse med traditionel vision-teknologi. Men i krydsfeltet mellem vision-kameraer, deep learning og robotteknologi arbejder blandt andre Teknologisk Institut (TI) på at udvikle systemer med kunstig intelligens, der gør eksempelvis pick-and-place-robotter i stand til samtidig at udføre kvalitetsinspektioner af selv meget komplekse emner – som eksempelvis førnævnte planter.

»Det åbner op for langt flere brugerscenarier. En robot vil kunne udføre pick-and-place-opgaver og kan samtidig gennemføre kvalitetstjek. Også af ting, man ikke kan se med traditionel vision, eksempelvis små defekter, fordi vi lægger noget deep learning ovenpå,« forklarer vision-specialist hos TI, Michael Nielsen, om systemet, der er blevet døbt DTI Vision Box 2.0, og som blev vist frem for den brede offentlighed på HI-messen tidligere på efteråret.

Næste skridt er netop at integrere softwaren med en robot, så algoritmerne kan vise deres værd i praksis.

Flere kameratyper i spil

Til forskel fra 1.0-generationen af boksen, der kørte på OPC, kan 2.0'eren håndtere langt de fleste feltbus-kommunikationsprotokoller og kan dermed kommunikere direkte med eksempelvis en robot eller en PLC, fortæller Michael Nielsen.

Via deep learning-software fra en svensk udvikler af machine learning-software, Refind Technologies, kan systemet i kombination med avancerede kameraer træne robotten til at genkende og klassificere forskellige genstande.

Kameratypen er ifølge Michael Nielsen underordnet. Det kan være termografiske kameraer, røntgenkameraer, hyperspektrale kameraer eller noget helt fjerde.

Robotten sendes i træningslejr

I et aktuelt projekt arbejder Michael Nielsen og hans kolleger på at teste systemet på en AAB-robot med dobbeltgriber, der skal udvælge og sortere elektronikaffald på et samlebånd.

Robotten bliver så at sige sendt i træningslejr, hvor den lærer at kende forskel på en mobiltelefon, en fjernbetjening og andet elektronikaffald fra husholdningen. Det er nemlig primært ældre telefoner – nogle med trykskærm – som robotten skal kunne sortere, og derfor skal den kunne kende forskel på en gammeldags mobiltelefon og en fjernbetjening, der ellers for et utrænet robotøje godt kan se ens ud.

»Vi træner systemet i at vise robotten, hvordan en mobiltelefon ser ud. Ligesom man viser et barn, hvordan en telefon ser ud,« forklarer Michael Nielsen, der dermed også kommer ind på en af de helt grundlæggende udfordringer ved deep learning-teknologier:

»Og så er det, at hvis barnet ikke har set en lommeregner i forvejen og ikke ved, hvad det er, kan man let komme til at tro, at en telefon er en lommeregner. Eller omvendt. De samme problemer har deep learning-softwaren. Hvis man kun viser robotten telefoner versus avisaffald, vil den også tro, at en lommeregner er en mobiltelefon.«

Se TI's egen video om projektet her:

Hvor lidt træning kan man slippe af sted med?

I det aktuelle projekt bliver systemet præsenteret for 120 billeder af det pågældende objekt. Det har indtil nu kastet en gentagelsesnøjagtighed på 92 procent af sig.

Så spørgsmålet er, hvor mange billeder, der skal i brug, før man kan ramme en fejlmargen på måske 0,1 procent, som ofte vil være kravet ude i den virkelige verden?

»Et af målene med projektet er at finde ud af, hvor lidt læring vi kan slippe af sted med. Den klassiske tankegang er bare at skaffe flere og flere data, men hvornår er det nok?« spørger Michael Nielsen retorisk.

»Vi har trænet robotten med 120 billeder, men vi ville skulle højere op for at finde de rigtige grænseværdier.«

Når traditionel programmering er nemmere

Netop fejlmargenen er noget af det, som skal forbedres yderligere. Og så handler det også om at finde de rigtige applikationer.

Som Michael Nielsen udtrykker det, har TI indtil videre haft størst held med at anvende deep learning til forskningseksperimenter, hvor man netop nemmere kan arbejde med komplekse geometrier.

Ude i industrien vil emnerne i mange tilfælde være helt ens, og så kan det være nemmere at programmere sig ud af miseren på helt traditionel vis uden brug af kunstig intelligens. Hvorimod indtil nu svært automatiserbare processer som bin-picking netop kunne drage nytte af deep learning-software.

»I visse tilfælde kan det også være nemmere for slutbrugeren at arbejde med deep learning i stedet for traditionel robotprogrammering. Men kan slutbrugeren så leve med, at det måske tager fra 20 minutter til flere timer at oplære robotten? Plus den tid det tager at fremskaffe data? Og at fejlmargenen måske er fem procent i stedet for 0,1?« lyder det fra Michael Nielsen, der tilføjer:

»Teknologierne er egentlig på plads – men brugsmønstrene arbejder vi stadig med.«

Plantedata fylder 140 megabyte

Helt generelt savner han at høre kolleger og ligesindede tale om, hvor få data der skal til at udvikle en algoritme frem for hvor mange. Altså hvor få billeder af en mobiltelefon kan man nøjes med for at få den ønskede fejlmargen?

»Jeg oplever kun folk snakke om, hvad de kan med deep learning. Jeg mangler at opleve, at folk også undersøger, hvad man ikke kan. Eller hvor grænseværdierne ligger eller i hvilke situationer, man skal gå uden om deep learning. Hvor mange flere data har vi brug for for at ramme eksempelvis 99,9 procents rigtighed?«

I et andet udviklingsprojekt – som dog ikke omfatter brug af deep learning – arbejder Michael Nielsen netop på at ramme den rigtige balance mellem det rette antal data og for mange data.

I projektet skal fire hyperspektrale kameraer – der kan måle bølgelængder, der ligger langt uden for, hvad det menneskelige øje kan opfange – affotografere planter på et gartneri fra fire forskellige vinkler for at se, om planterne er blevet ramt af mug.

Hvert billede af planten fylder 140 megabyte. Med fire kameraer koblet op på én Vision Box, bliver det til en halv gigabyte data per plante. Bare for at understrege de datamængder, der arbejdes med i kunstig intelligens.

»Så jeg vil i den kommende tid se, om jeg kan reducere datamængderne lidt,« lyder det med et grin fra Michael Nielsen.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Det er åbenbart som at opdrage et barn.
Jeg troede at disse robotter var født med en vis mængde indlært viden, reflekser eller hvad man kalder det.
Ellers er det godt nok op ad bakke.

  • 0
  • 2

Det undrer mig generelt, at hele robotindustrien er så fokuseret på at skabe mere eller mindre autonome apparater, der kan udføre diverse opgaver af sig selv eller med minimal menneskelig styring.
Hvorfor arbejder industrien ikke med teknologi, der kan udvide menneskers evne til at sanse og handle. F.eks. læste jeg for nylig om et folk i Sydøstasien som kunne se klart på 25 m.´s dybde under vandet. Både at kunne tåle trykket, at holde vejret i så lang tid det kræver for at nå denne dybde og det at se klart er meget usædvanligt for mennesker. Tænk hvis man blot kunne iføre sig en våddragt, der automatisk gav enhver dette folks egenskaber under vand.
Men der er jo tonsvis at områder, hvor man i stedet for at lave selvstændige maskiner kunne arbejde med at udvikle udstyr, der øgede menneskers sanseevne. Tænk f.eks. hvis levnedsmiddelkontrollører hver morgen kunne iklæde sig en lugtesans på niveau med en hunds.
Mulighederne er jo legio og en udvikling i den retning ville også fjerne frygten for at maskinerne overtager. I stedet blev det mennesket selv, der kunne udføre en masse ting, som tidligere var umulige at udføre.

  • 1
  • 0
Bidrag med din viden – log ind og deltag i debatten