Der er lang vej, til robotten overtager de kedelige opgaver i hjemmet

28. december 2018 kl. 13:019
Der er lang vej, til robotten overtager de kedelige opgaver i hjemmet
Illustration: DTU Elektro.
Selvom der i stor stil udvikles software og hardware til servicerobotter, der skal hjælpe mennesker med serviceopgaver i hjemmet, på restauranten eller i lufthavnen, så er der er lang vej, til de for alvor kan gøre hverdagen nemmere. Ny teknologi til selvkørende biler kan være med til at rykke udviklingen fremad.
Artiklen er ældre end 30 dage

Den lidt kedelige nyhed er, at du ikke skal regne med hjælp fra en robot, når du ligger med tømmermænd 1. januar.

For mens robotterne brager ind i industrien, hvor robotter hver dag automatiserer nye arbejdsopgaver, så halter det mere med at få robotter ind i vores private hjem, ud i det offentlige rum og ind i servicefagene.

For selvom der bliver solgt mange servicerobotter, så er det stadig begrænset, hvilke opgaver de egentlig kan løse. Ifølge International Federation of Robotics blev der i 2017 solgt 10.400 servicerobotter i kategorien public relations. Det er robotter, der typisk fungerer i det offentlige rum og hjælper mennesker med at finde vej eller finde svar på forholdsvis simple spørgsmål.

Sydkoreanske LG har for nylig lanceret tre nye servicerobotter, heriblandt Cloi, der guider passagerer i lufthavnen. Her er Cloi i Seoul Incheon Airport. Da Ingeniøren mødte Cloi var robotten dog til opladning og ikke til meget hjælp. Illustration: Laurids Hovgaard.

Artiklen fortsætter efter annoncen

Den mest kendte og mest udbredte menneskelignende servicerobot er formentlig Pepper-robotten fra Softbank Robotics, som indtil videre er solgt i over 12.000 eksemplarer alene i Europa. Pepper bruges mange steder i receptioner og butikker, hvor besøgende kan stille spørgsmål til robotten. Pepper var også den første robot i verden til at få foretræde for det britiske parlament i oktober i år, hvor den besvarede spørgsmål om kunstig intelligens og robotter. Både spørgsmål til og svar fra robotten var dog aftalt på forhånd.

På Aalborg Universitet arbejder man også med at udvikle en såkaldt kuglerobot, der kan vise vej indendørs i storcentre. Her er ambitionen at udvikle en app-baseret platform, som skal gøre det nemmere for softwareudviklere at programmere applikationer til robotter.

Læs også: Jysk robot skal servere apps på et sølvfad

I dag kan du også støde ind i robotten Spencer i den store Schiphol Lufthavn i Amsterdam, hvor robotten scanner passagerernes boardingkort og viser dem hen til den korrekte gate. Undervejs mod gaten er Spencer opmærksom på passagererne og følger deres hastighed og giver løbende informationer om, hvor langt der er igen, mens du kan opleve de samme funktioner hos LG’s Cloi, der kører i Incheon International Airport i Seoul.

Artiklen fortsætter efter annoncen

Udfordringen for den type servicerobotter er, at de mest af alt fungerer som en tablet på hjul, der viser vej til din gate, opdaterer dig på flyforsinkelser eller fortæller om lukkede butikker i storcentre eller lignende. Opgaver der i langt de fleste tilfælde også kan løses med en smartphone i hånden, og altså ikke fysiske opgaver med at flytte eller bevæge emner.

På robotmessen Robotworld i Seoul tager servicerobotten Pepper og kollegerne en lur inden messen åbner. Illustration: Laurids Hovgaard.

Servicerobotten risikerer altså at løse en stribe ikke-problemer, og måske mest af alt fungere som et symbol på ny digital teknologi.

Robotten har problemer med synet

Men hvorfor er det så svært at slippe robotterne fri i ukontrollerede miljøer i hjemmet, i butikken eller restauranten og få dem til at automatisere kedelige opgaver for os mennesker?

En af de store udfordringer er at få robotten til hurtigt at genkende objekter og beslutte, hvordan den skal håndtere et givent objekt. Det fortæller Adrian Llopart Maurin, ph.d-studerende ved DTU Elektro og det sydkoreanske tekniske universitet, KAIST, der især er kendt som sin forskning i robotter.

Hans forskning tager udgangspunkt i den menneskelignende robot, Mybot, som er udviklet på KAIST, og som er en såkaldt servicerobot. Robotten blev i løbet af projektet forsynet med et nyt hoved og skiftede navn til Siambot.

»En robot som Mybot eller Siambot består af en lang række forskellige systemer, der hver især er kodet til at udføre en enkelt opgave – eksempelvis at kunne se og genkende en kop, at kunne løfte en arm, tage fat i noget eller at kunne bevæge sig fra et sted til et andet. Jeg har arbejdet med at integrere de mange systemer og på den måde gøre robotten i stand til at udføre simple kommandoer,« siger Adrian Llopart Maurin.

Omdiskuteret robot-universitet

KAIST er især kendt for udvikling af menneskelignende robotter, humanoide robotter, og har blandt har udviklet den menneskelignende robot Hubo, som var den første robot til at bære den olympiske flamme 150 meter ved vinter Ol i Sydkorea tidligere i år.

Artiklen fortsætter efter annoncen

Universitetet har også tidligere i år været i modvind, efter at man indgik en aftale med den sydkoreanske våbenproducent Hanwha Systems om at oprette et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens. Det fik over 50 af klodens førende forskere inden for kunstig intelligens og robotudvikling til at skrinlægge samarbejde med KAIST.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Siden har KAIST dog justeret sine retningslinjer og er blevet taget til nåde af sine internationale forskerkolleger.

Da Ingeniøren besøgte Sydkoreas største robotmesse Robotworld i efteråret, viste ph.d.-studerende en tilsvarende servicerobot frem, som fungerede som en kioskmedarbejder. Man taster sine indkøb ind på en tablet, hvorefter robotten henter de bestilte varer på en hylde bagved.

Som du kan se i videoen, er teknologien heller ikke helt køreklar endnu.

Remote video URL

Bombarderer robotten med billeder

Men hvordan får man en robot til at skelne mellem glas, flasker og andre objekter, og hvordan gør man den i stand til at håndtere emnerne, uanset hvordan de er placeret?

Adrian Llopart Maurin har udstyret sin robot med to øjne i form af to kameraer. Det ene filmer helt almindeligt i farver og to dimensioner, det andet filmer i dybden, så det ved hjælp af en sky af punkter gengiver genstande i 3D.

Ved at fodre robotten med et væld af billeder har Adrian gjort det muligt for den at genkende eksempelvis en kop, uanset hvilken form eller farve, den måtte have – og at finde ud af, hvordan den bedst muligt kan gribe fat i koppen for at løfte den.

»En af de konkrete opgaver, jeg stillede robotten, var at sætte et glas vin på bord A. Den eneste information, robotten fik på forhånd, var, at der på nabobordet, bord B, stod en vinflaske og et glas. Robotten forstod herefter, at den skulle bevæge sig til bord B, tage vinflasken og på baggrund af en beregning af flaskens højde og glassets placering på bordet, hælde vin i glasset,« forklarer Adrian Llopart Maurin.

Remote video URL

Selvkørende biler driver udviklingen

Målet er på et tidspunkt at skabe en robot, der kan hjælpe med serveringer på restauranter eller med opgaver hjemme i dit køkken. Måske vil den ligefrem kunne skabe et helt måltid på egen hånd.

»Flere firmaer er i gang med udvikle den type robotter, og der er helt sikkert et stort marked for dem, når det lykkes. Det endelige gennembrud kommer formodentlig i løbet af de næste par år, hvor vi vil se robotter, der kan forstå talebeskeder og udføre de madlavningsopgaver, du beder den om,« siger professor Ole Ravn, der er leder af DTU's arbejde med automation.

Selvom der uden tvivl er mange penge i at udvikle en robot, der automatisk laver din pizza og selv tager opvasken, så bliver der i disse år brugt endnu flere udviklingsmidler på selvkørende biler, og teknologi som gør biler i stand til at genkende og reagere hurtigt på omgivelserne – eksempelvis andre biler, lastbiler, cyklister, gående, vejskilte og træer.

Den viden er forholdsvis enkelt at ændre og konvertere til andre applikationsområder, så det i stedet er køkkenservice som kopper, skåle og glas, som robotten fodres med billeder af og dermed kan genkende og handle ud fra lyder det fra DTU Elektro.

Læs også: Test i Aarhus: Mobil robot navigerer med 0,75 centimeters præcision

9 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
9
31. december 2018 kl. 15:37

Men, den må være meget stabil, da det er mange funktioner der forsvinder ved en fejl, i enten mekanik eller software.

Jo, men hvis den bruger menneskelige redskaber, så kan du dog selv altid investere lidt tid og give den hjælp hvor det kniber.

Med hensyn til tidshorisont så er jeg måske forkert på den, men når jeg ser videoer af robotarme, så tænker jeg egentlig at hardwaren er ved at være der, den skal bare masseproduceres så sådan et par arme + noget den kan køre rundt på kan købes for måske 50.000. Resten er et softwareproblem - ikke et simpelt et, men mange ret komplicerede.

Men der er jo ganske mange ingeniørtyper rundt omkring som vil elske at pusle med at få sådan en arm til at lægge deres vaskede underbukser/trusser sammen, så jeg tror softwaredelen kan gå hurtigere end man skulle tro, hvis ellers det bliver en åben platform.

Jo mere jeg tænker over det, jo mere når jeg frem til at vi blot mangler at få hul på markedet så hardwaren kommer i omløb, og så kan det pludselig gå stærkt.

8
30. december 2018 kl. 12:03

Jeg tror man skal være parat til at kigge lidt længere ud i fremtiden. Teknologien er her, men det kniber stadig med at udvikle et produkt der fungerer med den infrastruktur vi har i dag. Det er en løbende udvikling, som kommer til at gå stærkere og stærkere. En udvikling som kommer til at vokse eksponentielt efterhånden som vi får indrettet vores samfund efter det. Flere og flere vil kunne drage nytte af robotter, men i første omgang vil det kun være helt bestemte målgrupper. Man skal dog ikke undervurdere teknologiens udvikling. Den er selvforstærkende, og der kan ske mere på 20 år end vi kan forestille os.

7
29. december 2018 kl. 11:41

Personlige robotter er selvfølgelig fremtiden. Fremstillet og designet af ingniørrobotter.

6
29. december 2018 kl. 09:34

Hvorfor lave det så besværligt? Der er vel en årsag til at vore hjems apparater er indrettet som de er. Når man ser sig omkring går det op for en hvor få ting der indeholder en bluetooth, wifi eller anden kommunikation ud over den der er til fysisk betjening.

Vaskemaskine, tørretumbler, ovn, kaffemaskine, køleskab, fryser, kogeplader, radiatortermostater, belysning, dabradio er bare noget af det vi køber og bruger, men som oftest ikke engang indeholder en trådløs eller kablet kommunikation så en evt. robot kan betjene udstyret.

Det der med sådan en robot til at klare de kedelige opgaver er vist ikke lige om hjørnet.

4
29. december 2018 kl. 07:17

Eller hvad fordelen er ved en robot der kan tage opvasken, når nu vi har opfundet opvaskemaskiner.

En opvaskemaskine skal fyldes, startes, tømmes. Det er ikke alting der kan gå i den. Den fylder op i køkkenet.

En robot der kan tilberede maden, sætte på bordet og rydde af igen og vaske op og sætte alting på plads, kan da så meget mere? Måske kan den så også vaske tøjet, hænge det til tørre og lægge det sammen og på plads, så var der to automater mere vi kunne kassere.

2
29. december 2018 kl. 00:33

Jeg forstår ikke denne insisteren på at udvikle menneskelignende robotter. Er det ikke bare en måde at overkomplicere tingene på? Vi har siden den første abe samlede en sten op, udviklet værktøj og maskiner der netop ikke er menneskelignende, eller på anden måde direkte efterligner naturen, fordi det er mere effektivt. Jeg har svært ved at se både nødvendigheden og fordelen af at have robotter der kan hente varer i en kiosk, når det kan gøres bedre (og sikkert også billigere) af en automat. Eller hvad fordelen er ved en robot der kan tage opvasken, når nu vi har opfundet opvaskemaskiner. Er jeg bare blevet gammel og bitter før tid eller er der andre der tænker det samme?

1
28. december 2018 kl. 14:10

Når alle jobs er overtaget af robotter ?