Den lidt kedelige nyhed er, at du ikke skal regne med hjælp fra en robot, når du ligger med tømmermænd 1. januar.
For mens robotterne brager ind i industrien, hvor robotter hver dag automatiserer nye arbejdsopgaver, så halter det mere med at få robotter ind i vores private hjem, ud i det offentlige rum og ind i servicefagene.
For selvom der bliver solgt mange servicerobotter, så er det stadig begrænset, hvilke opgaver de egentlig kan løse. Ifølge International Federation of Robotics blev der i 2017 solgt 10.400 servicerobotter i kategorien public relations. Det er robotter, der typisk fungerer i det offentlige rum og hjælper mennesker med at finde vej eller finde svar på forholdsvis simple spørgsmål.
Den mest kendte og mest udbredte menneskelignende servicerobot er formentlig Pepper-robotten fra Softbank Robotics, som indtil videre er solgt i over 12.000 eksemplarer alene i Europa. Pepper bruges mange steder i receptioner og butikker, hvor besøgende kan stille spørgsmål til robotten. Pepper var også den første robot i verden til at få foretræde for det britiske parlament i oktober i år, hvor den besvarede spørgsmål om kunstig intelligens og robotter. Både spørgsmål til og svar fra robotten var dog aftalt på forhånd.
På Aalborg Universitet arbejder man også med at udvikle en såkaldt kuglerobot, der kan vise vej indendørs i storcentre. Her er ambitionen at udvikle en app-baseret platform, som skal gøre det nemmere for softwareudviklere at programmere applikationer til robotter.
Læs også: Jysk robot skal servere apps på et sølvfad
I dag kan du også støde ind i robotten Spencer i den store Schiphol Lufthavn i Amsterdam, hvor robotten scanner passagerernes boardingkort og viser dem hen til den korrekte gate. Undervejs mod gaten er Spencer opmærksom på passagererne og følger deres hastighed og giver løbende informationer om, hvor langt der er igen, mens du kan opleve de samme funktioner hos LG’s Cloi, der kører i Incheon International Airport i Seoul.
Udfordringen for den type servicerobotter er, at de mest af alt fungerer som en tablet på hjul, der viser vej til din gate, opdaterer dig på flyforsinkelser eller fortæller om lukkede butikker i storcentre eller lignende. Opgaver der i langt de fleste tilfælde også kan løses med en smartphone i hånden, og altså ikke fysiske opgaver med at flytte eller bevæge emner.
Servicerobotten risikerer altså at løse en stribe ikke-problemer, og måske mest af alt fungere som et symbol på ny digital teknologi.
Robotten har problemer med synet
Men hvorfor er det så svært at slippe robotterne fri i ukontrollerede miljøer i hjemmet, i butikken eller restauranten og få dem til at automatisere kedelige opgaver for os mennesker?
En af de store udfordringer er at få robotten til hurtigt at genkende objekter og beslutte, hvordan den skal håndtere et givent objekt. Det fortæller Adrian Llopart Maurin, ph.d-studerende ved DTU Elektro og det sydkoreanske tekniske universitet, KAIST, der især er kendt som sin forskning i robotter.
Hans forskning tager udgangspunkt i den menneskelignende robot, Mybot, som er udviklet på KAIST, og som er en såkaldt servicerobot. Robotten blev i løbet af projektet forsynet med et nyt hoved og skiftede navn til Siambot.
»En robot som Mybot eller Siambot består af en lang række forskellige systemer, der hver især er kodet til at udføre en enkelt opgave – eksempelvis at kunne se og genkende en kop, at kunne løfte en arm, tage fat i noget eller at kunne bevæge sig fra et sted til et andet. Jeg har arbejdet med at integrere de mange systemer og på den måde gøre robotten i stand til at udføre simple kommandoer,« siger Adrian Llopart Maurin.
Omdiskuteret robot-universitet
KAIST er især kendt for udvikling af menneskelignende robotter, humanoide robotter, og har blandt har udviklet den menneskelignende robot Hubo, som var den første robot til at bære den olympiske flamme 150 meter ved vinter Ol i Sydkorea tidligere i år.
Universitetet har også tidligere i år været i modvind, efter at man indgik en aftale med den sydkoreanske våbenproducent Hanwha Systems om at oprette et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens. Det fik over 50 af klodens førende forskere inden for kunstig intelligens og robotudvikling til at skrinlægge samarbejde med KAIST.
Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter
Siden har KAIST dog justeret sine retningslinjer og er blevet taget til nåde af sine internationale forskerkolleger.
Da Ingeniøren besøgte Sydkoreas største robotmesse Robotworld i efteråret, viste ph.d.-studerende en tilsvarende servicerobot frem, som fungerede som en kioskmedarbejder. Man taster sine indkøb ind på en tablet, hvorefter robotten henter de bestilte varer på en hylde bagved.
Som du kan se i videoen, er teknologien heller ikke helt køreklar endnu.
Bombarderer robotten med billeder
Men hvordan får man en robot til at skelne mellem glas, flasker og andre objekter, og hvordan gør man den i stand til at håndtere emnerne, uanset hvordan de er placeret?
Adrian Llopart Maurin har udstyret sin robot med to øjne i form af to kameraer. Det ene filmer helt almindeligt i farver og to dimensioner, det andet filmer i dybden, så det ved hjælp af en sky af punkter gengiver genstande i 3D.
Ved at fodre robotten med et væld af billeder har Adrian gjort det muligt for den at genkende eksempelvis en kop, uanset hvilken form eller farve, den måtte have – og at finde ud af, hvordan den bedst muligt kan gribe fat i koppen for at løfte den.
»En af de konkrete opgaver, jeg stillede robotten, var at sætte et glas vin på bord A. Den eneste information, robotten fik på forhånd, var, at der på nabobordet, bord B, stod en vinflaske og et glas. Robotten forstod herefter, at den skulle bevæge sig til bord B, tage vinflasken og på baggrund af en beregning af flaskens højde og glassets placering på bordet, hælde vin i glasset,« forklarer Adrian Llopart Maurin.
Selvkørende biler driver udviklingen
Målet er på et tidspunkt at skabe en robot, der kan hjælpe med serveringer på restauranter eller med opgaver hjemme i dit køkken. Måske vil den ligefrem kunne skabe et helt måltid på egen hånd.
»Flere firmaer er i gang med udvikle den type robotter, og der er helt sikkert et stort marked for dem, når det lykkes. Det endelige gennembrud kommer formodentlig i løbet af de næste par år, hvor vi vil se robotter, der kan forstå talebeskeder og udføre de madlavningsopgaver, du beder den om,« siger professor Ole Ravn, der er leder af DTU's arbejde med automation.
Selvom der uden tvivl er mange penge i at udvikle en robot, der automatisk laver din pizza og selv tager opvasken, så bliver der i disse år brugt endnu flere udviklingsmidler på selvkørende biler, og teknologi som gør biler i stand til at genkende og reagere hurtigt på omgivelserne – eksempelvis andre biler, lastbiler, cyklister, gående, vejskilte og træer.
Den viden er forholdsvis enkelt at ændre og konvertere til andre applikationsområder, så det i stedet er køkkenservice som kopper, skåle og glas, som robotten fodres med billeder af og dermed kan genkende og handle ud fra lyder det fra DTU Elektro.
Læs også: Test i Aarhus: Mobil robot navigerer med 0,75 centimeters præcision
