Sikkerhedsrobot druknede sig selv i indkøbscentrets springvand

En Knightscope K5-robot af samme type som den, der i sommer kom galt afsted i et springvand. Se billedet af den uheldige robot nede i artiklen. Illustration: Knightscope

Det vakte megen moro, da en sikkerhedsrobot fra producenten Knightscope midt på sommeren kørte ud i et springvand i shoppingcentret Georgetown Waterfront i Washington DC, USA.

Robotten med produktnavnet Knightscope K5 og kælenavnet Steve er en såkaldt sikkerhedsrobot: Den er i stand til at analysere det miljø, den befinder sig i, og afgøre, om der er noget galt. K5 bruger kunstig intelligens (AI) til at analysere input fra en kombination af mikrofoner, videokameraer og andre sensorer. Hvis noget ikke er, som det skal være, kan den afgive en høj lyd, som måske får kriminelle til at opgive deres forehavende.

Læs også: Kina vil være verdens epicenter for kunstig intelligens i 2030

Producenten reklamerer med, at K5 er langt billigere end en menneskelig sikkerhedsvagt og aldrig bliver træt.

Talrige kommentarer i kølvandet på den noget våde afslutning på 'Steves' arbejdsdag gik da også på, at trætheden og de monotone arbejdsopgaver alligevel havde fået robotten til at drukne sig selv.

Robotter har brug for vejledning

Men David Bruemmer, teknisk direktør for 5D Robotics, der fremstiller software til positionering baseret på AI, understreger i en artikel i magasinet Robotics Trends, at Steves tur i springvandet blot er et eksempel på, at robotter og kunstig intelligens stadig har store begrænsninger:

»Den virkelige historie her er, at når det gælder brugen af ​​robotter i dynamiske, ustrukturerede miljøer, er pålideligheden af AI fortsat en udfordring. Knightscope er et banebrydende robotfirma, og de har et fremragende team af robotudviklere. Problemerne med pålidelighed er et problem, ikke kun for Knightscope, men for hele miljøet omkring robotudvikling,« siger han.

Læs også: Ung lidar-troldmand lover 40 gange kraftigere sensorer

Problemet er, at selvom robotterne er udstyret med masser af sensorer og avanceret AI, så farer de alligevel vild engang imellem – præcis ligesom mennesker gør. Det kan skyldes mange ting: Lav belysning, tåge, for mange mennesker, støv eller objekter som er blevet flyttet. Så mister robotten simpelthen orienteringen.

Det kan også være relativt simple og kendte teknologier som GPS, gyroer og omdrejningstællere, som ikke sender det rigtige signal tilbage til softwaren.

Hvor er jeg?

For Steves vedkommende skete fejlen netop, fordi der ikke var overensstemmelse mellem, hvor mange omdrejninger hjulenes sensorer meldte tilbage, og positioneringen via GPS. Noget så simpelt som en løs flise med en glat overflade fik hjulet til at spinne, hvilket fik det system, der bruges til at detektere trapper og andre pludselige fald, til at sætte ud.

Dermed opdagede robotten ikke, at den kørte ud over kanten til springvandet.

Læs også: Sex-robotter med kunstig intelligens vil gøre almindeligt samleje dødkedeligt

David Bruemmer fortæller, at han selv har dårlig stedsans, og at det ikke skyldes mangel på intelligens, at han nemt bliver usikker på hvilken vej, han skal gå. Det samme kan ske for en robot, og derfor skal robotter hjælpes på vej på samme måde som mennesker bliver det, når vi sætter vejskilte, kørestriber og trafiklys op, så det bliver mere sikkert at køre bil:

»Alt dette var nødvendigt for at skabe en verden mennesker kan aflæse. Det samme gælder for robotter, droner og selvkørende biler. Hvis vi vil have robotter og selvkørende biler til at være pålidelige, skal vi give robotter en verden de kan aflæse,« siger han.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

"Fejlen er en overensstemmelse med GPS og en anden sensor"

Steve må have været total på den forkerte vej, og mente at den var udendørs. Hvis han har forsøgt at bruge GPS indendørs i en shopping center, er dets AI ikke så intelligent endda.

  • 7
  • 1

Nu ved jeg ikke hvor længe den pågældende robot har været aktiv, men efter at have trillet rundt i et storcenter i et par år, så tror jeg også at jeg havde valgt at drukne mig selv i et springvand :) Måske var den blevet lidt for intelligent... Hvem er jeg? Hvad vil jeg med mit liv? Hvor er jeg på vej hen? Plask...

  • 12
  • 0

16. okt 2016, ing.dk: Kamprobotternes akilleshæl er uforudsigelighed: Citat: "... »Udfordringen med neurale netværk er generelt, at det er meget svært at gennemskue, hvad de egentlig har lært. Vi kan ikke verificere, at systemer, som bygger på neurale netværk, virker efter hensigten i alle tilfælde. Derfor er det problematisk at anvende den slags teknologier militært,« siger Thomas Vestskov Terney, konsulent inden for digital strategi og ph.d. i kunstig intelligens. ..."

25. mar. 2016, ekstrabladet.dk: Microsoft dræber chatbot efter 16 timer: Gik amok i jøde-had. Storstilet chatbot slukket 16 timer efter lancering, da den blandt andet tweetede, at 'feminisme er kræft': Citat: "... Da Microsoft besluttede sig for at lancere en robotdrevet profil med kunstig intelligens på Twitter, havde man nok ikke regnet med, at robotten efter under et døgn ville være blevet holocaust-benægter og kvindehader. ..."

Robotter er ikke omstillingsparate:

29.02.2016, finans.dk: Mercedes har fundet ud af, at det måske alligevel ikke er så smart at lade maskinerne gøre det hele. Mercedes skrotter robotter til fordel for medarbejdere af kød og blod: Citat: "... - Med en produktion hovedsageligt foretaget af uddannet arbejdskraft kan Mercedes skifte hele sin produktionsproces i løbet af en weekend, et skift som vil tage flere uger med en robot, da den skal reprogrammeres og samlingsmønstrene skal ændres, udtaler Schaefer. ..."

Privatliv solgt?:

25. juli 2017, version2.dk: Støvsugerrobotten Roomba har mappet dit hjem - nu skal dataen sælges.

  • 0
  • 0

robotterne er udstyret med masser af sensorer og avanceret AI

Ok. Her er vi kun ude i at en "klovn" af en programmør ikke forstår at udnytte signalerne fra sensorerne godt nok. Med de mange sensorer vil det vil være muligt at detektere hjulspind. Fint så er det done. Næste er at rette sin programmørfejl så "trapper og fald" systemet selvfølgelig ikke kan sætte ud.

Det er ikke en sag for den tekniske direktør. Tilbage til programmøren med scenariet. Sæt et tilsvarende test scenarie op, og det er fix'et på 2 dage .

  • 0
  • 2

Problemet er, at selvom robotterne er udstyret med masser af sensorer og avanceret AI, så farer de alligevel vild engang imellem – præcis ligesom mennesker gør

Og det er jo rigtigt nok, at både mennesker og robotter kan fare vild (er selv ganske berygtet for at fare vild i Kolding Storcenter. Er kun med nød og næppe undsluppet beskeden i højtalerne "Bo på 50 år står ved informationen og vil gerne hentes af sin kone" )

Men en afgørende forskel er, at selv relativt lavt begavede mennesker som Eders Ydmyge her, er i stand til at indse, at selvom man er faret vild, så skal man alligevel ikke bare hoppe ud i et springvand, der tilfældigvis kommer forbi (*)

Bortset fra "tø-hø" effekten ved historien er der vel en pointe i, at mennesker evolutionært er kodede til at håndtere ukendte situationer - der har robotter og kunstig "intelligens" stadig nogle 100.000 års evolution til gode.

(*) efter en vis alder er opnået: har måtte pille min drivvåde søn ud af adskillige springvand da han var mindre

  • 2
  • 1

Bortset fra "tø-hø" effekten ved historien er der vel en pointe i, at mennesker evolutionært er kodede til at håndtere ukendte situationer - der har robotter og kunstig "intelligens" stadig nogle 100.000 års evolution til gode.

Og alligevel er det nødvendigt med "kun en tåber frygter ikke vandet"-kampanger... Der er rigtig mange mennesker der falder i havnebassiner (og ja, mange er fulde, men de er stadig en form for mennesker), drukner på strandturen (de er normalt ikke fulde) og i det hele taget kommer galt af sted i og omkring vand (ikke kun fulde sømænd)... Måske er det ikke altid nok at have 100.000 års evolution stående på sit CV...

  • 1
  • 0

3. november 2017, version2.dk: Fejlfyldt AI bekymrer forskere: Troede skildpadde var en riffel: Citat: "... »Det her beviser endeligt, at såkaldt kontradiktoriske billeder er et reelt problem, der kan påvirke virkelige systemer. Og at vi er nødt til at finde en måde at beskytte os mod dem på,« siger forsker hos LabSix Anish Athalye til Motherboard. ... Efter omkring 1.000 timers arbejde lykkedes det forskerholdet at printe en skildpadde med en grafisk algoritme. Uanset hvilken vinkel Googles billedgenkendelse så den modificerede skildpadde fra, identificerede den skildpadden som en riffel. ..."

Så kan man vel også male fly og pansrede mandskabsvogne til blive opfattet som noget andet end mål?

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten