Få de daglige nyheder fra Version2 og Ingeniøren. Læs mere om nyhedsbrevene her.

close
Ved at tilmelde dig accepterer du vores Brugerbetingelser, og du accepterer, at Teknologiens Mediehus og IDA-gruppen lejlighedsvis kan kontakte dig om arrangementer, analyser, nyheder, job og tilbud m.m. via telefon og e-mail. I nyhedsbreve, e-mails fra Teknologiens Mediehus kan der forefindes markedsføring fra samarbejdspartnere.
andre skriverogså værd at læse
Kemikalier
via dr.dk 12. nov 2019 07:02
Aalborg får 100 elløbehjul
Ingeniøren Blogs
  • Julie-Astrid Galsgaard

    Kan du høre, hvad jeg ser? Maskiner og menneskers syn for sagen

    Forestil dig, at du sidder på en bænk i en park og betragter græsset og træerne gro. Det går objektivt set temmelig langsomt og måske når du at kede dig lidt undervejs.  Ifølge den nu 100 årige videnskabsmand og opfinder af [Gaia-teorien](http://www.gaiatheory.org/overview/ ),  [James Lovelock](http://www.jameslovelock.org/) er det sådan et kunstig intelligent-system (KI) i fremtiden vil opleve menneskets tankeprocesser og -kapacitet. Langsommelige og begrænsede. Lovelock uddyber i sin netop udkomne bog *Novascene - The Coming Age of Hyperintelligence*, at KI i teorien burde være en million gange hurtigere end mennesket hvad angår tænkning og handling, (bearbejdning af data og respons derpå) simpelthen fordi transmissionen af signaler langs en elektrisk leder i computerens kobbertråde er en million gange hurtigere end transmissionen i hjernens nervebaner (henholdvis 30 centimeter per nanosekund og 30 centimeter per millisekund). MEN - medgiver Lovelock - i praksis er det nok et mere retvisende billede at betragte KI som værende ’blot’ 10.000 gange hurtige end mennesket (hvordan han lige lander på 10.000, forklarer han dog ikke), hvilket nu også er ganske meget. Og han illustrerer denne afstand mellem KIs og menneskets bearbejdningshastighed, ved at sammenligne hastigheden af vores kontra naturens udvikling.  Og så er vi tilbage på bænken i parken.   ##Hvem er bedst? **Diskussionen om hvorvidt de intelligente maskiners ankomst er godt eller skidt, starter og ender som regel med spørgsmålet om, hvem af os, der er ‘bedst’ og i sidste ende vil overtage verdensherredømmet – er det mennesket eller maskinen?** **1-0 til maskinen** Vi kender til maskiner udstyret med software, der kan gennemføre bearbejdning af data via algoritmer - som de også udvikler på undervejs - for derved at præstere overlegent i alverdens kryptiske brætspil; kategorisere enorme mængder indviklet data og fremsige fantastiske forudsigelser om alt fra sygdomstilfælde over klimaforandringer og til staters og verdensøkonomiens opblomstring og fald. *Er alt så tabt og singulariteten lige rundt om hjørnet?* Det er mere mudret end som så. På andre fronter trækker mennesket stadig fra maskinerne. Her på bloggen har jeg også været omkring at meget af dét, som vi mennesker finder let; hyggesnak over aftensmaden, small-talk i Netto, udførsel af flere handlinger på een gang, at være innovative, udvikle og lede - det har et KI-system ganske svært ved. Læs her for uddybning [At puste liv i maskiner](https://ing.dk/blog/at-puste-liv-maskiner-229735). ##Bedst i (syns)test Spørger man neuroforsker [Jonathan Victor](http://vivo.med.cornell.edu/display/cwid-jdvicto) fra Cornell University så er svaret på det store spørgsmål om menneske versus maskine entydigt; **Mennesket**. Han stiller skarpt på vores synssans og henviser til vores visuelle hjernebark, når han understreger, hvorfor en maskine aldrig vil kunne hamle op med mennesket. I hvertfald ikke på dette punkt. **1-1 til mennesket** Menneskets syn udspringer af visual kortex bagerst i vores hjerne og manifesterer sig i billeder gennem serier af neurale *feedback-loops* mellem visuel kortex og de omskiftelige omgivelser, vi kigger på via retina i øjet (nethinden). Et sådan feedback-loop er væsensforskelligt fra hvordan robottens “syn” er bygget op.  Robottens ’syn’, eller hvorpå den visuelt registrerer omverdenen, sker ved hjælp af et såkaldt *feed-forward-loop*.  Processen hér foregår trinvis ved at billeder af omverdenen splittes op i mikrodele og klasificeres og identificeres på henholdsvis pixelniveau; på kanter og konturer; på selve objektet på billedet og endelig på basis af den sammenhængen som objektet optræder i på billedet.  Dette er et regulært samlebånds-system, mener Jonathan Victor, og er altså ikke at sammenligne med menneskets bestandigt udviklende feedback-loop af neurale informationer mellem øjets retina og visual kortex. (læs mere i [Quanta Magazine](https://www.quantamagazine.org/computers-and-humans-see-differently-does-it-matter-20190917/)). ##Revanche: retina versus deep fusion og andre fantastiske konstruktioner Dét sagt; så går de fleste af os efterhånden rundt med noget ret avanceret KI-software i lommen allerede: I vores smartphones. En KI-software, der er udviklet for at gøre øjets fantastiske arkitektur kunsten efter. Og det lader til at gå temmeligt godt. En chip med en såkaldt neural motor (*neural engine* eller *neural processing unit*) baseret på en neural netværks-struktur og indbygget i tech-giganternes bud på deres mest avancerede smartphones muliggør nu, at vores telefon blandt andet kan “genkende” vores ansigt, der virker som nøgle til at låse telefonen op med (fingeraftryk er *so last year* bogstavlig talt). Derudover lærer chippen langsomt din anvendelse af telefonen at kende, og den kan over tid selv optimere batteribrug i baggrunden, spinde apps op før du ved, du har brug for dem, og den kan tagge og genkende personer og objekter på dine mange tusinde billeder. Bedre end dig på flere fronter. Læs mere på [AI Theory](https://www.aithority.com/guest-authors/ai-increasing-the-intelligence-on-smartphones/). Det findes nogle hæderlige eksempler på, at den neurale kernes kapacitet kan bruges til at lære at opfatte og respondere på gestikulationer såsom håndbevægelser, blandt andet hos [**Motorola**](https://motorola-global-portal.custhelp.com/app/answers/indevice_detail/a_id/112154/p/30,6720,9833), men de bygger på optiske sensorer af forskellig art og nytten heraf har dog hidtil været ret begrænset. Men der *er* faktisk ved at ske noget for alvor interessant på denne front. ##Soli-chippen I deres nyeste smartphones Pixel 4 og 4 XL har **Google** indbygget radarteknologi i kraft af [**Soli-chippen**](https://www.pocket-lint.com/phones/news/google/134079-what-is-google-project-soli-and-will-it-forever-change-the-way-we-use-wearables). Den lille soli-chip har til formål at spore sin ejers bevægelser ved hjælp af radar. Mere specifikt til at spore realtids-håndbevægelser der kan være bittesmå, udført med høj hastighed og med store præcision. Det er i hvert tilfælde teknologiens potentiale. De informationer og signaler, der opfanges af radaren - såsom forsinkelse i tid eller forandringer i omgivelserne - giver smartphonens neurale kerne information om interaktionen mellem ejeren og omgivelserne som for eksempel placering i rummet og lignende. Som det er nu, anvendes soli-chippen i telefonen kun til relativt “simple” opgaver såsom at gøre telefonen klar til låse op via ansigtsgenkendelse (som stadig er optisk), når den registrerer, at du nærmer dig, slukke for vækkeuret ved at vifte hånden over telefonen, kilde en *Pokemon* på skærmen og til at skifte mellem telefonens funktioner. **Særligt interessant bliver det dog, hvis de neurale kerner i både telefon og sky lærer at bruge informationer fra chips a la soli-chippen så intelligent, at den kan spore og forstå ikke blot sin ejers håndbevægelser men også hendes generelle adfærd og i sidste ende endda koble det til den mentale tilstand og derved behov og ønsker.** Det vil bringe os tilbage til, hvad jeg har behandlet i blogpost [Bamse er en Bamse er en Bamse er en Bamse](https://ing.dk/blog/bamse-bamse-bamse-bamse-228528), om evnen til at sætte sig ind i andre personers mentale tilstand; at kunne *mentalisere*. *Kunne dette være endnu et skridt i retningen af, at maskinerne oparbejder evnen til at mentalisere?* ##Augmentering af menneskekroppen Smartphonen bliver i kraft af nye teknologier såsom radar i endnu højere grad en augmentering (forlængelse) af vores krop som vi kender det fra ikke-intelligente ting såsom en kikkert, en stok og en bil. KI er dog også godt på vej til at augmentere os via andre kanaler såsom **Elon Musks** aktuelt måske mest kontroversielle opfindelse af hårtynde, fine elektroniske tråde ([NeuraLink](https://www.neuralink.com/)), der snart kan indopereres i vores hjerne og gøre os i stand til at kommunikere direkte med digitale systemer.  ##Ma(nd)skinen bliver en realitet Fremskriver vi de neurale kerners potentiale til at spore, respondere på og forudsige vores adfærd og i sidste ende vores mentale tilstand via for eksempel soli-chippen, så er vi faktisk dér, hvor det ikke blot er vores fysiske kapacitet der augmenteres, men også vores kognitive kapacitet.  Hermed bliver [**cyborg-fænomenet**](http://www.etiskraad.dk/etiske-temaer/optimering-af-mennesket/homo-artefakt/leksikon/cyborg-kyborg) - en sammensmeltning af menneske og maskine - pludselig rigtig interessant, idet mennesket nu ikke “blot” udstyres med en maskines ekstraordinære fysiske egenskaber, men også får udvidet sin hjernekapacitet med en agil og ekstremt kapabel muskel i form af en intelligent computer. Muligheder og psykologiske konsekvenser ved augmentering af mennesket er et vigtigt emne, som vi skal behandle mere indgående i kommende blogpost. Dette var blot en teaser. *Er der i grunden mere tilbage af menneskets forspring hvad angår her synssansen?* ##Et univers af udfordringer Det vil blive en meget lang(håret) diskussion er nå til bunds i, men jeg vil for nu konkludere at den stigende hastighed i udviklingen af diverse deep fusion-teknologier har givet øjets ellers ekstremt komplekse retina-konstruktion kamp til stregen i forhold til at kunne afbillede og tolke den visuelle verden. Dét sagt; så har kun vi mennesker vores øvrige fantastiske hjerne (for os selv lidt endnu i hvertfald). **Vores hjerne - der er som antallet af stjerner i Universet hvad angår omfanget af neuroner og forbindelser derimellem - er særdeles svær at kopiere, fordi den i kraft af vores kropslige, erkendelses- og følelsesmæssige erfaringer gennem hele livet konstant udvikler sig.**  **Vores livserfaringer præger vores hjernes arkitektur og i sidste ende måden, hvorpå vi tolker syns- og andre sanseindtryk og sætte dem ind i sammenhænge.** **Og netop denne plastiske natur og agile færden i livet er, hvad der gør os mennesker unikke og suveræne i forhold til maskiner.** ##Stillingen er uafgjort *Så hvem vinder konkurrencen?* Det på een og samme tid lette og svære svar er: *Det er endnu ikke afgjort.* Dette utilfredsstillende svar skyldes, at vi hverken har udforsket menneskets kapacitet og potentiale til bunds, eller udviklet maskinens ditto til fulde. Og så kommer det, som jeg har gennemgået her, an på hvilken disciplin, der konkurreres i. Spørgsmålet der står tilbage - og som for nuværende nok er mere relevant at stille - er om vi overhovedet *skal* konkurrere? Hvis al udvikling af KI herunder intelligente humanoide robotter handlede om at efterligne mennesket for at kunne erstatte os, så giver den almene menneskelige frygt og dommedagsscenarierne mening eftersom, at KI vil kunne true vores position og funktioner såvel privat som professionelt. *Men hvad nu hvis maskinerne ikke skal erstatte os sådan en-til-en, men snarere supplere, aflaste, forlænge os?* *Eller; at det faktisk ikke er så vigtigt at de ligner og agerer som os, for at vi vil samarbejde med dem?* I næste blogpost vil jeg vurdere fordele og ulemper ved de menneske-lige robotter. Med venlig hilsen Julie-Astrid
  • Poul-Henning Kamp

    Er Macron til atomenergi ?

    Det kører ikke rigtig på skinner for atomkraften i Frankrig i år. CEA, den statslige franske atomforskningsorganisation har droppet ASTRID, deres bud på en natriumkølet formeringsreaktor. Det kan man så mene om hvad man vil, de har generelt ikke været så heldige med den projektrække, helt ud til og med da [SuperPhénix blev beskudt med en RPG-7](https://en.wikipedia.org/wiki/Superph%C3%A9nix). Men det der faldt mig i øjnene var følgende citat: *“industrial development of fourth-generation reactors is not planned before the second half of this century.”* Citatet faldt i en kontext af [de nuværende energipriser](https://www.powermag.com/france-scraps-fast-nuclear-reactor-demonstration/) men glem det for et øjeblik. Anden halvdel af århundredet er 30 år borte. Stort set ingen af dem der er på projekterne nu vil være i arbejde til den tid. I runde træk svarer 30år til fire-fem generationer af phd'er og det er rigtig mange år at køre teoretisk akademisk tomgang. Det citat lægger bolden *helt* og aldels død og det er ikke bare ASTRID der tales om, det er "4gen" generelt set. Jeg har ikke været i stand til at opstøve et mere detaljeret ræsonement eller yderlige dokumentation, hvis nogen blandt læserne har kilder vil jeg meget gerne høre om det. Men balladen stopper ikke der. Den franske finansminister har også været i marken og har [givet EDF en måned til at komme med en plan for Flamanville](https://nuclear-news.net/2019/10/29/frances-government-demands-that-edf-fix-flamanville-nuclear-reactor-within-one-month/) - efter alt at dømme fordi EDF for nogle uger opjusterede prisen igen, således at 100mia kroner nu lyder som et godt bud. Det lyder lidt som en Fransk atomkraft-ko-vending og som optakten til en pengekasse der enten allerede er, eller er ved at blive smækket i fra politisk side. Men vi er stadig ikke færdige. I 2010 indgik UK og Frankrig "[Lancaster House Traktaterne](https://en.wikipedia.org/wiki/Lancaster_House_Treaties)", som handlede om samarbejde om atomvåben og atomfremdrift, (atomvåben er en rigtig dyr hobby) og dengang var entusiasmen for EU's fælles forsvars- og sikkerhedspolitik en helt anden end idag. Siden da har både UK og Frankrig kæmpet med at finde pengene og med brexit og et næsten med garanti selvstændigt og atomvåbenfrit Scotland bagefter, er England snart helt ude af det billede. Præcis hvor mange penge Frankrig brænder af på atomvåben med tilliggende og tilhørende er totalt uigennemsigtigt, men under hovedlinien "Deterence" i deres militærbudget ("LPM") figurerer der omkring 50 mia kroner om året, med en række meget store investeringer "lige henne om hjørnet" som ikke kom med i 2019-2025 udgaven af LPM. Man skal ikke være blind for at alle disse penge, både atomforskningen, atomkraften og atomvåbenene i sidste ende bliver til skattebetalte gode og vellønnede job der holder rigtig mange mennesker beskæftiget i Frankrig. Men som præsident født i 1977 som rigtig, rigtig, *rigtig* gerne vil have sit navn i historiebøgerne, kunne man godt komme til at kigge på de mange millarder der render ud af den atomare ende af statskassen og tænke *"Alle de menneske kunne jo også lave noget andet og mere nyttigt for alle de penge..."* *phk*
    132 Kommentarer
  • Poul-Henning Kamp

    New Zealand: Kulstofneutralt i 2050

    New Zealands parlament har lige vedtaget at hele landet skal være "Carbon Neutral" i 2050. [Historie i The Guardian](https://www.theguardian.com/world/2019/nov/07/ardern-says-new-zealand-on-right-side-of-history-as-mps-pass-zero-carbon-bill) Lovforslaget blev enstemmigt vedtaget i NZ's parlament. Det minder lidt om den kovending vi også har set her i landet, hvor selv ["Klimatosserne" i DF](https://www.dr.dk/nyheder/politik/df-aendrer-kurs-stotter-regeringens-klimamal-om-70-procents-reduktion) er kommet på bedre tanker efter at have fået tæv af vælgerne. *phk*
    71 Kommentarer
  • Jakob Rosenkrantz de Lasson

    Rapporter og myndighedsbetjening: Er det forskning?

    Ingeniøren beskriver i dag, at [Omstridt Aarhus-forskning blev stort set aldrig kvalitetstjekket](https://ing.dk/artikel/omstridt-aarhus-forskning-blev-stort-set-aldrig-kvalitetstjekket-229965). Sagen udspringer, som Information har afsløret og [som beskrevet her på bloggen](https://ing.dk/blog/oksekoed-armslaengde-uvildig-forskning-under-pres-228599), af en rapport, som Aarhus Universitet har udgivet uden at deklarere, at den var blevet til i tæt samarbejde med bl.a. interesseorganisation Landbrug & Fødevarer Den her og relaterede sager om myndighedsbetjening - hvor universiteter leverer analyser, resultater og rapporter til myndigheder og andre eksterne interessenter - rejser spørgsmålet: Er det *forskning* ? Jeg ville til sammenligning ikke kalde det, som f.eks. tænketanke og interesseorganisationer laver af analyser og rapporter for forskning. Disse kan sagtens være brugbare og relevante for forskere, politikere og samfundet generelt, men forskning er det ikke. I nogle tilfælde er der tale om rendyrkede partsindlæg, hvor data og præmisser er selekteret for at fremme en interesse - i andre tilfælde om mere objektive analyser. Men fordi man undersøger noget og skriver det ned, er der ikke tale om forskning. **Læs også:** [Undersøgelse: 34 af 55 rapporter fra omstridte Aarhus-forskere indeholder fejl](https://ing.dk/artikel/undersoegelse-34-55-rapporter-omstridte-aarhus-forskere-indeholder-fejl-229943) Som et helt centralt punkt herfor er fagfællebedømmelse (peer review) altid fraværende i disse tilfælde - ligesom det også har været for rapporterne fra Aarhus Universitet. Dette begrundes med, at peer review (hos videnskabelige tidsskrifter) er en meget langsommelig proces, og dette er i vid udstrækning sandt. Det kan nemt tage måneder eller nogle gange år at få bedømt og siden udgivet en artikel i et videnskabeligt tidsskrift. Men hvis der ikke er uafhængige eksperter, som gennemgår, foreslår rettelser til og i sidste ende accepterer eller forkaster et givent stykke arbejde, så er der ikke tale om meget andet end et partsindlæg. Dette betyder ikke nødvendigvis, at arbejdet er forkert eller misvisende. Men det må klart deklareres, hvem der har lavet arbejdet, så man kan læse og forstå det igennem det prisme, som forfatternes interesser udgør. Og det har - fuldstændig uforståeligt - i stort omfang været fraværende i de mange rapporter, som Aarhus Universitet har udarbejdet.
    10 Kommentarer
  • Poul-Henning Kamp

    Noget er råddent i den offentlige trafik i Danmark

    Den offentlige trafik i Danmark er et stort system og det er langt fra optimalt, men det er meget svært at gennemskue præcist hvor råddent systemet er. Nu bidrager Slagelse imidlertid med et interessant datapunkt. I [Teknik & Miljøudvalget har man besluttet](http://polweb.nethotel.dk/Produkt/PolWeb/default.asp?p=slagelse07&page=document&docId=167530&tab=2) at lave et forsøg med en "borgerbus", hvilket kort og godt vil sige at man kører en rutebus uden at kære sig om rejsekort og billetter og den slags regelrytteri. Hvis jeg læser [bilag 2 - Økonomi](http://polweb.nethotel.dk/Produkt/PolWeb/Sog/ShowFile.asp?p=slagelse07&ID=167542) rigtigt, kan kommunen spare 2.1 mio kroner i direkte udgifter. Hertil kommer afledte besparelser, f.eks de 250.000 man ikke skal bruge på administration af buskort til skoleeleverne. Men det interessante tal er, at hvis kommunen valgte at implementere borgerbussen med Movias hjælp, vil det koste 50% mere, end hvis de selv ringer til en lokal vognmand. I [referatet fra det forrige møde](http://polweb.nethotel.dk/Produkt/PolWeb/default.asp?p=slagelse07&page=document&docId=167292&tab=2) dukker dette så op: *"Administrationen vurderer, at en hjemtagning af buslinjen vil medføre flest økonomiske og driftsmæssige fordele for kommunen under forudsætning af, at forsøget strækker sig over mere end ét år. Driftsjusteringer på borgerbussen vil blive nemmere at gennemføre, når linjen hjemtages, da kommunen ikke vil være bundet af Movias udbudsregler. Dette gælder både op- og nedjusteringer. Derudover vurderes det, at borgerbussen vil reducere efterspørgslen på kommunens Flextrafik-ordninger, som bruges af især ældre borgere der i høj grad efterspørger service og hjælp fra chaufførernes side"* MAO: Hvis Slagelse Kommune betalte 800.000 kr til Movia ville de få rigide regler, chaffører der ikke hjælper handicappede og pensionister samt mange andre "synergifordele" vi allerede kender fra den offentlige bustrafik. Det siger sig selv at Movia ikke kan give Slagelse et tilbud om øget flexibilitet og bedre kundeservice til en lavere pris. Hvis de gjorde det ville alle de andre kommuner jo kræve at få samme tilbud og hvor var vi så henne ?! *phk*
    59 Kommentarer
  • Louise Floor Frellsen

    At forlade forskning for at arbejde med patenter

    Jeg har fået fornøjelsen af at fortælle lidt om patenter, hvad de kan, hvad de ikke kan, og hvad det i det hele taget er for en sær parallelbranche, der lever af folks fantastiske ideer. Men først vil jeg tillade mig at fortælle lidt om, hvor jeg kommer fra, og hvorfor jeg synes, det er noget særligt at få lov til at dele det, jeg har lært om patenter. ##Min tekniske baggrund Jeg har en uddannelses- og karrieremæssig baggrund fra Danmarks Tekniske Universitet (DTU), hvor jeg først læste Fysik og Nanoteknologi, så tog jeg en Ph.d. fra Institut for Fotonik og så smuttede jeg lige tilbage til Institut for Fysik for at lave en postdoc i kvanteoptik i nogle år. Jeg synes forskning er fantastisk! Og jeg holder meget af DTU. Efter over 10 år derude var det på mange måder min base igennem en stor del af mit liv. Jeg holdt af at være universitetsforsker, jeg syntes det var sjovt, og jeg var dælme stolt over at være forsker. Hvem ville ikke være det? Det er en af de få grupper den brede danske befolkning faktisk har tillid til, som [Yougov fandt ud af for Forsknings- og undervisningsministeriet tilbage i 2017 (PDF).](https://ufm.dk/aktuelt/pressemeddelelser/2017/filer/befolkningsmaling-2017-yougov.pdf) Desuden er du nødt til at være stolt af det, hvis du skal gide at lægge så meget tid og energi i det, som der skal til. Men det var faktisk ikke det med at opgive at være forsker, der fik mig til at skamme mig over mit karriereskifte, det var mere, hvad jeg skiftede til, og hvad folk troede om det. ##Den store løgn Da jeg havde fået min stilling hos konsulentvirksomheden Chas. Hude og fortalte mine daværende DTU-kolleger om det, lød historien omtrentligt sådan her: »Jeg kunne godt tænke mig at prøve at se, hvad der var i den farlige virkelighed udenfor universitetets elfenbenstårne. Jeg søgte alt muligt forskelligt, og det var helt tilfældigt, at jeg i en jobsøgemaskine fik et opslag som patentrådgiver ved at søge på 'fysik', og jeg tænkte, at der vel ingen skade var sket ved at søge stillingen.« Så langt så godt. »Da jeg så blev tilbudt at komme til samtale, overvejede jeg nærmest at afslå, for det var nok alligevel noget mærkeligt noget og sikkert forfærdeligt ’business’ alt sammen, men man kunne jo altid bare sige nej. Så hvorfor ikke se hvad det var? Og så overraskede det ved at være den bedste jobsamtale, jeg nogensinde har været til. Så jeg blev jo nødt til at give det et skud. Det var nok et lidt mærkeligt job, men der var jo intet forgjort i at prøve det af, og jeg havde lovet mig selv, at jeg i hvert fald ville gøre det i et halvt års tid. Så kunne man jo søge hjem til forskningens trygge rammer, hvis det var så kedeligt at arbejde med patenter, som man kunne frygte.« Det var sandt, at det var den bedste jobsamtale, jeg har været til, men jeg var altså også begejstret, da jeg blev inviteret ind til den. Det var pure opspind, at jeg havde mine forbehold, da jeg sagde ja, og jeg var egentlig ikke i tvivl om, at det ville være et spændende arbejde. Men det var på en eller anden måde ikke okay at sige i det miljø, jeg kom fra. Jeg blev mødt med så meget undren, og jeg fik gentaget min undskyldning for at ville prøve det af så mange gange, at jeg næsten selv begyndte at tro på det. Jeg vidste ikke på forhånd nok om branchen til at kunne argumentere for, at den faktisk er spændende, og – ærligt talt – der var ikke nogen af dem, jeg talte med, der vidste nok om den til at vide, hvorfor den skulle være kedelig. Men enhver, der har forsøgt at læse et patent, vil formentlig forme netop den antagelse. Nu har jeg til gengæld været her længe nok til at kunne fortælle, at patentverdenen har rigeligt med interessante facetter, både indenfor det faglige, det kollegiale og de særdeles nørdede områder. ##At gå fra forsker til ingeniør Tror du, at patentarbejde er for advokater og slet ikke for ingeniører? Så tænker du cirka, som jeg gjorde indtil for et lille års tid siden – og som langt de fleste andre vil jeg tro. Men 'advokatsnude' er noget, man kan blive af at arbejde med patenter – teknisk uddannet er noget, man skal være for overhovedet at få lov til det. Du kan slet og ret ikke tage den europæiske uddannelse som patentagent (European Patent Attorney, EPA), [hvis ikke du har en teknisk baggrund på universitetsniveau.](https://www.epo.org/learning-events/eqe/conditions-registration-enrolment.html) (De danske regler er en anden sag, der kan I alle sammen, som det er i dag, gå ud og kalde jer patentrådgivere, hvis I skulle have lyst til det, men lad os tage den snak en anden gang.) Det tog mig ikke lang tid på patentbureauet, før jeg fandt ud af, hvorfor det var nødvendigt med den tekniske faglighed. Inden for de første to uger havde jeg haft fingrene i seksten forskellige teknologier, der strakte sig fra sammenkobling af trailere og køretøjer og til indpakning af fødevarer, der skal kunne gå i mikroovnen. Lige pludselig gik jeg fra at skulle arbejde med den samme specifikke ting i årevis til at skulle forstå bunkevis af teknologier inden for forskellige felter. Det er selvfølgelig to meget forskellige ting, men du skal have en solid faglig basis for at kunne nogen af delene. Jeg var gået fra at være forsker og specialist til at være ingeniør med bredde og overfladeforståelse af rigtig mange forskellige ting – og det er jeg faktisk også ret stolt af. ##Patentverdenen – en sær parallelbranche Jeg har måske nok styr på det tekniske, men jeg er stadig ved at lære alt det med patentverdenen. Og der er meget spændende at lære. Det er en sær parallelbranche, som har kæmpe indflydelse på utrolig mange områder: forskning, teknologisk udvikling, funding, markedsandel og konkurrence. Alle har nok hørt om patenter, men de færreste ved ret meget andet om dem, end at de (for de uindviede) er tørrere end Sahara. Jeg er lige så stille ved at grave mig ned i sandbunkerne, og jeg planlægger at dele de guldkorn, jeg finder på vejen, med jer, imens det hele stadig er nyt nok for mig til, at jeg studser over tingene. Vi skal nok komme rundt i krogene, men hvis der nu er noget om patenter, du altid har undret dig over, så sig til! Så sørger jeg for, at vi også nok skal komme derhen (før eller siden, når jeg ved nok til at kunne sige noget kvalificeret om det).
    12 Kommentarer
  • Julie-Astrid Galsgaard

    State of the Art på humanoide robotter

    Hvad er status på udviklingen af humanoide robotter? Ligner de efterhånden os mennesker hvad angår udseende og adfærd i en grad, at vi gider interagere med dem?  Dét har jeg spurgt professor i kunstig intelligens ved DTU Compute, [Thomas Bolander](https://www.dtu.dk/service/telefonbog/person?id=6474&tab=1) om.  Jeg har bedt ham uddybe hvor langt han er i sit arbejde med at få den humanoide robot *Pepper* til at udvise en "forståelse" for andre menneskers behov, intentioner og perspektiver på verden - det jeg også omtaler som *mentaliseringsevne* og beskriver mere indgående her [Bamse er en bamse er en bamse er en bamse](https://ing.dk/blog/bamse-bamse-bamse-bamse-228528). I kan også læse mere specifikt om Pepper-robotten og vejen til at udstyre den med menneskelige egenskaber i min forrige blog [At puste liv i maskiner](https://ing.dk/blog/at-puste-liv-maskiner-229735). Jeg har endvidere bedt Bolander om at løfte sløret for, hvor han ser de humanoide robotter er på vej hen - i udviklingen og i samfundet.  (Til orientering skal I vide, at når Bolander bruger betegnelsen *Theory of Mind*, mener han overordnede set det sammen som jeg, når jeg skriver om *mentaliseringsevne*. Begge betegnelser er hentet i den kognitive udviklingspsykologi men fra forskellige teoretiske ståsteder og foci (henholdsvis Baron-Cohen; Piaget og Bowlby, Ainsworth & Main; Fonagy). Dét overlader vi til ‘detaljeristerne’ at dykke ned i, mens vi andre går videre til interviewet). ##Robot bot - her går det godt **Første spørgsmål** **Hvordan går det med at få Pepper til at kunne tage et menneskes perspektiv og “forstå” vedkommendes behov og ønsker og altså mentale tilstand (*Theory of Mind*)?**  *“Det er lykkedes i det omfang, at målet var at få den til at bestå false-belief tasks.”*  I en *false-belief task* skal Pepper-robotten i korte træk forsøge at forudsige en persons næste handling efter at have observeret denne person og altså kende til verden set fra hendes perspektiv. Tjek min forrige blog ud for uddybning; [At puste liv i maskiner](https://ing.dk/blog/at-puste-liv-maskiner-229735). Bolander fortsætter; *“Theory of Mind er mange ting, og der er jo stadig diskussioner om, hvad man skal tage med under Theory of Mind-begrebet, og hvornår en bestemt adfærd kan siges at have med Theory of Mind at gøre. Vi kigger essentielt kun på den del, der har at gøre med skabelse af modeller af andres overbevisninger også kaldet ‘beliefs'.”* *“Vi ser også på evnen til at genkende andres intentioner og altså deres mål med f.eks. en handling, men på dét punkt, er vi endnu ikke nået så langt.”* ##Fra software til hardware *“Derudover kigger vi på højere-ordens false-belief tasks, men selvom vi har bevist, at det teoretiske framework jeg har udviklet kan håndtere disse, så er det stadig ikke helt trivielt at få til at fungere i en robot.”* Med *højere-ordens false-belief tasks* henviser Bolander til opgaver, der kræver, at man evner at sætte sig ind i andre menneskers perspektiv PÅ andre menneskers perspektiv.  Et eksempel kunne lyde; *hvordan tror du, at Karen tror, at Ole har det i dag?* Her skal du forstå BÅDE Karens og Oles mentale tilstand OG Karens forståelse af Oles tilstand. Og det er ikke småting for hverken mennesker eller maskiner! Et sådan tredje-ordens perspektiv kræver først og fremmest en veludviklet mentaliseringsevne, som først regnes for færdigudviklet i os mennesker i 20-års alderen. Mens et første-ordens perspektiv, som er dét, der her forventes at Pepper kan mestre, svarer til, hvad et fireårigt barn formår.  **Udfordring no. 1: Begrænset sanseapparat** *“Problemstillingen her er, at jo mere komplekst scenariet bliver, desto mere er vi afhængige af, at robotten har et meget præcist sanseapparat og kan interagere med verden på komplekse måder. Det afhænger ikke i lige så høj grad af, at robotten har en højtudviklet Theory of Mind."* **Udfordring no. 2: Tracking af vision i realtid** *“Her begynder der også at komme andre udfordringer på grund af begrænsninger i den nuværende KI-teknologi, når det kommer til computer-vision. For eksempel er det svært i realtime at kunne tracke præcist, hvad mennesker kigger på.”* **Andet spørgsmål** **Hvad er næste skridt i projekt ‘menneskeliggørelse-af-Pepper’? Er der en metode eller et teoretisk afsæt, du er optaget af og vil tage op i dit arbejde?** *“Jeg er stadig meget optaget af de modeller, jeg allerede bruger indenfor epistemisk logik og planlægning.”* Bolanders modeller for kunstig intelligens og hans arbejde med at skabe Theory of Mind involverer mere eller mindre komplekse matematiske modeller. Lad os tage et eksempel. Forestil jer to robotter; Rob og Bob.  Rob og Bob er placeret på hver sin side af et hus, som de ved hjælp af sensorer kan registrere oplysninger om og altså observere fra hver deres perspektiv. Skal de have en fælles forståelse af, hvordan hele huset ser ud, skal de til at dele deres perspektiver.  Skal Rob have Bobs perspektiv på huset, behøver Rob altså at stille en række ja/nej-spørgsmål (på programmørsprog; 0/1) til Bob såsom; Er der et vindue i underetagen? Er der to vinduer i overetagen? Er døren grøn? og så videre. Dernæst er det Bobs tur til at spørge. Ved at sætte sig ind i hinandens visuelle perspektiv får Rob og Bob en forståelse af, hvilket konkret billede den anden ser. Og hævet op til et lidt højere niveau kan man sige, at Rob nu har en forståelse af Bobs verdensbillede.  Nu nærmer vi os dét, det hele drejer sig om, nemlig evnen til at forstå den andens - ikke blot fysiske - men også mentale perspektiv. Det vil sige mentale tilstand, som vi kan definere ved en række behov og ønsker.  Bolander fortsætter; *“Det næste store punkt på agendaen er genkendelse af andres mål også kaldet ‘goal recognition’. Der findes forskningslitteratur om dette allerede, men det er også stadig et åbent felt, og det er ikke helt trivielt at inkorporere det i de øvrige metoder, jeg bruger.”* ##Når målet bliver målet *Goal recognition* baseret på deep learning-netværk handler igen om forudsigelse af adfærd. (For uddybning af *deep learning-netværk*, se [At puste liv i maskiner](https://ing.dk/blog/at-puste-liv-maskiner-229735)). Vi mennesker har som bekendt en række essentielle ønsker og behov her i livet. Vi er mere eller mindre hele tiden på jagt efter at opfylde disse, hvad end det drejer sig om tilegnelse af materiel eller etablering af en tryg hjemlig base.  Det betyder også, at hvis du formår at genkende andres behov og ønsker - deres mål - så vil du kunne imødekomme den anden på optimal vis og måske endda hjælpe vedkommende med at komme i mål. (Du kan selvfølgelig også udnytte denne viden groft til egen økonomisk vinding via for eksempel ekstremt detaljeret og skræddersyet, målrettet markedsføring på sociale medier - men det er der jo ingen, der kan finde på at gøre, så det vil jeg ikke gå videre ind i/stille mig op i køen og tordne mod her…). I kraft af vores mentaliseringsevne mestrer vi mennesker i reglen at sætte os i andres sted og forstå deres behov og ønsker. Heri består vores **naturlige intelligens**, som jeg har skrevet om her [Hvad er forskellen på kunstig og naturlig intelligens?](https://ing.dk/blog/naturlig-kunstig-intelligens-228436). Når det er svært at lave en algoritme for genkendelse af andres mål, skyldes det at den føromtalte mentaliseringsevne opstår i en kompliceret og sammensmeltende dans af livserfaringer og relationer, tilknytning og tillid til nærtstående, og ikke mindst en grundlæggende motivation til overlevelse - og det med mest muligt velbehag. ##300.000 års forspring Så ja; det er uretfærdige kår, vi konkurrerer på - robotterne og os - eftersom at menneskets intelligens har været 300.000 år undervejs og for hver generation er blevet korrigeret for de værste fejl og mangler. Her må robotten tage til takke med sin skabende programmørs tekniske formåen, gode vilje og pengepung. Tilbage til interviewet; **Sidste spørgsmål** **Hvor ser du de humanoide robotter - og voice- og chatbots for den sags skyld - er på vej hen i forhold til deres udvikling og berettigelse i vores samfund?** *“Jeg synes faktisk, det er utroligt svært at vurdere. For mig at se er vi stadig på et meget tidligt udviklingsstadie, selvom teknologien brager frem. Men hvis man for eksempel ser på de første spæde skridt indenfor udviklingen af computeren, internettet eller smartphonen, så var det også ret svært at vurdere præcist, hvor disse teknologier ville ende og finde anvendelse.”* *“Helt generelt er ideen med humanoide robotter, at de fysisk set er menneskelignende og dermed kan bevæge sig de samme steder som mennesker, og ideelt set også kan håndtere objekter som vi mennesker.”* ##Robot til husbehov *“I princippet burde en humanoid robot derfor både kunne lave mad, vaske op, skifte sengetøj, vaske vinduer, male væggen, slå græsset, vende pladen på pladespillen og så videre. Så det kunne pege imod udviklingen af husholdningsrobotter i hjemmet med meget mere generelle kompetencer end en robotstøvsuger eller robotgræsslåmaskine.”* *“Men der er stadig langt til at humanoide robotter kan få dette niveau af fleksibilitet og generalitet. Forskningen i humanoide robotter og Theory of Mind er især relevant dér, hvor robotter og mennesker skal interagere tæt. Det kunne for eksempel være hospitalsrobotter, der skal agere i de samme omgivelser som og samtidigt med mennesker for at kunne samarbejde med dem.”* **Bolander retter altså sit fokus mod de sociale humanoide robotter og slår fast, at de som minimum skal evne at tage vores perspektiv på en given sag. I første omgang vores fysiske perspektiv; fra hvilken vinkel ser vi tingen (huset), og dernæst vores mentale perspektiv; hvad har vi brug for for at få opfyldt vores behov og ønsker – for at nå vores mål.** Om han får hul igennem (og indhenter 300.000 års forspring) og udvikler en algoritme for mentaliseringsevne, vil tiden vise. Jeg håber det og vil følge udviklingen.  ##Men er det nu også så afgørende, at de humanoide robotter ligner os?  Jeg har nu brug en række blogposts på at beskrive, hvordan programmørerne forsøger at forstå, hvad vi kan kalde ’menneske-essensen’ for at kunne plante denne i maskinen, således at vi vil lege med den.  Men vil vi da kun lege med ting, der minder om os selv?  Flere af jer engagerede læsere har et par gange taget dette emne op i kommentarsporet, og jeg er nysgerrig på: *Hvad er minimum menneske-lighed en robot skal have, førend I vil have en dybere samtale med den?* *Og er der grænser for, hvilke personlige ting (oplysninger, holdninger, følelser) I kunne finde på at dele med en intelligent robot?* Byd gerne ind, så samler vi tråden op næste gang, hvor flere kloge hoveder og jeg selv har et par bud på ovenstående.
    5 Kommentarer
  • Christian Rantorp

    Taycan eller Tesla: Hvad ville I vælge?

    BBC's Top Gear-magasin har haft fingre i en Porsche Taycan og Tesla Model S. For nu skal slaget slås: [Kan tyskerne slå Tesla på Teslas egen elektriske hjemmebane](https://www.topgear.com/videos/electric/video-porsche-taycan-turbo-s-vs-tesla-model-s)? [video: https://www.youtube.com/watch?time_continue=260&v=F28i1D1OJ5o] Vi har at gøre med en [Taycan Turbo S](https://www.porsche.dk/modeller/taycan/taycan-modeller/taycan-turbo-s/) - til knap 2,1 millioner kroner, 0-100 på 2,8 sekunder, maksimalt drejningsmoment op til 1.050 Nm (!) Teslaen er en Model S P100D, som på papiret klarer 0-100 endnu hurtigere end Taycan og tilmed [koster det halve](https://www.tesla.com/da_dk/models/design#payment). Så er Porsches elbil mon spitzenklasse nok til at kunne konkurrere med Tesla?
    75 Kommentarer
  • Mads Stenfatt

    Vi bygger nu på Spica!

    Kære raketvenner Efter mange måneders arbejde på alle de maskiner og værktøjer der skal bygge vores næste raketserie, Spica, er tiden nu kommet til det, der er meningen med det hele. at bygge raketter! Det er intet mindre end historisk - vi er nu i gang med at producere Spica I, den første i en serie af raketter, som en dag skal blive bemandet. Nedenfor er et par korte videoer der viser den første komponent til raketten blive udskåret og samlet. ## Cutting the FIRST Spica Parts! [video: https://youtu.be/TTfnTP3fG5E] ## We Too Can Build Stainless Starships, Elon! [video: https://youtu.be/VOg4x9CYkHg] God fordøjelse :-) Ad astra, Mads
    6 Kommentarer
  • Christian Rantorp

    Er Teslas avancerede førerassistent pengene værd?

    Forleden havde jeg den store fornøjelse at låne Teslas Model 3, i en Long Range-version. Som det vil være Tesla-ejerne bekendt, er der tale om en firehjulstrækker med to uafhængige motorer, hvor drejningsmomentet for for- og baghjul styres digitalt. I modsætning til Standard Range Plus, som tilbyder en respektabel rækkevidde på 409 kilometer (WLTP), fik jeg her en rækkevidde på 560 på papiret. I prakis var det selvfølgelig noget mindre, knap 450 kilometer, men ikke desto mindre mere end rigeligt. Bilen var desuden udstyret med det 50.000 kroner-dyre ekstraudstyr "Fuldt selvkørende funktion", der består af "Navigate on Autopilot: Automatisk kørsel fra motorvejstilkørsel til motorvejsfrakørsel, inklusive sammenfletninger og overhaling af langsommere biler", "Automatisk vognbaneskift ved motorvejskørsel", "Autopark: Både parallel og vinkelret parkering" og "Summon: Automatisk parkering og tilkaldelse af dit køretøj". Og det er kun her, at bilen har svært ved at leve op til mine forventninger. Det er en imponerende (og lynhurtig) bil, Tesla har skruet sammen. Prisen for vores testmodel ender på 560.112 kroner, men så er der også, udover den ekstra avancerede førerassistent, inkluderet aftageligt anhængertræk til 8.300 kroner og 19"-sportsfælge. Jeg morede mig gevaldigt over drejningsmomentet på 527 (!) og 0-100 km/t på 4,6 sekunder. Mange af os vil givetvis kunne nøjes med standard-versionen til knap 370.000, hvor den primære forskel er, at du "blot" får 409 kilometer rækkevidde, 350 Nm og en lidt langsommere acceleration. Og kommer du forbi en lynlader med 350 kW DC, hvor vi får knap 145 kW med testbilen, tager det, uanset hvilken version man vælger, 25 minutter at lade, mens en tur forbi Teslas egen Supercharger-ladestation i Køge, hvor vi havde adgang til knap 77 kW, tager lidt længere tid. Supercharger i anden og tredje version er selvsagt hurtigere. I tredje version åbnes der op for 250 kW DC, som i første omgang vil være begrænset til 163 kW, så til den tid burde det kun tage 22 minutter at hurtiglade (10 -> 80%) Ganske imponerende. Vi er svært begejstret for Teslas Model 3 her på Motorbloggen, og som vi skriver på [MobilityTech](https://pro.ing.dk/mobilitytech/artikel/eu-regler-spaender-ben-teslas-avancerede-foererassistent-4113) her til morgen, går bilerne også som varmt brød på det danske marked. Bilen er selvskrevet til at blive årets bil. Men danske forbrugere får som følge af europæiske regler ikke det fulde potentiale af selskabets avancerede førerassistent, Autopilot. Min erfaring er, at automatisk vognbaneskift, særligt overhalinger, er vanskeligt at få til at fungere i praksis på en trafikeret Ring 3, mens den opgraderede Summon-funktion, hvor bilen kommer og finder os på parkeringspladsen, heller ikke kommer til Europa, da denne type teknologi ikke må overstige seks meter i Europa. Hvad overhalingerne angår, er der blandt andet en særlig regel i Europa, der gør, at overhalingen skal være gennemført indenfor for fem sekunder, hvilket i praksis ikke er muligt på en trafikeret vej, oplever jeg. Så da jeg testede bilen, havde jeg kun ringe gavn af Navigate on Autopilot, selvom det var imponerende at se bilen selv tage en afkørsel - for den del virkede faktisk. I den forbindelse vil jeg spørge jer, kære læsere, hvis I selv kører Tesla, hvordan I oplever disse begrænsninger? Og det centrale spørgsmål: Er det de 50.000 kroner værd at købe dette ekstraudstyr i Danmark?
    21 Kommentarer
  • Julie-Astrid Galsgaard

    At puste liv i maskiner

    ##Kender I Pepper? En lille vaks humanoid robot, der er udviklet til indgå i relation med mennesker. Eller nærmere; *»to connect with them [humans], assist them, and share knowledge with them – while helping your business in the process. Friendly and engaging, Pepper creates unique experiences and forms real relationships.«* ([Softbank](https://www.softbankrobotics.com/us/pepper)). Derudover beskrives Pepper som udadvendt og charmerende, og som én der byder folk velkommen og knytter venskaber. Dét lyder da som en medarbejder, man godt kunne tænke sig at have med på holdet. Ellers måske endda som en ny ven? **I denne blogpost skal vi kigge nærmere på, hvad der gør interaktioner mekaniske eller menneskelige (uanset om man kommunikerer med mennesker eller maskiner).** **Vi skal omkring hvad der gør deep learning ’deep’, og indkredse hvorfor denne form er mere eller mindre intelligent end andre former for neurale netværksarkitekturer.** **Endelig skal vi se nærmere på, hvorfor det er godt at være en anelse forudsigelig - trods selvhjælpslitteraturens romantiske prædiken om konstant fornyelse og eventyr.** Først tilbage til Pepper. 
Kommercielt set er Pepper én af de mest udbredte eksempler på en humanoid kunstig intelligens, der blandt andet er skabt til at kunne lære via deep learning og oparbejde basale menneskelige egenskaber såsom small-talk. 

 **Og det er netop forudsætningerne for at mestre discipliner som small-talk og almen menneskelig interaktion vi starter med her.**
 For os mennesker er netop small-talk let og endda trivielt, men faktisk er det ikke så let endda. I hvert fald ikke let at lære for andre end mennesker. 

 Small-talk set som en egenskab hænger nøje sammen med, hvad jeg har beskrevet i mine foregående blogs [Fra naturlig til kunstig intelligens](https://ing.dk/blog/naturlig-kunstig-intelligens-228436) og [Bamse er en bamse er en bamse er en bamse](https://ing.dk/blog/bamse-bamse-bamse-bamse-228528) - nemlig at have evnen til at opbygge tillid til andre mennesker og mestre at kunne sætte sig ind i deres mentale tilstand (at kunne mentalisere). Lad os se nærmere på sammenhængen.
 ##Kender I Rain Man? Filmen hvor Dustin Hofmann spiller Raymond; en mand der er genial til lynhurtig og næsten maskinel kategorisering (og som gør sin skrupelløst grådige lillebror spillet af Tom Cruise himmelhenrykt på en tur til Las Vegas), men som også tydeligvis har svært ved egenskaber såsom small-talk. Raymond er et - måske lidt stereotypt - eksempel på en person der mangler evnen til at mentalisere. Her på grund af diagnosen autisme.  

I har sikkert mødt mennesker, som I har oplevet som underlige eller næsten mangelfulde i den sociale kontakt og måske selv beskrevet jeres interaktion som 'mekanisk'. På sammen måde fremhæver jeg her hvordan maskiner, der synes at begå sig godt i den sociale kontakt, kan betragtes som ‘menneskelige’. Det går altså begge veje.

 *Men hov! Er det rimeligt at sammenligne en person med autisme med en maskine??*

 Når det gælder netop dette princip; manglende mentaliseringsevne og fantastisk kategoriseringsevne; så ja. (På alle øvrige punkter er det indlysende meningsløst at drage paralleller mellem autisme og KI).

 Manglende evne til at mentalisere skal ikke kun tilskrives udviklingsforstyrrelser som autisme, men i lige så høj grad hvad jeg har beskrevet i foregående blogs - en usikker tilknytning mellem barn (KI!) og forældre (programmører!!) og deraf manglende tillid til egne oplevelser og evner samt til andre mennesker. 

 **Så der skal altså puttes noget mentaliseringsevne og en god portion tillid i robotten, førend vi mennesker føler os bekvemme i en small-talk med den.**

 Hvordan KI-udviklere løser denne opgave skal vi kigge nærmere på her, men først skal vi lige have styr på begreberne og tage;
 ##En ‘lille snak' om deep learning De matematiske modeller og arkitekturen bag deep learning er bygget med inspiration fra et biologisk nervesystem med neuroner samlet i netværk. Når man henter inspiration her, er det fordi man går ud fra, at det er på den måde den naturlige intelligens - vi mennesker og andre biologiske organismer for den sags skyld - lærer på. ([Mathworks](https://se.mathworks.com/solutions/deep-learning.html?s_tid=hp_brand_deeplearning)).

 Deep learning er en underkategori af hele machine learning, hvor klassificering overordnet set sker ud fra manuelt udvalgte informationer fra en specifik kilde såsom et billede (fx en bil). I deep learning derimod går man skridtet videre og lærer det kunstige neurale netværk at klassificere direkte og automatisk ud fra rå-data såsom billeder (en mikrodel af et hjørne af en bilrude) , tekst (fx streger i bogstavet B) eller lyd (fx toner i et dyt).

 Når læringen betegnes som ’deep’ skyldes det, at der i netværksarkitekturen opereres med et stort antal lag, modsat ved machine learning hvor der kun er to-tre lag. Et indgangs-lag (input layer) leder videre til en lang række skjulte lag (hidden layers), som munder ud i et udfalds-lag (output layer). Lagene er forbundet med hinanden via noder a la neuroner.

 De mange non-lineære bearbejdende lag betyder at netværket har stor evne til at bearbejde meget data. Hermed kan der tages højde for ekstreme mængder informationer og i sidste ende leveres nøje udregnede - intelligente - konklusioner. 

 På det fundament programmeres software- eller hardwarerobotter til at kunne bearbejde store mængder data og autonomt komme op med nye, ikke-menneskeskabte outputs. Det autonome og kreerende element er nøglen til at vi giver det titlen ‘intelligent’. 

 KI baseret på deep learning kommer efterhånden i mange former, materialer og skikkelser. 

 Vi er blevet så vant til de daglige målrettede reklameannoncer på vores skærm, at vi nok ikke længere studser over dem, skønt vores interesser og adfærd i den grad præges deraf. Og vi interagerer automatisk med vore digitale assistenter fra for eksempel Google, Amazon, Microsoft og Apple i vore daglige færden. Derudover har vi tidligere hørt om KIs imponerende skræmmende præstationer hvad angår brætspil som skak, Go samt Jeopardy. 

 Men KI bidrager med meget mere, og for os almindelige mennesker meget mere relevant, end at spille spil. Det er ved hjælp af deep learning at computere på intelligent vis kan skabe og klassificere mønstre i enorme mængder data i form af billeder, tale og skrift, hvorved vi bliver markant bedre til for eksempel sygdomsdiagnosticering og forudsigelse af klimaændringer.

 **Forudsigelser om fremtiden på baggrund af viden om fortiden. Deri består det intelligente. Blandt andet. Dette princip skal også i brug når det drejer sig om interaktionen med mennesker, for her gælder det også om at kunne forudsige vores handlinger, ønsker og behov.**

 ##Let’s talk about… small-talk KI KI baseret på en deep learning arkitektur kunne i princippet lige så godt stå i en kasse inde i baglokalet af butikken og tygge på algoritmer og data i fred og ro, mens medarbejderne sad ud foran og bød folk velkommen og præsenterede deres bud på løsninger - ud fra KIs output.

 Men kunderne - vi mennesker - vil jo ofte gerne have en vis tryghed, når vi investerer os selv og ikke mindst vore penge i et produkt. Derfor giver det også mening, når producenten af Pepper forsøger at sætte et ansigt på sin KI - at skabe et menneskelignende væsen, som vi mennesker formodes at kunne relatere til.

 Og som vi har været omkring i foregående blog [Bamse er en bamse er en bamse er en bamse](https://ing.dk/blog/bamse-bamse-bamse-bamse-228528), så behøver vi mennesker noget så basalt og dog komplekst som tillid for at ville indgå i en relation til en anden - også når det gælder small-talk. 

 **For med tillid kommer evnen til at kunne sætte sig i andres sted og forstå deres behov og ønsker - at kunne mentalisere.**
 ##Så hvordan får vi tillid til en robot? Gennemgående er autonome humanoide eller dyrelignende robotter bygget op omkring en kunstig kognitiv arkitektur, der tager udgangspunkt i hvordan mentale tilstande (det vil sige følelser) kommer til udtryk kropsligt og adfærdsmæssigt. 

 Ansigtsudtryk, stemmeføring, gestikulation, tale og så videre er alt sammen signaler til os om, hvordan vores kommunikationspartners mentale tilstand er. Programmeres robotten til at kunne opfange og tolke disse udtryk, kan den også reagere passende på det menneske den kommunikerer med. ([Cangelosi og Schlesinger, 2018](https://www.researchgate.net/publication/323375304_From_Babies_to_Robots_The_Contribution_of_Developmental_Robotics_to_Developmental_Psychology)) 

 Lad mig prøve at skitsere, hvordan forskere gør interessante forsøg på at puste liv i den humanoide Pepper-robot i en sådan grad, at vi bliver trygge nok til at etablere en relation til den.

 En gruppe forskere satte sig for at undersøge dette, men de startede ved at vende spørgsmålet på hovedet: ##Hvordan får en robot tillid til os? Ved at bygge en kunstig kognitiv arkitektur i den humanoide robot Pepper kunne forskerne få Pepper til at simulere henholdsvis tillid, mentaliseringsevne og episodisk hukommelse. ([Vinanzi et al, 2018](https://royalsocietypublishing.org/doi/10.1098/rstb.2018.0032)). 

 Pepper brugte her sine erfaringer (episodisk hukommelse) med mennesker (fra en laboratorie-øvelse hvor et menneske optrådte enten ærligt eller uærligt over for Pepper) til at bygge en model a la et neuralt netværk for menneskers adfærd. Ved hjælp af denne model kunne Pepper nu simulere at forstå og reagere på menneskers adfærd (mentaliseringsevne) og derved udvise enten tillid eller mistillid. 
 **Som med mennesker viste der sig hurtigt en kausal sammenhæng mellem Peppers evne til at udvise og indgyde tillid og dens evne til at forstå menneskers mentale tilstand.**
 ##Social perspektivtagning På DTU Compute arbejder professor Thomas Bolander og hans team i disse dage også på at gøre en Pepper-robot socialt agil. Bolanders mål er at skabe en robot, som evner at tage sin samtalepartners perspektiv på den aktuelle situation og altså udvise mentaliseringsevne. ([Pepper på DTU](https://videnskab.dk/teknologi-innovation/her-er-robotten-der-skal-laere-at-forstaa-dig)) For at Pepper kan få evnen til social perspektivtagning, er den programmeret med en række komponenter; * *Ansigtsgenkendelse ved hjælp af kamerasensor.* * *Registrering af bevægelser ved hjælp af kamera- og dybde-sensor.* * *Tekst-til-tale og tale-til-tekst moduler, så den selv kan tale og høre via højtalere og mikrofoner.* * *Perspektivtagnings-modul, som bygger på de foregående komponenter og på DTUs eget software-modul til logisk ræsonnering.* Det sidste modul er særdeles relevant for os, idet det har til formål at give robotten social intelligens i form af evne til perspektivtagning og til logisk ræsonnering. Her registreres og bearbejdes tre forskellige typer af handling i en såkaldt *false-belief-task*, som Pepper observerer på sidelinien; * *1. Person A placerer en ting på et specifikt sted, mens person B ser til og altså har kendskab til hvor tingen er placeret.* * *2. Person B fjerner nu sit fokus fra tingen (han skal på arbejde…)* * *3. I person Bs fravær flytter person a nu tingen til et nyt sted, som person B altså **ikke** kender til.* Kardinalpunktet er nu om Pepper kan forudsige hvor person B vil lede efter tingen, når han kommer hjem fra arbejde. *Herunder ser I øvelsen false-belief-task, som den oprindeligt blev illustreret af forskerne Baron-Cohen, Leslie og Frith i 1985.* ##Peppers profeti Det korrekte svar for os mennesker er naturligvis, at person B vil lede det sted, hvor han i første omgang så at tingen blev lagt, idet person B jo ikke er bekendt med tingens nye placering. Det ved vi - og måske Pepper - der har observeret seancen. 

 Hvis Pepper *har* mentaliseringsevne, så vil Pepper forudsige, at person B vil lede efter tingen det første sted, idet Pepper har en forståelse for, at person B’s antagelse om virkeligheden (hvor tingen er lagt) er anderledes end den faktiske virkelighed. 

 Har Pepper derimod *ikke* mentaliseringsevne og altså ikke formår at tage højde for person B’s perspektiv på situationen, vil Peppers forudsigelse være fejlagtig og lyde på, at person B vil lede det sted, hvor tingen faktisk ligger. 

 *Hvordan Pepper og Bolander fra DTU Compute kommer i hus med denne opgave, vil jeg præsentere i min næste blog, hvor jeg har talt med Bolander om hans forskning og forudsigelse af hvor de humanoide robotter er på vej hen.*

 ##Tillid kommer med forudsigelighed Det er ingen nyhed, at vi er vanedyr og gerne holder os til den daglige trommerum med morgenritualer, onsdagsbadminton og den samme let klemte madpakke på jobbet. Men det er der faktisk en god - og sund - grund til.  

Forudsigelighed gør os trygge og i stand til at fokusere på vore opgaver og overskue alle de mange ubekendte faktorer, der ufravigeligt også rammer os i løbet af en dag; i trafikken, på jobbet, i Netto, med strømmen der pludselig går og så videre. 

 Når vi skal have tillid og give os hen i en relation, skal denne også være præget af en vis grad forudsigelighed. Ikke at det ligefrem skal være kedeligt, men vi vil gerne have vished om, at den anden person i vid omgang agerer som vi forventer - og at hun ikke overraskes for meget over vores ageren. 

 **Som med andre mennesker så humanoide robotter; de(n) skal kunne se situationen fra vores perspektiv og hurtig fange vore pointer selv når det blot gælder en hyggelig small-talk eller vores behov for hjælp, hvis vi er faret vild på hospitalsgangene.** Lad os se hvad professor Bolander har at sige om *state of the art* på udviklingen af en algoritme for mentaliseringsevne i Pepper.  *Tak for interessen. Hav en god dag. Julie-Astrid*
    2 Kommentarer
  • Kim Escherich

    Jordbærbod med ansigtsgenkendelse

    I år 2024 går du en tur i København og får pludselig en ekstraordinær lyst til at ryge en politisk ukorrekt cigaret. Du går ind i den lokale kiosk og køber en pakke - formedelst 175 kr. - fra det skjulte lager under disken og du betaler naturligvis med kontanter. Du er jo en bevidst borger, uddannet i digitalt selvforsvar, så du ved ganske udemærket at det i lige præcis i denne situation er absolut bedst at betale med kontanter - og heldigvis er beløbet jo under de 200 kr. som gør, at man kan betale kontant i stedet for at bruge de påkrævede ApplePay, GoogleWallet eller Libra som jo alle er integreret med det statslige digitale pengesystem. Og så undgår du jo også irriterende diskussioner med selskabet hvor du har din sundhedsforsikring da du ved, at de jo deler data med den statslige sundhedsovervågning. Du finder en mørk og smal smøge et mørkt sted og uden at nogen opdager det, tænder du en cigaret som du nyder for en stund. Du bemærker en svag summen, men tænker at det jo nok bare er en af de mange nye 6G antenner som sidder med 20 meters mellemrum. Sikken en fred og uforstyrrethed, men brug af halvulovlige euforisende midler har jo ofte både en god, og en dårlig virkning, så du mærker en stigende hovedpine og egentlig også en vis utilpashed. Måske en hovedpinepille vil kunne tage noget af smerten? Så videre til apoteket. Du går ned til din vintage-automobil, en af de sidste tilbage drevet på fossilbrændstof til 79 kr pr. liter (men hvilken fornøjelse at høre en ottecylindret motor!), sætter dig ind og kører de få kilometre til nærmeste apotek. Parkerer bilen på den anden side af gaden; ikke den mest perfekte parkering, men det er jo kun en hurtigt overstået standsning så det går nok. Går over i fodgængerovergangen og bemærker ud af øjenkrogen at der måske nok var lige lovlig rødt, men på den anden side var der jo ingen trafik. Så det går nok. Inde på apoteket kommer du hurtigt til. Beder om en pakke kodimagnyl, og ekspedienten kigger spørgende på dig. “Er du sikker på, at du ikke har behov for noget andet også? Hvad med dit forhøjede blodtryk og den depressionslignende tilstand du er på vej ind i. Skal vi kontakte din læge? ”. Du undrer dig over spørgsmålet. Hvordan kan hun vide noget som du ikke engang har oplyst til sundhedsforsikringen? Nå, det er en digital verden. Du tager dine piller i den to-pak du har lov til at købe uden recept efter selvmordsbølgen forrige år, går tilbage til bilen og kører hjem. Du låser dig ind i lejligheden ved hjælp af den nye, smarte “Ring” ringeklokke fra Amazon som kan genkende dit ansigt og automatisk låse døren op. Kanon smart. Så slipper man for at rende rundt med alle de nøgler som man skulle i fortiden. Du går ud på badeværelset og kigger dig i det nye spejl du lige har fået installeret. Det er et smart home-sundhedsspejl som analyserer din hud, mikrorynker og ansigtsfarve og kan fortælle om dit kardiovaskulære system er velfungerende. Du har fået det af forsikringsselskabet - en god deal hvor du fik en klækkelig rabat mod at spejlet afleverer data til diagnostiske formål. Hvad det så end betyder. Du har dog slået Lad-Google-gøre-mig-sundere-med-data-funktionen fra, da du jo stadig foretrækker en vis form for privatliv. Det er jo også en slags rettighed. Du tjekker din Apple-borgerterminal. Den hjælper dig til at leve et bedre liv ved hele tiden at nudge dig til at tage de rigtige beslutninger. Om hvad du spiser, hvad du ser på din vægskærm i lejligheden og hvordan lader du dig transportere rundt i byen (selvom bilen jo er en torn i øjet på algoritmerne). Og det fede er, at man kan optjene bonuspoints og få batches som man kan sætte på sin Facebook-profil. Facebook viser dog en irriterende og noget insisterende reklame for det nye Komtilbageigenoxin naturlægemiddel, baseret på prikbladet perikon og johannesurt. Du synes ellers ikke at du har skrevet nogen opdatering om, at du er deprimeret, men der er jo så meget. Men måske det er den sundhedspakke “Algoritmisk Tillid og Sundhed” som Tesfaye SV-regeringen indførte i 2022 i samarbejde med Amazon. En smuk tanke, men til tider lidt irriterende hele tiden at blive nudget til at leve et bedre liv. Du tænker dog at det nok er OK, da der jo er andre, der har det langt værre end dig. Og så kan du jo bare vælge at ignorere de mange beskeder; vi skal jo respektere, at vi allesammen gerne vil have det bedre. Og du har jo ikke noget at skjule. Du bemærker at der ligger nogle beskeder til dig. Den første er fra forsikringsselskabet. De skriver, at en af kommunens overvågningsdroner har set dig ryge en cigaret i en smøge i byen og advarer dig om, at hvis adfærd af den art fortsætter, vil der blive trukket i dine loyalitetspoint. Du tænker at det jo forsåvidt er OK, da det jo er farligt at ryge. Så du må skjule dig bedre næste gang. Den næste er fra Politiet og er en automatisk udskrevet bøde for ulovlig standsning. De skriver at bilen er identificeret med et af de mange ANPG-kameraer som jo er på alle gader og at et overvågningskamera har identificeret mig, ved hjælp af den nye og forbedrede Rekognition-algoritme som kommunen lige har købt af Amazon. Bøden er på 5.000 kr. og en betinget frakendelse af adgang til Netflix. Da bøden er algoritmisk udskrevet, kan man ikke klage over afgørelsen. Damd, det var ikke så smart. Du åbner den næste som også er fra Politiet. Det er en bøde for overtrædelse af færdselsloven, så du er åbenbart blevet set af et af kameraerne da du gik over for rødt og de har også identificeret dig via Rekognition-algoritmen. Den kan man heller ikke klage over; det er jo en algoritme-beslutning. Det var nogle dyre hovedpinepiller. Sikke en dag. Borgerterminalen ringer og du ser ansigtet på en kvindelig robotrådgiver - et kunstigt menneske, men til gengæld meget hjælpsom og ofte med masser af tid til at snakke. Men kommunen har jo også ansat 1/4 million robotmedabejdere så der er masser af varme hjerner til at tale med borgerne. Hun fortæller dig at kommunen er bekymrede. De har set at du er begyndt at ryge, men for at gøre det endnu værre, har femfaktor-identifikations-algoritmerne fra Google’s ansigtsgenkendelsesbibliotek identificeret at du har udfordinger omkring ekstraversion og neuroticisme. Du forklarer at det nok skyldes at du som stærkt sporadisk ryger jo faktisk blev ret dårlig af rygningen, hvilket naturligvis har påvirket analysen fra de kameraer der har set dig og gennemført sentiment-analysen baseret på dit ansigtsudtryk. Hun virker skeptisk og ser ud som om, hun tænker sig om, men ret stålfast siger hun at for at du kan bibeholde din status hos forsikringsselskabet og i det centrale sundhedsregister, skal du vaske dine hænder mens du kigger ind i spejlet fire gange om dagen de næste otte uger. På den måde, kan du bevise overfor forsikringsselskabet at du har reelle og positive hensigter om gerne at ville leve et sundere liv. Du siger ja, og afbryder forbindelsen. Der kommer sjældent noget godt ud af, at diskutere med en robot. Du tænker på en film du så for en del år siden. Den hed Surrogates og havde Bruce Willis i hovedrollen. Historien var, at ingen nogensinde forlod deres hjem og i stedet levede i en virtual reality-verden hvor alle var unge, smukke, tjekkede og ikke gjorde noget galt. Så man kunne godt blive grim, gammel og leve et usundt liv, men der var aldrig nogen der ville opdage det. De så jo kun den virtuelle, unge, smukkede og tjekkede udgave. Tænk, det kunne være fedt. Og tænk også hvis man kunne slette en dags oplevelser. Det kunne du godt have brugt i dag. — # — Da jeg forleden så Berlingskes artikel [“Københavns Politi: Vi vil gerne bruge ansigtsgenkendelse på borgerne”](https://www.berlingske.dk/samfund/koebenhavns-politi-vi-vil-gerne-bruge-ansigtsgenkendelse-paa-borgerne), må jeg erkende, at jeg fik kaffen galt i halsen. Egentlig ikke fordi jeg blev overrasket; disse teknologier anvendes jo i vidt omfang allerede rundt omkring i verden, så hvorfor ikke begynde at tale om, at vi i verdens (vistnok) mest digitaliserede land naturligvis vil kunne bruge algoritmer til at skabe større sikkerhed og tillid til hinanden. Artiklen kom lige i halen på offentliggørelsen af Regeringens trygheds og sikkerhedspakke “[“Tryghed og sikkerhed i det offentlige rum”](http://www.justitsministeriet.dk/sites/default/files/media/Pressemeddelelser/pdf/2019/tryghed_og_sikkerhed_i_det_offentlige_rum_udspil.pdf)” som jo netop taler om i vidt omfang at skabe mere tryghed gennem overvågning, så mon ikke Københavns Politi har fået en opringning fra ministeriet og er blevet bedt om, at gå i pressen og tale om de videre konsekvenser. Sikkerhedspakken indeholder nemlig ikke ansigtsgenkendelse, men det er jo et naturligt næste skridt, så hvorfor ikke få en repræsentant for den udøvende magt til at tale om, hvor vigtigt det er med mere tryghed. Så er vi jo ligesom forberedt. Men det fik mig til lige at tage beskrivelsen sikkerhedspakken op af skuffen igen for lige at tjekke om ansigtsgenkendelse er et næste, naturligt skrift - så lad os lige dvæle et øjeblik ved den. Pakken indeholder tre hovedområder: “Øget overvågning”, “Styrkelse af Politiets efterforskningsredskaber og muligheder” samt “Forstærkelse indsats mod eksplosivstoffer”. Vi har jo mest hørt på diskussionen om 300 flere overvågningskameraer - hvilket vel er en vækst på få promille i forhold til det antal kameraer som allerede findes - men pakken indeholder også en række ret markante ændringer i forhold til, hvad vi er vant til. Én er naturligvis at offentlige bygninger og kommuner skal have udvidet adgang til at installere TV-overvågning, men der foretages faktisk også et ikke uvæsentligt indgreb i den private TV-overvågning - eller en udvidelse hvis man ser det på den måde. Her bliver vi nemlig allesammen til et værktøj i samfundets overvågning af borgerne. Så eksempelvis butikker får mulighed for, at udvide TV-overvågningen til at dække arealer uden for de få meter fra butikken som er lovligt i dag, der gives mulighed for at erhvervsdrivende kan foretage massiv TV-overvågning, Politiet kan i særlige tilfælde give private tilladelse til at overvåge områder anvendt til almindelig færdsel og endelig kan private, hvis der er indgivet en politianmeldelse, få lov til at opbevare optagelser i længere tid end det er muligt i dag. Hvis vi nu parrer det med kravet om at [“alle skal registrere deres overvågningskameraer”](https://politi.dk/indberet-eller-registrer/registrer-dine-overvaagningskameraer), ender vi faktisk med et ret omfattende overvågningssystem. Rigspolitiet siger godt nok til Version2 at der ikke er tale om at man ikke vil have adgang som et direkte videofeed, men at “[“…hvis politiet ønsker at se optagelser fra kameraer i registret, skal de rette henvendelse til ejerne og bede om at få udleveret optagelserne”](https://www.version2.dk/artikel/rigspolitiet-derfor-reklamerer-vi-vores-nye-overvaagningsdatabase-1089227). I praksis betyder dette vel at Politiets rådighed over TV-kameraer udvides fra ikke voldsomt mange til tusindevis. Som udgangspunkt de 16.000 private kameraer som i dag - ad frivillighedens vej - er registreret i systemet POLCAM. Spørgsmålet er hvor lang vej der er fra registrering af metadata, til adgang til et direkte videofeed, til ansigtsgenkendelse…? Ideen med at inddrage private i et statsligt overvågningssystem er bestemt set før i den vestlige verden og er tilsyneladende en stigende tendens. I USA har det Amazon-ejede selskab Ring, der laver intelligente og kameraudstyrede dørklokker, [“indgået et samarbejde med 400 politiorganisationer”](https://www.washingtonpost.com/technology/2019/08/28/doorbell-camera-firm-ring-has-partnered-with-police-forces-extending-surveillance-reach/) hvilket giver politiet direkte adgang til at kigge med på overvågningen. Alene kombinationen af Amazon (der jo massivt bruger overvågning andre steder, fx i deres supermarkeder) og statslig overvågning burde give en del bekymringer, men det lader ikke til at bekymre amerikansk politi. I flere byer forærer politiet tilmed Ring-dørklokker gratis til borgerne for at få udbygget overvågningssystemet. Ring siger at de ikke bruger ansigtsgenkendelse i deres dørklokker, men alligevel har de ansat en [“Head Of Facial Recognition Research”](https://www.buzzfeednews.com/article/nicolenguyen/amazon-ring-facial-recognition-ukraine). Så gad vide, hvor længe det varer. Kombinationen af kameraer og ansigtsgenkendelse vil jo medføre en ikke uvæsentlig mulighed for at se, hvem der begår kriminalitet så en dag vil det være slut med at [“gøre skade på andres biler”](https://www.msn.com/en-us/news/us/surveillance-video-shows-woman-keying-tesla-model-3-in-school-parking-lot/ar-AAI2B82) og slippe godt fra det. Et andet emne i sikkerhedspakken er de allestedsnærværende ANPG-kameraer (automatisk nummerpladegenkendelse). Over de seneste år har Politiet fået indført et relativt finmasket og stadigt voksende [“netværk af ANPG-kameraer”](https://anpg.dk/), som har til formål at læse din nummerplade når du kører på offentlig vej. Så når jeg kører fra København mod IBM’s kontor i Brøndby, og på Roskildevej passerer forbi Damhussøen, bliver min nummerplade læst af systemet. Hvis jeg ikke er eftersøgt får Politiet i [“henhold til deres egen beskrivelse”](https://politi.dk/faerdsel/politiets-faerdselskontroller/automatisk-nummerpladegenkendelse) ikke en notifikation og mine data gemmes kun i 24 timer i den såkaldte no-hit-del af systemet. De 24 timer går igen i sikkerhedspakken hvor der tales om at udvide fristen for at slette informationer til 60 dage. Med andre ord, alle de som IKKE er på Politiets hotliste over eftersøgte eller andre formastelige, vil fremover få opbevaret bevægelsesdata i to måneder. Det er altså dig, mig og alle de andre som overhovedet intet kriminelt har gjort. Men OK, hvis man ikke har noget at skjule, eller…? Som Edward Snowdon sagde “Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say.” **Glidebanen** Som det ser ud lige nu, har ønsket om at undgå ansigtsgenkendelsen på det længere sigt, ret svære vilkår. Godt nok er regeringen ikke lige umiddelbart [“nogen planer om at tillade ansigtsgenkendelse”](https://www.berlingske.dk/samfund/v-og-df-vil-lade-politiet-bruge-ansigtsgenkendelse-roed-blok-stejler), men er alligevel ikke helt principielt klare i spyttet. V og DF går klart ind for at give Politiet disse muligheder, mens Alternativet, Enhedslisten og LA er lodret imod. Men det er spørgsmålet om vi er på vej ud på en glidebane. Hvad der for få år siden, virkede umuligt og urealistisk, er i dag efterhånden blevet dagligdag og større initiativer som styrker overvågningen, kan indføres uden større offentlig debat. ANPG som et eksempel. Og ofte sker det med en argumentation om at vi kan bruge teknologi til at skabe mere tryghed og sikkerhed. I landene omkring os rykker tingene i en bekymrende retning. I Sverige har Datainspektionen - den svenske pendent til Datatilsynet - givet Politiet lov til at bruge ansigtsgenkendelse med følgende forudsætning “[“Datainspektionen bedömer att polisens tänkta användning av ansiktsigenkänning är laglig men uppmanar polisen att slå fast hur länge uppgifterna från ansiktsigenkänningen får sparas.”](https://www.datainspektionen.se/nyheter/polisen-far-anvanda-ansiktsigenkanning-for-att-utreda-brott/)”. Så i Sverige handlinger bekymringerne åbenbart mere om opbevaring af data end det potentielle kulturelle og demokratiske værdiskred ved at bruge disse teknologier. I Serbien ser vi at kinesisk overvågningsteknologi med ansigtsgenkendelse har en [“særdeles undertrykkende virkning på demonstrationer”](https://politiken.dk/viden/Tech/art7445078/Landet-har-nemlig-k%C3%B8bt-ny-overv%C3%A5gningsteknologi-fra-Kina) og oprør; en tendens der breder sig til en del lande. Og selv i Danmark tog vi hul på udviklingen da Datatilsynet gav Brøndbyernes I.F. Fodbold [”tilladelse til at bruge ansigtsgenkendelse”](https://www.datatilsynet.dk/tilsyn-og-afgoerelser/tilladelser/2019/maj/tilladelse-til-behandling-af-biometriske-data-ved-brug-af-automatisk-ansigtsgenkendelse-ved-indgange-paa-broendby-stadion/) ved indgang til Brøndby Stadion. Der er dog også en del modstand forskellige steder i verden. I Hong Kong er demonstranterne vel viden om at de bliver overvågede og tager forholdsregler og der er ved at opstå en [“alternativ modeindistri med tøj, specielt designet til at undgå overvågning”](https://www.reuters.com/article/us-britain-tech-fashion-feature/face-masks-to-decoy-t-shirts-the-rise-of-anti-surveillance-fashion-idUSKBN1WB0HT). I San Fransisco har bystyret [“forbudt ansigtsgenkendelse”](https://www.bbc.co.uk/news/technology-48276660) og i Barcelona har man indført et mere generelt forbud om, at byen ikke ønsker leverandører som baserer sig på de overvågningskapitalistiske forretningsmodeller, dvs. GAFA’erne. **Skal vi?** Så det hele virker lidt tumultarisk for øjeblikket. Det er jo meget oplagt at starte en lang og kompleks diskussion om videoverågning i det hele taget virker og det er der lavet [“undersøgelser om”](https://onlinelibrary.wiley.com/doi/full/10.1111/1745-9133.12419) som viser at det ofte har en præventiv effekt men lige så ofte ikke har en større virkning. Det er med andre ord, ikke et vidundermiddel. Og Kina har jo også i sin rolle af verdens største eksperimentarium for brug af overvågningsteknologi vist, at det er muligt at styre, kontrollere og forme tanker og adfærd hos befolkningen. Lige i overkanten i forhold til vores demokratiske tænkning i vesten. Så det er jo nok ikke Kina-modellen vi ønsker? Nogen vil også indvende, at vi jo allerede er masseovervågede. Vi har telefoner styret af Apple og Google, Facebook kender vores sjæl bedre end os selv og Amazon er ved at overtage hele industrier for øjnene af os - alle baseret på modeller som bruger overvågnings- og persondata som benzin til en nærmest uendelig vækst. Men for mig er der en væsentlig forskel på Københavns Politi’s hede overvågningsdrømme og den overvågningskapitalistiske verden som omgiver os. Forskellen ligger i, at vi kan sige nej til GAFA’erne. Det er måske svært, gør livet noget mere bøvlet og vi vil måske føle, at vi er gået off the grid og har forladt samfundet hvilket repræsenterer en smerte i sig selv. Men vi overlever. Når kameraerne er monteret overalt i byrummet, Politiet har fået adgang til de mere end 16.000 private kameraer og dronerne summer over hovederne på os - alt understøttet af ansigtsgenkendelse, kan vi nemlig ikke sige nej. Og vi er måske på en glidebane som er så glat, at det er svært at stoppe en accelererende bevægelse. Derfor skal vi stoppe. Lige nu. Og tage diskussionen om, hvilket samfund vi gerne vil have. Og det er ikke en teknisk-bureaukratisk-økonomisk diskussion, men en snak om demokrati, kultur og hvilket samfund vi gerne ser i fremtiden. Det kan være at vi skal være som Kina. Personligt ville jeg flygte, men det er et reelt politisk valg vi har. Det er bare vigtigt, at vi forstår hvor kritisk denne beslutning er. DR lavede tidligere på måneden en afstemning som en del af artiklen [“”Støttepartier undrer sig over S-forslag om øget overvågning: Hvad blev der af tilliden?](https://www.dr.dk/nyheder/politik/stoettepartier-undrer-sig-over-s-forslag-om-oeget-overvaagning-hvad-blev-der-af) hvor man spørger om myndighederne skal have bedre muligheder for at overvåge borgerne. I skrivende stund har ca 3600 stemt, 49% siger ja, 47% siger nej og kun 4% mener, at vi skal lade politikerne beslutte det. Om de 4% handler om megen begrænset tillid til politikernes evne til at diskutere vores fælles fremtid er svært at sige, men det virker unægtelig lidt skævt. Og gad vide, om de 49% som siger ja, er dem som [“ikke har noget at skjule”](https://en.wikipedia.org/wiki/Nothing_to_hide_argument). Vi har stolte traditioner fra vores kultur, højskolebevægelsen og meget mere, som burde styrke os på nej-siden i denne diskussion og som burde sikre en fornuftig demokratisk tankegang. Vi skal nemlig forstå, at vi ikke skal være som Kina og vi skal på inden måde lade politi eller politikere trække os i en forkert retning. I Mette Frederiksens tale ved Folketingets åbning talte hun om jordbærboden som på grund af tidens tilstand og frygten for tømt pengekasse, er blevet udstyret med videoovervågning. Tag nu eksemplet videre og forestil dig at du en dag bliver ringet op af politiet fordi du har stjålet penge fra det uskyldige pensionist-ægtepar som ejer jordbærboden. De er meget påståelige og sikre i deres sag da de har adgang til videoovervågningen og ansigtsgenkendelsen klart har identificeret at du er tyven. Du påpeger at teknologien altså ikke er helt sikker og blandt andet fejlagtigt har [“identificeret mere end en tredjedel af det amerikanske senat som værende kriminelle“](https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28), men det er altid en svær diskussion når der er en algoritme med ved bordet. Så stop, tænk og lad os diskutere hvilket samfund vi vil have: Et overvågningsfascistisk Kina eller vores eget. Jeg ved godt, hvad jeg ville vælge. Synes du i øvrigt at eksemplerne i den lille indledende historie virker urealistiske. Google tog patent på spejlet i 2018, forskere fra University of Toronto publicerede for nylig en algoritme som, baseret på en selfie-video, kan måle dit blodtryk, industrien omkring aflæsning af følelser via ansigts-analysealgoritmer har efterhånden nået 25 milliarder dollar og historien om overvågningskapitalismen kender du sikkert allerede. Og hvis du gerne vil se virkelighedens eksperimentarium, herunder hvad der sker når man går over for rødt - eller skal have toiletpapir på et offentligt toilet, kan du kigge med her: [video: https://www.youtube.com/watch?v=foT2kCByOgs]
    16 Kommentarer
Sektioner