Kan du høre, hvad jeg ser? Maskiner og menneskers syn for sagen
Forestil dig, at du sidder på en bænk i en park og betragter græsset og træerne gro. Det går objektivt set temmelig langsomt og måske når du at kede dig lidt undervejs.
Ifølge den nu 100 årige videnskabsmand og opfinder af Gaia-teorien, James Lovelock er det sådan et kunstig intelligent-system (KI) i fremtiden vil opleve menneskets tankeprocesser og -kapacitet. Langsommelige og begrænsede.
Lovelock uddyber i sin netop udkomne bog Novascene - The Coming Age of Hyperintelligence, at KI i teorien burde være en million gange hurtigere end mennesket hvad angår tænkning og handling, (bearbejdning af data og respons derpå) simpelthen fordi transmissionen af signaler langs en elektrisk leder i computerens kobbertråde er en million gange hurtigere end transmissionen i hjernens nervebaner (henholdvis 30 centimeter per nanosekund og 30 centimeter per millisekund).
MEN - medgiver Lovelock - i praksis er det nok et mere retvisende billede at betragte KI som værende ’blot’ 10.000 gange hurtige end mennesket (hvordan han lige lander på 10.000, forklarer han dog ikke), hvilket nu også er ganske meget. Og han illustrerer denne afstand mellem KIs og menneskets bearbejdningshastighed, ved at sammenligne hastigheden af vores kontra naturens udvikling.
Og så er vi tilbage på bænken i parken.
Hvem er bedst?
Diskussionen om hvorvidt de intelligente maskiners ankomst er godt eller skidt, starter og ender som regel med spørgsmålet om, hvem af os, der er ‘bedst’ og i sidste ende vil overtage verdensherredømmet – er det mennesket eller maskinen?
1-0 til maskinen
Vi kender til maskiner udstyret med software, der kan gennemføre bearbejdning af data via algoritmer - som de også udvikler på undervejs - for derved at præstere overlegent i alverdens kryptiske brætspil; kategorisere enorme mængder indviklet data og fremsige fantastiske forudsigelser om alt fra sygdomstilfælde over klimaforandringer og til staters og verdensøkonomiens opblomstring og fald.
Er alt så tabt og singulariteten lige rundt om hjørnet?
Det er mere mudret end som så.
På andre fronter trækker mennesket stadig fra maskinerne. Her på bloggen har jeg også været omkring at meget af dét, som vi mennesker finder let; hyggesnak over aftensmaden, small-talk i Netto, udførsel af flere handlinger på een gang, at være innovative, udvikle og lede - det har et KI-system ganske svært ved. Læs her for uddybning At puste liv i maskiner.
Bedst i (syns)test
Spørger man neuroforsker Jonathan Victor fra Cornell University så er svaret på det store spørgsmål om menneske versus maskine entydigt; Mennesket. Han stiller skarpt på vores synssans og henviser til vores visuelle hjernebark, når han understreger, hvorfor en maskine aldrig vil kunne hamle op med mennesket. I hvertfald ikke på dette punkt.
1-1 til mennesket
Menneskets syn udspringer af visual kortex bagerst i vores hjerne og manifesterer sig i billeder gennem serier af neurale feedback-loops mellem visuel kortex og de omskiftelige omgivelser, vi kigger på via retina i øjet (nethinden). Et sådan feedback-loop er væsensforskelligt fra hvordan robottens “syn” er bygget op.
Robottens ’syn’, eller hvorpå den visuelt registrerer omverdenen, sker ved hjælp af et såkaldt feed-forward-loop.
Processen hér foregår trinvis ved at billeder af omverdenen splittes op i mikrodele og klasificeres og identificeres på henholdsvis pixelniveau; på kanter og konturer; på selve objektet på billedet og endelig på basis af den sammenhængen som objektet optræder i på billedet.
Dette er et regulært samlebånds-system, mener Jonathan Victor, og er altså ikke at sammenligne med menneskets bestandigt udviklende feedback-loop af neurale informationer mellem øjets retina og visual kortex. (læs mere i Quanta Magazine).
Revanche: retina versus deep fusion og andre fantastiske konstruktioner
Dét sagt; så går de fleste af os efterhånden rundt med noget ret avanceret KI-software i lommen allerede: I vores smartphones. En KI-software, der er udviklet for at gøre øjets fantastiske arkitektur kunsten efter. Og det lader til at gå temmeligt godt.
En chip med en såkaldt neural motor (neural engine eller neural processing unit) baseret på en neural netværks-struktur og indbygget i tech-giganternes bud på deres mest avancerede smartphones muliggør nu, at vores telefon blandt andet kan “genkende” vores ansigt, der virker som nøgle til at låse telefonen op med (fingeraftryk er so last year bogstavlig talt).
Derudover lærer chippen langsomt din anvendelse af telefonen at kende, og den kan over tid selv optimere batteribrug i baggrunden, spinde apps op før du ved, du har brug for dem, og den kan tagge og genkende personer og objekter på dine mange tusinde billeder. Bedre end dig på flere fronter. Læs mere på AI Theory.
Det findes nogle hæderlige eksempler på, at den neurale kernes kapacitet kan bruges til at lære at opfatte og respondere på gestikulationer såsom håndbevægelser, blandt andet hos Motorola, men de bygger på optiske sensorer af forskellig art og nytten heraf har dog hidtil været ret begrænset.
Men der er faktisk ved at ske noget for alvor interessant på denne front.
Soli-chippen
I deres nyeste smartphones Pixel 4 og 4 XL har Google indbygget radarteknologi i kraft af Soli-chippen.
Den lille soli-chip har til formål at spore sin ejers bevægelser ved hjælp af radar. Mere specifikt til at spore realtids-håndbevægelser der kan være bittesmå, udført med høj hastighed og med store præcision. Det er i hvert tilfælde teknologiens potentiale.
De informationer og signaler, der opfanges af radaren - såsom forsinkelse i tid eller forandringer i omgivelserne - giver smartphonens neurale kerne information om interaktionen mellem ejeren og omgivelserne som for eksempel placering i rummet og lignende.
Som det er nu, anvendes soli-chippen i telefonen kun til relativt “simple” opgaver såsom at gøre telefonen klar til låse op via ansigtsgenkendelse (som stadig er optisk), når den registrerer, at du nærmer dig, slukke for vækkeuret ved at vifte hånden over telefonen, kilde en Pokemon på skærmen og til at skifte mellem telefonens funktioner.
Særligt interessant bliver det dog, hvis de neurale kerner i både telefon og sky lærer at bruge informationer fra chips a la soli-chippen så intelligent, at den kan spore og forstå ikke blot sin ejers håndbevægelser men også hendes generelle adfærd og i sidste ende endda koble det til den mentale tilstand og derved behov og ønsker.
Det vil bringe os tilbage til, hvad jeg har behandlet i blogpost Bamse er en Bamse er en Bamse er en Bamse, om evnen til at sætte sig ind i andre personers mentale tilstand; at kunne mentalisere.
Kunne dette være endnu et skridt i retningen af, at maskinerne oparbejder evnen til at mentalisere?
Augmentering af menneskekroppen
Smartphonen bliver i kraft af nye teknologier såsom radar i endnu højere grad en augmentering (forlængelse) af vores krop som vi kender det fra ikke-intelligente ting såsom en kikkert, en stok og en bil.
KI er dog også godt på vej til at augmentere os via andre kanaler såsom Elon Musks aktuelt måske mest kontroversielle opfindelse af hårtynde, fine elektroniske tråde (NeuraLink), der snart kan indopereres i vores hjerne og gøre os i stand til at kommunikere direkte med digitale systemer.
Ma(nd)skinen bliver en realitet
Fremskriver vi de neurale kerners potentiale til at spore, respondere på og forudsige vores adfærd og i sidste ende vores mentale tilstand via for eksempel soli-chippen, så er vi faktisk dér, hvor det ikke blot er vores fysiske kapacitet der augmenteres, men også vores kognitive kapacitet.
Hermed bliver cyborg-fænomenet - en sammensmeltning af menneske og maskine - pludselig rigtig interessant, idet mennesket nu ikke “blot” udstyres med en maskines ekstraordinære fysiske egenskaber, men også får udvidet sin hjernekapacitet med en agil og ekstremt kapabel muskel i form af en intelligent computer.
Muligheder og psykologiske konsekvenser ved augmentering af mennesket er et vigtigt emne, som vi skal behandle mere indgående i kommende blogpost. Dette var blot en teaser.
Er der i grunden mere tilbage af menneskets forspring hvad angår her synssansen?
Et univers af udfordringer
Det vil blive en meget lang(håret) diskussion er nå til bunds i, men jeg vil for nu konkludere at den stigende hastighed i udviklingen af diverse deep fusion-teknologier har givet øjets ellers ekstremt komplekse retina-konstruktion kamp til stregen i forhold til at kunne afbillede og tolke den visuelle verden.
Dét sagt; så har kun vi mennesker vores øvrige fantastiske hjerne (for os selv lidt endnu i hvertfald).
Vores hjerne - der er som antallet af stjerner i Universet hvad angår omfanget af neuroner og forbindelser derimellem - er særdeles svær at kopiere, fordi den i kraft af vores kropslige, erkendelses- og følelsesmæssige erfaringer gennem hele livet konstant udvikler sig.
Vores livserfaringer præger vores hjernes arkitektur og i sidste ende måden, hvorpå vi tolker syns- og andre sanseindtryk og sætte dem ind i sammenhænge.
Og netop denne plastiske natur og agile færden i livet er, hvad der gør os mennesker unikke og suveræne i forhold til maskiner.
Stillingen er uafgjort
Så hvem vinder konkurrencen?
Det på een og samme tid lette og svære svar er: Det er endnu ikke afgjort.
Dette utilfredsstillende svar skyldes, at vi hverken har udforsket menneskets kapacitet og potentiale til bunds, eller udviklet maskinens ditto til fulde. Og så kommer det, som jeg har gennemgået her, an på hvilken disciplin, der konkurreres i.
Spørgsmålet der står tilbage - og som for nuværende nok er mere relevant at stille - er om vi overhovedet skal konkurrere?
Hvis al udvikling af KI herunder intelligente humanoide robotter handlede om at efterligne mennesket for at kunne erstatte os, så giver den almene menneskelige frygt og dommedagsscenarierne mening eftersom, at KI vil kunne true vores position og funktioner såvel privat som professionelt.
Men hvad nu hvis maskinerne ikke skal erstatte os sådan en-til-en, men snarere supplere, aflaste, forlænge os?
Eller; at det faktisk ikke er så vigtigt at de ligner og agerer som os, for at vi vil samarbejde med dem?
I næste blogpost vil jeg vurdere fordele og ulemper ved de menneske-lige robotter.
Med venlig hilsen Astrid
