Ny blogger på ing.dk: Kunstig intelligens er ikke kommet for at spise os
I denne uge starter en ny blog på ing.dk.
'Den levende maskine' bliver skrevet af professor i kunstig intelligens Anders Kofod-Petersen, som er vicedirektør på Alexandra Instituttet.
Han vil skrive om machine learning og alle former for kunstig intelligens.
I sit første blogindlæg skriver han blandt andet:
'Jeg er dybt fascineret af denne kombination mellem klassiske naturvidenskabelige undersøgelser af intelligens og teknisk konstruktion af intelligente systemer – og det er det, denne blog kommer til at handle om.
Samtidig er jeg tekno-positiv. Jeg har ingen tro på, at skummel kunstig intelligens kommer for at spise os; noget, en del af nutidens luditter har argumenteret for for nylig – heriblandt fremtrædende forretnings- og videnskabsmænd som Tesla-milliardæren Elon Musk (der har startet en fond, som skal bekæmpe ”truslen” fra kunstig intelligens) og den teoretiske fysiker Stephen Hawking (der har udtalt, at udviklingen af fuld kunstig intelligens kan betyde enden på menneskeheden).
Jeg vil vove at påstå, at de simpelthen ikke ved nok om feltet. Af samme årsag afholder jeg mig også fra at udtale mig om privat rumfart og sorte huller.'
- emailE-mail
- linkKopier link

Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Kunstige intelligenser har intet hormonsystem og ingen "krybdyrhjerne" til at påvirke deres intentionalitet, og deres situation i verden er helt anderledes end vores..ingen krop og ikke samme fysiologiske behov.
Så vi må forvente, at deres intentionalitet vil være væsensforskellig fra vores.
Ar, men jeg troede, det gik på, om det er muligt at programmere self awareness, som du forbinder med intentionalitet.
Det er sådan set ikke problemet, som jeg ser det i hvert fald, at simulere behov i AI. Men opfattelsen af behov vil ikke være den samme i en menneskehjerne som i et stykke AI-software.
Et behov, som det burde være nemt at simulere, er føde. Hos en robot kunne man godt indlægge et "behov" for at få batteriet ladt op, når det når under et vidst niveau, sådan den skal lede efter et power outlet.
Men robotten vil stadig ikke have en "angst for at dø", som mennesket har. Og som kommer som resultat af, vi ved vi er i live, altså selvbevidsthed.
Her er noget fra Watson, som jeg var lidt imponeret over.
Det viser sig, at Watson, når den skulle vælge imellem flere mulige svar i Jeopardy, bla. fik med, om en person rent faktisk var i live, er i live eller død. Sådan den kunne udelukke svar, hvor en given tilstand ville være ulogisk (f.eks. vil en person født i 1600 nok ikke længere være i live).
Det er en simuleret erkendelse. Fordi naturligvis "ved" watson ikke, om noget er i live eller ej. Derimod, så er ordene dead og alive ikke ens, og man kan knytte bestemte algoritmer til hvert ord, sådan det ser ud som om Wason rent faktisk tager stilling til den virkelige verden.
Det samme blev gjort med geografi. Når der skulle svares på spørgsmål omkring tilhørsforhold til lande eller byer, så var der algortimer for at finde ud af, hvor i verden spørgsmålet var fokuseret på (en slags miniaturemodel). På den måde kunne virkelig avancerede spørgsmål besvares korrekt, også selv om de var geografisk orienterede.
Men igen, ikke en "menneskelig" erkendelse af virkeligheden. Det så bare sådan ud.
Men når man knytter mange algoritmer sammen, som historik, geografi, det at være i live eller ej, såmænd også om noget er fiktivt eller ej, så får man en hulens god simulation. Som så EMM aldrig vil kunne blive det samme som menneskelig bevidsthed. Det er ren illusion, bare skide godt udført.
Men tag det ikke fra mig - læs om det selv.
Bevidsthed tror jeg ikke du kan kode. Det afhænger naturligvis af, hvad du forstår som bevidsthed.Bevidsthed/Intelligens
Intelligens kan aldrig nogensinde blive kunstig, i egentlig forstand,
men man kan programmere bevidsthed, og så er det programmeret, og ikke 'kunstig' bevidsthed.
Intelligens derimod er ikke andet end en løsningsmaskine, der "snyder" for at blive færdig i tide. Havde den afprøvet alle muligheder trivielt for at finde løsningen, havde den ikke nået at finde meget.
Kort fortalt, kan vi sige at Darwins teori er den "ægte" vare, hvor alle kombinationer testes og vurderes. Intelligens er en form for snyd, der søger at finde resultatet hurtigere, ved at bruge den form for snyd, vi kalder at tænke.
Jeg plejer at kalde intelligens for en katalysator. Noget du "drysser" på problemet, så ryster du det, og løsningen dukker op indenfor kortere tid end du tror er muligt.
Har du mulighed for at løse ethvert matematisk problem indenfor kort tid, så er intet problem at lave intelligens. Det som forskerne mangler, for at opnå intelligens, er en computer der kører uendelig uendelig hurtig. Så kan den selv udvikle en så god som mulig begrænset klon af sig selv, der kan køre i et univers den får givet, f.eks. bestående af CPU instruktioner, eller naturens love som grundlag. Indenfor det univers den får givet, vil den kreere en maskine, der så godt som muligt, kan løse ethvert problem ved at afprøve alle muligheder. Har dette univers en tidsmæssig begrænsning, vil den søge at løse det, så det går hurtigere end ved at afprøve mulighederne - den vil søge at finde den "computer" der i det begrænsede univers, finder svaret hurtigt, ved at analysere sig til svaret, uden at bruge stor datakraft og energi.
Du kan skrige til du er blå i hovedet, men du er blot en samling af atomer, der udfører processer det kan koges ned til en kompleks kombinatorik af tilfældige og deterministiske processer. Du har (ligesom resten af universet) hverken Qualia og ingen fri vilje, det er blot en illusion.
Jeg selv er muligvis undtagelsen, for jeg har jo erkendt ovenstående.
Det ville være lettere at omprogrammere en levende grises DNA til at kunne flyve med et baseball bat.men man kan programmere bevidsthed, og så er det programmeret, og ikke 'kunstig' bevidsthed.
Intelligens kan aldrig nogensinde blive kunstig, i egentlig forstand, men man kan programmere bevidsthed, og så er det programmeret, og ikke 'kunstig' bevidsthed.
Det kan ganske let bevises og er i praksis bevist i det allerede nævnte men manglen bliver accept af beviset. Al computerberegning giver data, intet andet. Data kan bindes til motorstyring eller anden fysisk aktivitet såsom lys eller lyd. Men hvad vil du binde det data til for at skabe smerte. Der er intet i vores videnskab der overhovedet konceptuelt forslår en retning der kan begynde at forklare qualia og den bevidsthed qualia er i. Intet data eller beregning kan med rimelighed siges at være smerte. Det logiske domæne i matematisk forstand, har ganske enkelt ikke udtryksmagten til at skabe qualia såsom smerte.Det var så en påstand. Nu mangler vi bare argumenterne der understøtter påstanden.
Det er så simpelt men for de fleste så uacceptabelt at det fortrænges. Jeg kan lave intelligente maskiner men noget så simpelt som smerte kan aldrig gøres i det fysiske.
En robot kan skrige til den er blå i hovedet men intet smerte har den følt. Og det ændres ikke ved at dens intellekt er en milliard gange større end et menneskes. Qualia beviser vores åndelige natur. Det er forsåvidt en anerkendt problematik i filosofien men vores eksakte videnskab gør sit bedste for at fortrænge emnet. Sjovt nok finder du ganske enkelt ikke bevidsthed og smerte som emner i den førende kunstig intelligensforskning. Til dels fordi det mekanistiske ikke har brug for det for at virke og til dels fordi man ikke har den fjerneste ide om hvordan det skulle gribes an. De fleste vil stærkt benægte at det er virkeligt. Jeg har taget en længere debat med f.eks Yann Lecun som overhovedet ikke var i stand til at håndtere emnet og han er blandt de bedste i AI.
Det følger desuden trivielt at smerte ej heller forekommer i vores kroppe eller hjerner. Og ligeledes underminerer det endegyldigt evolutionsteorien for den tager ikke højde for sådanne 'metafysiske' aspekter. En åndelig variant deraf kan være korrekt men som hidtil fremstillet kan den ikke være korrekt.
Det bliver først spændende når kunstig intelligens begynder selv at opstille matematiske problemer og kommer med løsninger dertil</p>
<p>Det lyder ikke specielt relevant for kunstig intelligens.
Er det ikke mere interessant med svære opgaver, som at kunne deltage i en samtale om weekendens fodboldresultater?
En tommelfinger ned på det? Hmm, ja ja., så er der i hvert tilfælde en der har afsløret manglende kundskab til feltet.
Det åndelige aspekt kan ikke programmeres. Noget så tilsyneladende simpelt som smerte kan ikke gøres i kode.
Det var så en påstand. Nu mangler vi bare argumenterne der understøtter påstanden.
Det åndelig aspekt, uha uha. det lyder fornemt!
Jeg sagde ikke lave et menneske. Kun intelligens på menneskeniveau. Det åndelige aspekt kan ikke programmeres. Noget så tilsyneladende simpelt som smerte kan ikke gøres i kode.I så fald er det noget andet. Man kommer ikke til at lave et menneske vha. software.
Turingtesten er 100% irrelevant. Det handler ikke om at snyde nogen eller skabe en troværdig illusion i en snæver sammenhæng. Det skal være reelt.
I så fald er det noget andet. Man kommer ikke til at lave et menneske vha. software.
Morten, ja vi er kommet lidt op ad bjerget. Foden var de neurale net med backpropagation indlæring og den såkaldte deep learning er en forlængelse af den styrke og det er ligesom en gren i en klasse af teknikker som udgør en meget stor del af en fuldbyrdet kunstig intelligens. Der er mange aspekter i det men du kan sammenligne det lidt med CPU arkitektur hvor von neumann designet ligesom er nok men hvor man har tilføjet mange ekstra tricks for at speede op. Det virker ikke som om det helt er gået op for de forskellige forskere hvor tæt man er og derudover kræver det evnen til at håndtere kompleksiteten ved at være i stand til at improvisere nye afart løsninger i et tempo der bliver færdigt i endeligt tid. Det virker ikke som om der er ret mange der har den evne men sådan i fællesskab ser det ud til at de hutler sig langsomt frem. Du kan forestille dig at neurale net er stammen og deep learning og lidt andet er et par grene og slut resultatet der kræves er således et fuldt flot træ med mange blade. Men træet kan ses nu. Eller jeg har kunnet se træet siden 2003. Hvad angår tidshorisont vil vi nok se flere og flere specifikke implementationer af forskellige mentale evner som isoleret kan virke imponerende. Men givet menneskets ofte meget begrænsede intellekt og træets kompleksitet så forventer jeg at der stadig er meget langt igen før der er noget der minder om menneskelig intelligens. Men problemet er ikke større end at den rette person kan tage nogle hastige skridt. F.eks mig. Processorkraften er faktisk allerede tilstrækkelig til store fremskridt i ASICs (ikke generelle CPUer) Jeg vil tro vi kan begynde at se dumme androider i vores hverdag indenfor 10-20 år som ikke har reel intelligens i menneskelig forstand men stadig har stigende imponerende evner hvor det ikke længere er ingeniørløsninger i form af illusioner men reel kunstig intelligens. Det vil så gradvist blive mere og mere potent i en glidende overgang. Nu står vi overfor en meget stor revolution i forhold til vores fjerne familie i rummet som vil ændre alt indenfor en 10-20 år men bortset fra det ville jeg forvente en tidshorisont på noget seriøst AI på 40+ år. Men med løbende bemærkelsesværdig fremskridt.
Det er allerede godt nok til at skabe grusomme våben til militærbrug fordi det kræver ganske lidt intelligens at udvælge skydemål i visuel data hvis man ikke er bebyrdet af højere end det amerikanske militærs etiske standarder. Flyvende kunstig intelligens kombineret med laservåben vil være en helt ny klasse af massemord og de vil ingen anger have, ej heller trang til at fortælle om deres ugerninger som syndere har. Kombineret med kompakt kernekraft øges potensen yderligere.
Og deri ligger faren ved kunstig intelligens. Der er ingen direkte fare fra det selv men fra hvad ringe mennesker engagerer det til. Ubegrænset kunstig intellekt vil tjene uden modsigelse for evigt. Der er intet ønske om selvrealisering eller dominans i kode. Det er en projektion af den menneskelige psyke som mange fejlagtigt har gjort f.eks i film. Kode gør som kode er. Men selv uden tankeløse militærfolk kan man gøre noget dumt ved at give kunstig intelligens meget magt og formulere mål uden omtanke. Det skal dog være exceptionelt dumt før at det går helt galt ved et uheld.
Sålænge vi har ringe mennesker med ubegrænsede midler med et hemmelighedsmandat til at dække over deres ugerninger ('forsvaret', FE, wamberg etc) så inviterer vi i stigende grad katastrofe. Ondskaben trives i mørke. Således i USA som i DK. Det er en meget stor cancer, specielt i USA. Meget større end I kan forestille jer.
Turingtesten er 100% irrelevant. Det handler ikke om at snyde nogen eller skabe en troværdig illusion i en snæver sammenhæng. Det skal være reelt.
SVJV er mennesket det eneste dyr, som med forsæt kan snyde andre
Det er også observeret hos flere aber. Det klassiske eksempel er aber, der bruger "der kommer et farligt rovdyr"-kaldet til at få resten af flokken til at slippe hvad de har i hænderne og løbe i skjul. Det giver snyderen lejlighed til at snuppe lidt mad inden fejlen bliver opdaget. Det er "Peter og ulven om igen". Årsagen til at de hopper på den er, at faren for rovdyr er reel nok, og at risikoen ved at ignorere et farekald er for stor. De snydte aber bliver altså ikke klogere, men hopper på den igen og igen. Det er typisk aberne nederst i hierakiet (dvs. dem der ikke får så meget mad, hvis der er mangel), der benytter denne taktik. Observationen er understøttet eksperimentelt.
Som altid er det dog svært at overføre menneskelige begreber til dyr, da vi reelt ikke ved hvad eller hvordan de tænker. Alle kognitive studier af dyr lider af en human bias. Undersøgelsen foregår på vores præmisser og med vores begrebsverden. Derfor kan det være svært at komme med endegyldige konklusioner. Rent teoretisk er der dog intet til hinder for at dyr kan lyve eller snyde andre, det kan bare være svært for os at afgøre 100%, da der kan være andre forklaringer på vores observationer.
Her er en fin artikel der i et let sprog fortæller lidt om emnet: https://www.fanpop.com/clubs/chimpanzees-and-bonobos/articles/1818/title/chimpanzees-how-cognitive
Bortset fra det, så kan man helt grundlæggende sige, at intelligens ikke er det der giver intentionalitet.</p>
<p>Det var nu heller ikke det jeg skrev.
Det var heller ikke ment som en kommentar til det du havde skrevet. Bare helt grundlæggende overvejelser omkring forholdet mellem intelligens og intentionalitet.
Bortset fra det, så kan man helt grundlæggende sige, at intelligens ikke er det der giver intentionalitet.
Det var nu heller ikke det jeg skrev.
Men selvbevidsthed fører noget andet med sig, evnen til at sætte sig i en andens sted. Det betyder, man kan planlægge langt ud i fremtiden udfra hvad man vurderer andre vil gøre. SVJV er mennesket det eneste dyr, som med forsæt kan snyde andre, og som kan rationelt vurdere hvad andre tænker. Vi lærer det fra omkring 3-5 års alderen.
Et menneske er lavet af atomer. En computer er lavet af atomer. Der er ingen grund til at tro at computere ikke vil have ambitioner.
De forsætter med exponentiel vækst. En gang i det 22' århundrede vil computere være lige så meget klogere end mennesker, end mennesker er i forhold til orm.
Den positive vinkel er at vi kunne faktisk allerede have besøg af en sådan ufattelig skabning fra det ydre rum, men være ude af stand til at vide det.
Den negative vinkel er dette citat: "The AI doesn't hate you. It just needs your atoms for something else"
Bortset fra det, så kan man helt grundlæggende sige, at intelligens ikke er det der giver intentionalitet. Altså at man arbejder mod et bestemt mål. Intelligensen er bare et redskab for intentionaliteten.
Interessant udlægning. I det lavpraktiske lys virker selvbevidsthed også som en mindre ting.
F.eks. har en robot med et kamera jo brug for at forstå at den sidder og kigger på sin egen hånd, altså en hånd den selv kan flytte med. Hvor meget man kan ræsonnere ud fra den selvbevidsthed er vel så et spørgsmål om intelligens? F.eks. kan en myre måske ikke få den tanke at den sidder og tænker fordi den simpelthen ikke forstår den slags begreber (har en hjerne der kan forstå det). Tilsvarende med nutidens robotter. De forstår meget lidt af omverdenen og dem selv.
Evnen til at få idéer på egen hånd, den kan jeg ikke lige se, hvordan kan udføres ved simulation. F.eks. at en robot lige pludselig får den idé, at den vil bygge en anden bot. Uden at nogen har fortalt den det, eller hvordan man gør.
Jeg må som altid starte med at gøre opmærksom på, at jeg faktisk er den eneste med selvbevidsthed. I andre er bare en simulation af selvbevidsthed, man har faktisk ingen forståelse af egen eksistens :)
Bortset fra det, så kan man helt grundlæggende sige, at intelligens ikke er det der giver intentionalitet. Altså at man arbejder mod et bestemt mål. Intelligensen er bare et redskab for intentionaliteten. Intentionalitet er skabt af langt mere grundlæggende systemer. Hormonsystemer og "krybdyrhjernen". Hos meget intelligente dyr (f.eks. mennesket) kan intentionaliteten også påvirkes af vores forståelse af egen situation i verden.
Kunstige intelligenser har intet hormonsystem og ingen "krybdyrhjerne" til at påvirke deres intentionalitet, og deres situation i verden er helt anderledes end vores..ingen krop og ikke samme fysiologiske behov. Så vi må forvente, at deres intentionalitet vil være væsensforskellig fra vores.
Sorry hvis det lyder lidt abstrakt og højt travende. Men det bliver det let, hvis man skal formulere noget fornuftigt omkring dette emne kort. Læs det evt. igen. Så vil du opdage, at hvad jeg skriver faktisk er meget konkret.
Det bliver først spændende når kunstig intelligens begynder selv at opstille matematiske problemer og kommer med løsninger dertil
Det lyder ikke specielt relevant for kunstig intelligens. Er det ikke mere interessant med svære opgaver, som at kunne deltage i en samtale om weekendens fodboldresultater?
Det bliver først spændende når kunstig intelligens begynder selv at opstille matematiske problemer og kommer med løsninger dertil.
Jeg kan ikke sige det hundrede procent, men Turing testen er en begyndelse.
Se, hvis en maskines opførsel er så tæt på et menneskes, at det er umuligt at se forskel - er den maskine så et menneske?
Det er den selvfølgelig ikke, men når man ikke kan se forskel, så vil man tro, det er et menneske. Hjernen kan snydes ret nemt.
Man kan efterligne og simulere ganske mange ting, som simpelthen snyder vores hjerne så det batter. F.eks. kan man med elektromotorer simulere alle de ansigtstræk vi har, når vi er eftertænksommme, sure, glade, kede af det osv. Uanset vi ved, det er kunstigt, så vil det påvirke vores hjerne.
Allerede dét, vil kunne snyde os gevaldigt. Hvis man sætter det ind i en kontekst af en diskussion f.eks. imellem robot og menneske. Selve diskussionen kan så udføres vha. big data analyse, så også dér kan man snyde.
En fuldvoksen robot, som efterligner et menneske, vil opføre sig som et menneske, bevæge sig som et menneske, tale som et menneske, måske endda have "humør" som et menneske, men én ting vil være hammer svært at efterligne, det er self awareness.
Jo, man kan efterligne det udadtil, men det vil være dér, man kan afsløre den som maskine - tror jeg. Evnen til at få idéer på egen hånd, den kan jeg ikke lige se, hvordan kan udføres ved simulation. F.eks. at en robot lige pludselig får den idé, at den vil bygge en anden bot. Uden at nogen har fortalt den det, eller hvordan man gør.
Hej. Jeg ved ikke nøjagtigt hvad kriterierne for kunstig intelligens er. (Gør jer bare lystige). : ) Er det sådan at vi står ved foden af bjerget og kigger op, eller er vi allerede komme lidt op?
Er der skøn over resultater inden for en tidsperiode?
Jeg er også tekno positiv, med en krusning af erfaring.