Dette indlæg er alene udtryk for skribentens egen holdning.

Ånden i maskinen

27. september 2019 kl. 10:006
Artiklen er ældre end 30 dage

Mennesker skaber maskiner. Og maskiner skaber mennesker. Dette er efterhånden et veletableret faktum i den psykologiske forskning og et vilkår for os hyperteknologiserede mennesker i en hyperteknologisk verden. Kunstig intelligens (KI) vil mere end noget andet inden for den pågående teknologiske udvikling udfordre vore infrastrukturer hvad angår kommunikation, finans, transport og mellemmenneskelige relationer.

Illustration: Linus Nylund.

De strukturer vi er vant til at leve under, forandrer sig bestandigt. Og vi mennesker skal finde ud af, hvordan vi vil med. Ikke om. På mange måder har vi ikke et valg. Men vi skal finde ud af, om vi kan og om vi tør.

Disse udfordrende, komplicerede og til tider farlige forbindelser mellem mennesker og maskiner er, hvad jeg vil udforske og debattere med jer her på ing.dk med afsæt i disciplinen teknopsykologi.

Det store ’hvorfor’

KI åbner op for flere spørgsmål, end det giver os svar. Jeg vil tage jer med ind i psykologens kognitive laboratorium og præsentere mit perspektiv på forudsætningerne for og konsekvenserne af KI-bølgens brusen. Den kommer - nogle gange voldsomt, andre gange i ryk, og ofte uforudsigeligt - så sikkert som havets brænding.

Artiklen fortsætter efter annoncen

Hvorfor tror du for eksempel, at vi mennesker er så optaget af at ville skabe, ikke blot teknologi, men intelligent teknologi?

Hvor kigger vi hen i vores stræben efter at udvikle ’menneskelighed’ i maskinen, og hvad giver dig lyst til at indgå i reel dialog med en maskine?

Skal vi efterstræbe at få maskiner til at opføre sig som mennesker - og mennesker som maskiner?

Lægger du mon mere i ske med din smartphone end med din partner? Eller bruger du længere tid på at kigge i din computer end i øjnene på din familie?

Etiske problemstillinger

Ovenstående spørgsmål er få blandt en uudtømmelig række, hvis vi først går i gang. Og de fleste af dem vi kan komme på rummer etiske problemstillinger, når vi kradser lidt i overfladen.

Artiklen fortsætter efter annoncen

Når en maskine får lov at "gennemtygge" data og algoritmer i et simuleret neuralt netværk, bliver medarbejderen måske reduceret til at skulle fortolke maskinens output eller blot assistere og servicere maskinen. Dette rejser naturligt et spørgsmål om hvem, hvad og hvordan man stilles til ansvar for de valg, der træffes på baggrund af maskinens autonome databehandling, eller hvis en utilsigtet hændelse sker.

Har vi nemmere ved at acceptere, at vore bedsteforældre i fremtiden skal passes af robotter end at vi - i første omgang mennesker med alvorlig lammelse - får indopereret hårtynde elektroniske tråde i hjernen, der gør os i stand til at kommunikere direkte med digitale systemer følg linket?
Med andre ord; skal vi erstattes eller forlænges (augmenteres) af maskinerne?

Forsvarets tale

Med en baggrund som militærpsykolog og daglig psykoterapeutisk behandling af PTSD-ramte veteraner har jeg et særligt øje på, hvordan vores Forsvar i Danmark forholder sig til netop intelligent teknologi.

Nu har vi for eksempel ikke længere kun tre værn, men hele fire; Cyber-værnet blev i denne uge legitimeret med udgivelsen af Forsvarets Værnsfælles Doktrin for Militære Cyberspaceoperationer. følg linket. Cyber er lig med nye muligheder for intelligent krigsførsel og det er til et lille vågent land som vores fordel - hvis vi altså er de mest vågne...

Men hvordan vælger vi at bruge vores ressourcer her og for hvis skyld?

Skal vi koncentrere os om at spore og lukke potentielle angrebshuller i vores cyberspace? Skal vi ud at erobre terræn (eller blot forsvare os) med kloge klyngedroner? Ellers skal vi målrette vores intelligente teknologi mod at forhindre civile tab blandt lokalbefolkninger i vores forsøg på at opretholde retfærdighed?

Jeg glæder mig til at diskutere disse dilemmafyldte spørgsmål med jer her på bloggen. Og vi kunne blive ved med at kredse om menneske-maskine-interaktionen i det uendelige, men før eller siden må vi komme til bunds i dét, det hele handler om - eller snarere hvem det hele handler om: os.

Hvad er et menneske?

Den chatbot eller voicebot du kommunikerede med sidste gang du ringede til dit forsikringsselskab eller bestilte mad online er programmeret til at reagere på dig på en bestemt måde. Den er udviklet med afsæt i en specifik forståelse af dig som menneske; hvad er dine behov og hvordan ønsker du at blive kommunikeret med.

Menneskets væren og væsen holdt op imod den teknologiske udvikling er hvad jeg har på briksen i disse dage.

Illustration: Wikipedia.

Om kløgtige ingeniører og matematikere 'leger Gud’ eller ej, når de forsøger at skabe kunstig intelligens vil jeg ikke være dommer over. Vi skal ikke grave i deres sind, men vi skal forstå implikationerne af deres valg og fravalg. De bevidste og knapt så bevidste af slagsen.

Jeg vil dog påstå at alt kunstigt nødvendigvis må skabes i det naturliges billede, og derfor skal vi starte netop dér næste gang. Vi skal have styr på hvad vores naturlige intelligens er - og glemt her alt om IQ-tests, alverdens sprogkundskaber, økonomisk kapacitet eller systemtænkning.

Det drejer sig om noget så basalt og komplekst som vilje til overlevelse.

Illustration: NrkBeta.

Teknopsykologi handler om at blive klogere på samspillet og give brugbare bud på en række af de spørgsmål, der dukker op, når man bevæger sig ind i minefeltet af kognitionsmodeller, ontologier og applikationen af disse i opbygningen af kunstig intelligens. Jeg glæder mig til at vende det hele med jer her i bloggen.

Lad mig gerne høre jeres bud på;

Hvor bør Forsvaret for eksempel trække en streg i forhold til brug af KI i krigsførsel? Og hvor autonome skal de (antageligt) kommende danske klyngedroner være?

Med venlig hilsen Astrid

6 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
6
6. oktober 2019 kl. 11:33

Du kan ikke købe eller eje våben lovligt her tillands uden våbetilladelse. Jeg ville være mere bange hvis jeg var kineser og medlem af "det sande parti " hvis et sådant apparat kom til salg på Alibaba :)

4
4. oktober 2019 kl. 11:27

Hej Ole, jeg er helt enig.

Vi mennesker er frygtelige til at fejle pga. uopmærksomhed, irationalitet og manglende viden generelt.

Når jeg tager "dræberdronerne" op her, er det for at slå an til en diskussion af hvordan disse droner programmeres ita. de er intelligente - hvor intelligente skal de være - altså skal de være autonome og selv "træffe" valg om fx. mål for bombning. Og her kommer vores etik bare i spil for; hvor mange uskyldige menneskeliv må kastes i puljen for at 'få overtaget' som du skriver? Så længe der ikke er aftalt noget konkret i fht. etiske retningslinier bliver sådanne spørgsmål retoriske, hvilket er fint som udgangspunkt, men langt fra nok når vi taler om alvorlige emner såsom krig.
Fortsat god dag. Vh Julie-Astrid

3
4. oktober 2019 kl. 10:04

Jeg synes diskussionen vender spøjst. Så længe våbenet er at betragte som et værktøj og ikke har sin egen agenda, så er der vel ikke nogen etisk forskel?

Altså der kan være forskel i fejlrate. Lige som når USA sender bomber ned fra en drone i Pakistan og rammer civile, eller hvis man skyder inde i en by og rammer børn. Men det er vel i udgangspunkt et praktisk spørgsmål - en selvstændig drone kunne vel med bedre sigte osv. omvendt, i hvert fald i teorien, være bedre til at uskadeliggøre modstanderen. Det gælder jo ikke om at slå ihjel, men om at få overtaget?

2
1. oktober 2019 kl. 14:37

Kære Jesper

Tak for interessant indspark - opløftende og betryggende. Vi må se hvordan det danske Forsvar forholder sig til disse vedtægter. Jeg vil i hvert fald spørge ind dertil når jeg har møde med Institut for Militær Teknologi senere på måneden. Og jeg vil følge op derpå herinde på bloggen ;-)

Fortsat god dag!

1
30. september 2019 kl. 09:36

Et vigtigt spørgsmål, som også diskuteres på EU niveau, hvorunder Europa-Parlementets beslutning af 12 september 2018 om autonome våbensystemer (LAWS) er central (https://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_DA.pdf). Jeg har desværre ikke kunne finde en opfølger til diskussionen, men EU ser KI udviklet med rodfæste i deres etiske principper for brugen af KI, som følger et menneskecentrisk niveau; dvs. at et fuldt ud autonomt våben ikke skal implementeres, men at der nødvendigvis må være mennesker til at kontrollere og i sidste ende træffe enhver beslutninger af potentiel dødelig karakter.

Jeg er utrolig glad for, at disse emner tages op, og ser frem til en række spændende artikler!