den teknoetiske garage bloghoved

Etikken i teknikken #1

Det seneste år har jeg slæbt mere end 2.000 danskere fra alle dele af samfundet - ledere, IT-folk, netværksorganisationer og selv et større hold fra Politiken Plus-segmentet - gennem dataetiske dilemmaspil. I grupper fra få til rigtig mange - og om noget en gruppedynamisk øvelse som hver gang, har krævet at mennesker har været samlet for at skabe dialog og dynamik i diskussionerne. Det har været en fantastisk rejse med ny viden, nye erkendelser, masser af interessante diskussioner, brudte personlige grænser men også med masser af humor og mængder af kærlig sarkasme.

En af de vildeste oplevelser var da jeg i KB Hallen sammen med en filosofiprofessor og en chef for en juridisk tænketank - et ret atypisk setup på en tech-konference som IBM Think - gennemførte et dilemmaspil med 7-800 deltagere.

Illustration: IBM

Men det er jo stoppet brat nu. Og i øvrigt ikke så underholdende og energisk-dynamisk at gøre noget lignende på videokonference. Så i pausen, indtil samfundet åbner igen, er det værd at reflektere over, hvad vi har lært gennem de mange arrangementer.

Det er et komplekst område, så i den kommende tid kommer jeg til at fortælle om emnet over en række artikler. I den første taler vi om de helt grundlæggende begreber og så kommer vi til at udfolde AI-etik, dilemmaspil, menneskelig etisk resiliens, dannelse og meget mere.

Hvorfor?

Dataetik er en svær størrelse. Både fordi det kan være en udfordring at forstå og overskue den komplekse digitale som omgiver os — bare læs Zuboffs “The Age of Surveillance Capitalism” for en introduktion - men også fordi det kan være svært at spotte de dataetiske dilemmaer og paradokser som vi kan blive ramt af som individer eller virksomheder. I dét som omgiver os, eller måske tilmed skabt af vore egne handlinger. Ofte er problemet nemlig at vi ikke helt ved, hvad vi ikke ved. Nye sammenstillinger af data, nye overvågningsmekanismer eller nye teknologier kan rykke ved vores forestilling om, hvad som kan lade sig gøre og kan sende os ud i et etisk ingenmandsland som vi hverken kan finde hoved eller hale i.

Er det nu OK det dér ansigtsgenkendelse som politikerne begynder at tale om, er det bare helt fint at bruge maskinlæringsalgoritmer til at identificere børn som måske får problemer senere i livet og hvorfor egentlig ikke erstatte bankrådgiveren med en algoritme som helt af sig selv - baseret på din historik med banken og sikkert også nogle andre data - kan beslutte om du nu får det billån du drømmer om? Eller det helt OK og en naturlig handling i situationen at indføre masseovervågning via mobilnetværk for at myndighederne kan få et overblik over coronasituationen?

For ikke at tale om alle de tekniske udfordringer som direkte eller indirekte skaber etiske problemstillinger når vi kaster os ud i en verden af kunstig intelligens. Eksempelvis om vi bygger forkert menneskelig bias og fordomme ind i algoritmerne, om de er fair og om de i tilstrækkelig grad kan forklare de beslutninger som algoritmerne tager.

Forstå komplekse problemstillinger

Jeg testede første gang ideen om det etiske dilemmaspil på Børsens Forsikringskonference i starten af 2019. IBM var inviteret til at tale om AI og forsikringsverdenen og det slog mig, at præsentationen blot ville blive en gentagelse af noget vi havde gjort før – blot opdateret med ny teknologi, nye cases og et let ændret syn på tingene. For mig som innovationsperson var det ganske enkelt for kedeligt og forudsigeligt, så vi måtte finde på noget andet.

Vi tænkte at forsikringsverdenen om noget ville blive ramt af ny teknologi og gigantiske etiske dilemmaer, når teknologien for penetrerer vores dagligdag. Eksempler som forfaldet af solidaritetsprincipper når den datadrevne mikro-tarifering indtræffer eller tvang om at levere flere personlige data mod lavere præmier. For ikke at tale om forudsigelser af sygdomme baseret på DNA-profiler. Og så fremdeles.

Så vi lavede et fremtidsscenarie. Vi forestillede os hvordan forsikring ville se ud om 20 år: Uendelige datamængder, IoT-devices overalt, talrige former for selvmålerteknologier (a la Apple Watch version 14 forbundet til nerveender), nye forretningsmodeller og i det hele taget en verden, hvor data skaber fuld gennemsigtighed så ingen der har noget at skjule, har mulighed for at skjule noget. Så foretog vi en parallelforskydning af disse tendenser, forsøgte at forstå de dataetiske dilemmaer med nutidens øjne, førte dem tilbage til 2019 og konfronterede en flok topledere fra forsikringsverdenen med fem konkrete dilemmaer.

Det var sjovt, lærerigt, tankevækkende – og fandens foruroligende. Det var nemlig ikke altid at forsikringsfolkene kunne se, og gennemskue, de etiske dilemmaer, så de valgte ofte at svare pr. automatreaktion. Altså: Hvis vi er vant til at flere data om kunderne betyder bedre risikomodeller, hvilket igen betyder bedre styr på forretningen, hvilket forsager et større forretningsomfang og dermed forøget indtjening, synes vi naturligvis at flere data er ækvivalent med mere indtjening.

Helt forståeligt da adfærden jo er ret almindelig og bestemt ikke begrænset til forsikring. Store dele af erhvervslivet er jo i forvejen i vidt omfang drevet af De Syv Dødssynder, så ingen overraskelse her, men det vakte alligevel til eftertanke at visse af de mere langsigtede etiske udfordringer ikke blev spottet her i det første forsøg.

Husk at etik jo ikke bare handler om at være god ved dyr og mennesker men også kan have ganske voldsomme konsekvenser i form af shitstorme, ødelagt image, tab af kunder og meget mere. Og det bliver værre jo flere data og større kompleksitet vi omgiver os med. Netop derfor er det vigtigt at vi taler om etik – og dilemmaspillene er en ganske effektiv måde at formulere, forklare og reflektere over kort- og langsigtede dilemmaer. Senere på året holdt vi etiske dilemmaspil på Folkemødet og efterfølgende udviklede vi sammen med Politiken et dilemmaspil som blev testet på læserne, vi holdt et læserarrangement hvor vi også testede og der kom tilmed en dataetisk podcast.

Og derefter væltede det ind med interesse, konferencer og arrangementer – indtil videre kun stoppet af en irriterende virus. Så der er stor interesse for emnet. Men mere om de praktiske erfaringer senere.

Hvad er etik?

Der er en etik-bølge i IT-industrien for øjeblikket. Den er primært forårsaget af det faktum, at digitaliseringen efterhånden er blevet så altomfattende at den for alvor begynder at påvirke menneskelig adfærd og ditto beslutningsprocesser. Og ofte via kunstig intelligens som i sig selv indeholder et væld af yderligere problemstillinger.

Det er dog interessant at vi til hverdag ofte talker om etik, men ikke rigtig har en holdning hvad det egentlig er, vi mener med termen. Og tilmed har vi på dansk den yderligere komplikation at vi ofte ikke skelner mellem “etik” og “moral” som var de udtryk for det samme.

Jeg er jo selv blot en ydmyg datamat-tekniker og skal ikke rode mig ud i en længere diskussion af den filosofiske definition af disse begreber. I mine præsentationer og dilemmaspil bruger jeg en definition hentet fra Etisk Råd, nemlig:

»Etiske spørgsmål drejer sig om, hvordan man behandler andre mennesker og andre levende væsener. Etik handler om, hvad det gode liv er, og betydningen af at tage hensyn til andre og ikke kun have blik for sig selv og sine egne behov.«

I en datadreven verden kan man jo så lege med at erstatte “man” med “maskiner” og fjerne “andre”. Altså: ”Etiske spørgsmål drejer sig om, hvordan maskiner behandler mennesker og andre levende væsener”. I kraft af, at en af de væsentligste drivende faktorer for udbredelse af AI jo netop er automatisering af menneskelige- over i maskinelle processer og -beslutninger, er denne sætning jo ganske relevant. Men det er mere komplekst en som så. Etikken i teknikken handler nemlig om et væld af problemstillinger på tværs af domæner og på mange niveauer. Nogle menneskelige, forretningsmæssige og nogle af mere teknisk og lovgivningsmæssig karakter. For mig klasificeres disse i en række hovedgrupper:

Teknologietikken: Her bor beslutningerne omkring hvordan vi bruger teknologi i bred forstand, men også de forretningsmæssige eller menneskelige beslutninger som brug af teknologi forårsager. Skal vi automatisere, vil det være for kontroversielt at indføre masseovervågning af medarbejdere, skal vi forudsige sygdomme hos patienter i sundhedssystemet og en række andre beslutninger. De fleste af dem er forårsaget at forskellige former for ny teknologi: Pludselig kan vi mønstergenkende, automatisere, analysere og det kan føre til kontroversielle beskutninger og løsninger.

Dataetikken: Jeg er vel opmærksom på at denne term bruges på at beskrive nærmest alt omkring etik og IT, men i mangel af bedre er dataetikken for mig hvordan vi bruger data på en etisk forsvarlig måde: Indsamler, håndterer, analyserer og forståelsen af privatliv og integritet for den enkelte. Regelsæt som GDPR og lignende.

AI-etikken: Dér hvor kunstig intelligens og data science introducerer en række nye problemstillinger som vi ofte ikke har set - eller været opmærksomme på - tidligere. At AI-løsninger er en blackbox og ikke kan forklare hvordan de når frem til beslutninger, at data i AI-livscyklus’en kan blive påhæftet uheldig menneskelig bias, at vi kan komme til at lave løsninger som ikke er fair, diskrimerende og en masse andre dårligdomme.

The Trolley Problem

Alt dette handler om, hvordan vi tager beslutninger som mennesker eller når vi lader maskinerne gøre det - og den grundlæggende tænkning som vi involverer i selvsamme beslutninger. Det klassiske tankeeksperiment The Trolley Problem søger at afdække etiske betragtninger og nuancer ved at opstille en række scenarier.

Det klassiske er: En sporvogn bevæger sig med stor hast ned af en bakke og kan ikke stoppes. Længere nede af sporet er fem mennesker bundet fast til sporet og de vil blive slået ihjel hvis sporvognen fortsætter. Du står midtvejs mellem sporvogn og gruppen af fem og kan betjene et skiftespor så du dirigerer sporvognen ud på et sidespor og dermed redder de fem fra døden. Men du bemærker at på sidesporet er en enkelt person som vil lide samme skæbne såfremt du sender sporvognen derud.

Illustration: wikipedia commons

Så hvad gør du? Du har ret beset to muligheder: (1) Gør intet og lad sporvognen køre ind i gruppen af fem (2) Aktiver skiftesporet og sporvognen vil køre ind i den ene person

Det er faktisk ikke let at svare på. Indtager man den nytteetiske/utilitaristiske synspunkt - som bygger på filosofien om, at vi skal maksimere lykken og nytten i samfundet som hele og derved må acceptere tab i dette større billede - er der ingen tvivl om, at det mest moralske vil være at aktivere skiftesporet. Business case’en er jo god: Fem får lov til at leve for prisen af en. Men tager man det dydsetiske syn som også inddrager menneske, moral og dannelse, er det lidt mere kompliceret. For selvom man godt kan se at det er fem mod en, vil den ene jo dø som konsekvens af en konkret menneskelig handling; alternativet var jo at sporvognen køre og dermed ikke gribe ind. Så når du aktiverer skiftesporet foretager du en handling som koster menneskeliv.

Og hvad nu, hvis den ene person på sidesporet var dit egen barn. Eller de fem var kendte forbrydere. Og så fremdeles. Der findes flere varianter af problemet som på hver sin måde forsøger at afdække vores tækning omkring etiske beslutninger.

Moral Machine

The Trolley Problem virker uhyggelig relevant, når vi tænker på de algoritmer som skal beslutte hvordan selvkørende biler skal reagere i pressede situationer. Men træk lige billedet lidt videre og tænk på, at vi jo ofte kommer i lignende problemstillinger når vi lader digitalisering foretage beslutninger på vegne af mennesker. Det er jo netop der etikken begynder at spille ind.

MIT lavede for nogle år siden et interessant eksperiment som er en afart af The Trolley Problem, nemlig “Moral Machine”. Via en digital platform, præsenteret nærmest som et spil, spurgte man millioner af mennesker om et konkret etisk dilemma, nemlig: Du kommer kørende ned af en vej og du bliver konfronteret med et valg: Hvem skal du køre ned? Dyr eller menneske, mand eller kvinde, flere eller færre, fed eller fit, lovlydig eller kriminel, ung eller gammel og så fremdeles. I alt 9 forskellige scenarier.

Undersøgelsen giver forsåvidt ikke nogle svar på, hvordan selvkørende biler skal agere, når de kommer i en lignende situation, men den giver et værdifuldt indblik i hvordan mennesker opfatter disse etiske valg. Herunder at der er en markant forskel på holdningerne, eksempelvis afhængigt af hvilken geografi man kommer fra og hvilken samfundsmodel som man lever i. Med andre ord: Etik er ikke universel og kan ikke sættes på formel, da den i høj grad afhænger af mennesker, kultur og kontekst.

Hvis du er interesseret i at kigge nærmere på resultaterne fra Moral Machine, kan du på moralmachineresults.scalablecoop.org selv kigge dybere i resultaterne og sammenligne forskellige kulturer. For eksempel er Venezuela det land som i bred forstand er mest forskelligt fra Danmark. Du kan se de ni scenarier nedenstående; nogle af forskellene er, at venezuelanere er meget forskellige i danskere i forhold til deres lyst til at køre ind i fattig vs. rig, mænd vs. kvinder og tilmed dyr vs. mennesker. Det vil være en ret kompliceret opgave at lave en selvkørende bil som med samme software kunne køre både i Venezuela og Danmark.

Illustration: http://moralmachineresults.scalablecoop.org/

I den næste artikel kommer vi til at diskutere hvordan man bliver i stand til at spotte de dataetiske dilemmaer. Stay tuned.

Kim Escherich er AI-etisk ombudsmand og innovationsarkitekt hos IBM. Her i bloggen skriver han om forholdet mellem teknologien og mennesket. En teknologi, der ændrer vores privatliv, vores job, vores krop og vores samfund i en hastighed, hvor flertallet har svært ved at følge med.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Bidrag med din viden – log ind og deltag i debatten